– Aspectos Praticos
Inscrições: https://forms.gle/H5QLjGPZhC6XN8Zk7
Informações: acm@acm-itea.org
A inferência bayesiana é um método de inferência estatística pelo qual se calcula as probabilidades de várias causas hipotéticas a partir da observação de eventos conhecidos. Baseia-se principalmente no teorema de Bayes.
O raciocínio bayesiano constrói, a partir de observações, uma probabilidade da causa de um tipo de evento. Atribuímos a qualquer proposição de causa um valor de sua probabilidade, tomado no intervalo aberto que vai de 0 (contradição, certamente falso) a 1 (tautologia, certamente verdadeiro). Quando um evento tem mais de duas causas possíveis, consideramos uma distribuição de probabilidade para essas causas. Essa distribuição é revisada a cada nova observação e torna-se cada vez mais refinada. Assim, um diagnóstico médico indica que uma doença, mais do que outra, é provavelmente a causa dos sintomas de um paciente, e os testes apóiam ou refutam essa hipótese. Da mesma forma, em função dos resultados de cada perfuração de uma campanha de prospecção, revisa-se a probabilidade de haver uma jazida de petróleo em determinado local.
O teorema de Cox-Jaynes formaliza a noção intuitiva de plausibilidade em uma forma numérica. Ele demonstra que, se as plausibilidades satisfazem o conjunto de hipóteses que propõe, a única forma coerente de manipulá-las é usar um sistema isomórfico à teoria da probabilidade, induzindo assim uma interpretação “lógica” das probabilidades independentes, da frequência e da probabilidade. base racional para o mecanismo de indução lógica.
A inferência bayesiana produz uma probabilidade que é interpretada como o grau de confiança a ser dado a uma causa hipotética. É usado para aprendizado de máquina em inteligência artificial. Fone: Wikipédia
Helio S. Migon
Graduou-se em Estatística pela Escola Nacional de Ciências Estatísticas (1970), obteve o mestrado em Estatística pela Universidade de São Paulo (1974) e doutorado em Estatística pela University of Warwick, UK (1984). Atualmente, é pesquisador visitante do Instituto Politécnico do Rio de Janeiro (UERJ/Nova Friburgo) e professor emérito da Universidade Federal do Rio de Janeiro.
Foi pesquisador visitante na Unicamp (ago/19 a jul/20, projeto Fapesp). Bolsista de pesquisa do CNPq desde 1989 até 2020. Orienta alunos de iniciação científica, mestrado e doutorado.
Publicou artigos em vários periódicos de Estatística como Journal of the American Statistical Association, Journal of the Royal Statistical Society (Series B and D), Biometrika, Computational Statistics and Data Analysis e outros.
Autor do livro Statistical Inference: an Integrated Approach (com Dani Gamerman e Francisco Louzada), 2a. edição publicado pela Chapman-Hall em 2014 (1a. edição pela Arnold em 1999), além de vários livros nacionais.
Editor associado dos periódicos Applied Stochastic Models in Business and Industry e Revista de Pesquisa Operacional.
Coordenador adjunto da Área de Matemática, Probabilidade e Estatística da CAPES (2016/17). Presidente da ABE – Associação Brasileira de Estatística (2000/02, membro do Comitê Assessor da área de Matemática Probabilidade e Estatística do CNPq (1998/2001 e 2011/16), Coordenador do Programa de Pós-Graduação em Estatística do IM/UFRJ (1995/97 e 2007/09), Diretor Adjunto de Pesquisa do IM (1999/2002) e chefe do Departamento de Métodos Estatístico do IM de 2011/15.
Tem experiência na área de Probabilidade e Estatística, com ênfase em Probabilidade e Estatística Aplicadas, atuando principalmente nos seguintes temas: Inferência Bayesiana, Modelos Dinâmicos e Previsões Bayesianas, Amostragem de Populações Finitas, Econometria Aplicada a Finanças e Atuária.