Utilize este link para identificar ou citar este item: https://bdm.unb.br/handle/10483/8086
Arquivos neste item:
Arquivo Descrição TamanhoFormato 
2013_JessicaFrancoCancadoRichard.pdf1,11 MBAdobe PDFver/abrir
Título: Divergência de Kullback-Leibler : uma aplicação à modelagem
Autor(es): Richard, Jéssica Franco Cançado
Orientador(es): Gomes, Antônio Eduardo
Assunto: Análise de sobrevivência
Análise estatística
Data de apresentação: 3-Dez-2013
Data de publicação: 8-Ago-2014
Referência: RICHARD, Jéssica Franco Cançado. Divergência de Kullback-Leibler: uma aplicação à modelagem. 2013. [56] f., il. Monografia (Bacharelado em Estatística)—Universidade de Brasília, Brasília, 2013.
Resumo: Este trabalho tem como objetivo apresentar uma nova proposta de teste de adequabilidade de modelos utilizando a Divergência de Kullback-Leibler entre o núcleo-estimador (kernel) da amostra e o modelo estimado pelo método de máxima verossimilhança para análise de dados completos e censurados. Através de simulações, analisa-se o comportamento do teste para as distribuições Normal, Gamma e Weibull. Ao final do trabalho, é apresentada uma aplicação prática a bancos de dados implementados no software R. O teste em questão apresentou excelentes resultados em simulações para a detecção do modelo normal, não tendo rejeitado nenhuma vez o modelo correto simulado. No entanto, devido a problemas de fronteira na implementação de núcleo-estimadores, o teste proposto mostrou-se muito sensível a distribuições com grande assimetria e limites no domínio da função densidade de probabilidade, como a distribuição χ² ou exponencial, casos particulares da distribuição Gamma. Ressalta-se as várias possibilidades de extensão deste estudo, seja no desenvolvimento de algoritmos melhorados, aplicação do teste a outras funções densidade de probabilidade, comparação com demais testes, estudo de seu poder ou utilização de técnicas que diminuam o efeito de fronteira apresentado pelo kernel. __________________________________________________________________________ ABSTRACT
This paper proposes a new goodness-of-fit test using Kullback-Leiber divergence between the sample kernel estimator and the estimated model via the maximum likelihood method for complete and censored data. Through simulations, the test is analyzed in terms of the model’s goodness-of-fit for the Normal, Gamma and Weibull distributions. Finally, an application is given using R software datasets. The test presented excellent results in the normal simulations, with no rejection of the right simulated model. However, the proposed test has showed considerable sensitivity for given high asymmetric distributions or density functions with limited dominium as χ² or exponential, Gamma’s particular cases, caused by the kernel’s boundary problems. Given the present work, it’s possible to develop various other studies as better algorithms, application in other density functions, comparison with other tests and its power or the implementation of techniques to lessen the boundary problems.
Informações adicionais: Monografia (graduação)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2013.
Aparece na Coleção:Estatística



Este item está licenciado na Licença Creative Commons Creative Commons