Uma contribuição à teoria da informação e ao critério de informação de Akaike

Detalhes bibliográficos
Autor(a) principal: Araujo, Adrielle Braga de
Data de Publicação: 2020
Tipo de documento: Trabalho de conclusão de curso
Idioma: por
Título da fonte: Repositório Institucional da Universidade Federal Fluminense (RIUFF)
Texto Completo: https://app.uff.br/riuff/handle/1/23209
Resumo: Sempre que fazemos observações estatísticas ou planejamos e realizamos experimentos estatísticos, buscamos informações. Consequentemente, o conceito de informação desempenha um papel importante em áreas que utilizam sistemas probabilísticos ou estatísticos de observações. Neste trabalho estudamos duas variáveis aleatórias centrais da teoria da informação: a informação de Shannon e a informação de Kullback-Leibler. Mostramos que as respectivas esperanças matemáticas são conhecidas como entropia de Shannon e divergência de Kullback-Leibler. Dedicamos mais espaço para estudar as propriedades matemáticas da divergência de Kullback-Leibler com o objetivo de mostrar sua aplicação na seleção de modelos probabilísticos como uma medida da “distância” entre distribuições de probabilidade. Apresentamos o critério de informação de Akaike como uma metodologia de otimização da esperança da divergência de Kullback-Leibler
id UFF-2_8b95d74d9d3d09c18bf1f43d7c6c3642
oai_identifier_str oai:app.uff.br:1/23209
network_acronym_str UFF-2
network_name_str Repositório Institucional da Universidade Federal Fluminense (RIUFF)
repository_id_str 2120
spelling Uma contribuição à teoria da informação e ao critério de informação de AkaikeTeoria da informaçãoInformação de ShannonInformação de Kullback-LeiblerEntropia de ShannonDivergência de Kullback-LeiblerCritério de informação de AkaikeTeoria da informaçãoTeoria da probabilidadeEstatística matemáticaSérie temporalInformation theoryShannon’s informationKullback-Leibler’s informationShannon’s entropyKullback-Leibler divergenceAkaike information criterionSempre que fazemos observações estatísticas ou planejamos e realizamos experimentos estatísticos, buscamos informações. Consequentemente, o conceito de informação desempenha um papel importante em áreas que utilizam sistemas probabilísticos ou estatísticos de observações. Neste trabalho estudamos duas variáveis aleatórias centrais da teoria da informação: a informação de Shannon e a informação de Kullback-Leibler. Mostramos que as respectivas esperanças matemáticas são conhecidas como entropia de Shannon e divergência de Kullback-Leibler. Dedicamos mais espaço para estudar as propriedades matemáticas da divergência de Kullback-Leibler com o objetivo de mostrar sua aplicação na seleção de modelos probabilísticos como uma medida da “distância” entre distribuições de probabilidade. Apresentamos o critério de informação de Akaike como uma metodologia de otimização da esperança da divergência de Kullback-LeiblerWhenever we make statistical observations or design and conduct statistical experiments, we seek information. Consequently, the concept of information plays an important role in fields that use probabilistic or statistical systems of observations. In this work, we study two central random variables in information theory: Shannon’s information and Kullback-Leibler’s information. We show that their respective mathematical expectations are known as Shannon’s entropy and Kullback-Leibler divergence. We dedicate more space to study the mathematical properties of Kullback-Leibler divergence in order to show its application in the selection of probabilistic models as a measure of the “distance” between probability distributions. We present the Akaike information criterion as a methodology for optimizing the expectation of Kullback-Leibler divergence49 f.Luizar Obregon, Jesus AlexeiPacoricona, Aldo Amilcar BazanSantos, Hugo Henrique Kegler dosFonseca, Luiz Fernando CerqueiraAraujo, Adrielle Braga de2021-09-14T21:16:22Z2021-09-14T21:16:22Z2020info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisapplication/pdfARAUJO, Adrielle Braga de. Uma contribuição à teoria da informação e ao critério de informação de Akaike. 2020. 49 f. Trabalho de Conclusão de Curso (Graduação em Ciências Econômicas) - Faculdade de Economia, Universidade Federal Fluminense, 2020https://app.uff.br/riuff/handle/1/23209http://creativecommons.org/licenses/by-nc-nd/3.0/br/CC-BY-SAinfo:eu-repo/semantics/openAccessporreponame:Repositório Institucional da Universidade Federal Fluminense (RIUFF)instname:Universidade Federal Fluminense (UFF)instacron:UFF2022-11-16T12:02:57Zoai:app.uff.br:1/23209Repositório InstitucionalPUBhttps://app.uff.br/oai/requestriuff@id.uff.bropendoar:21202024-08-19T10:58:18.400587Repositório Institucional da Universidade Federal Fluminense (RIUFF) - Universidade Federal Fluminense (UFF)false
dc.title.none.fl_str_mv Uma contribuição à teoria da informação e ao critério de informação de Akaike
title Uma contribuição à teoria da informação e ao critério de informação de Akaike
spellingShingle Uma contribuição à teoria da informação e ao critério de informação de Akaike
Araujo, Adrielle Braga de
Teoria da informação
Informação de Shannon
Informação de Kullback-Leibler
Entropia de Shannon
Divergência de Kullback-Leibler
Critério de informação de Akaike
Teoria da informação
Teoria da probabilidade
Estatística matemática
Série temporal
Information theory
Shannon’s information
Kullback-Leibler’s information
Shannon’s entropy
Kullback-Leibler divergence
Akaike information criterion
title_short Uma contribuição à teoria da informação e ao critério de informação de Akaike
title_full Uma contribuição à teoria da informação e ao critério de informação de Akaike
title_fullStr Uma contribuição à teoria da informação e ao critério de informação de Akaike
title_full_unstemmed Uma contribuição à teoria da informação e ao critério de informação de Akaike
title_sort Uma contribuição à teoria da informação e ao critério de informação de Akaike
author Araujo, Adrielle Braga de
author_facet Araujo, Adrielle Braga de
author_role author
dc.contributor.none.fl_str_mv Luizar Obregon, Jesus Alexei
Pacoricona, Aldo Amilcar Bazan
Santos, Hugo Henrique Kegler dos
Fonseca, Luiz Fernando Cerqueira
dc.contributor.author.fl_str_mv Araujo, Adrielle Braga de
dc.subject.por.fl_str_mv Teoria da informação
Informação de Shannon
Informação de Kullback-Leibler
Entropia de Shannon
Divergência de Kullback-Leibler
Critério de informação de Akaike
Teoria da informação
Teoria da probabilidade
Estatística matemática
Série temporal
Information theory
Shannon’s information
Kullback-Leibler’s information
Shannon’s entropy
Kullback-Leibler divergence
Akaike information criterion
topic Teoria da informação
Informação de Shannon
Informação de Kullback-Leibler
Entropia de Shannon
Divergência de Kullback-Leibler
Critério de informação de Akaike
Teoria da informação
Teoria da probabilidade
Estatística matemática
Série temporal
Information theory
Shannon’s information
Kullback-Leibler’s information
Shannon’s entropy
Kullback-Leibler divergence
Akaike information criterion
description Sempre que fazemos observações estatísticas ou planejamos e realizamos experimentos estatísticos, buscamos informações. Consequentemente, o conceito de informação desempenha um papel importante em áreas que utilizam sistemas probabilísticos ou estatísticos de observações. Neste trabalho estudamos duas variáveis aleatórias centrais da teoria da informação: a informação de Shannon e a informação de Kullback-Leibler. Mostramos que as respectivas esperanças matemáticas são conhecidas como entropia de Shannon e divergência de Kullback-Leibler. Dedicamos mais espaço para estudar as propriedades matemáticas da divergência de Kullback-Leibler com o objetivo de mostrar sua aplicação na seleção de modelos probabilísticos como uma medida da “distância” entre distribuições de probabilidade. Apresentamos o critério de informação de Akaike como uma metodologia de otimização da esperança da divergência de Kullback-Leibler
publishDate 2020
dc.date.none.fl_str_mv 2020
2021-09-14T21:16:22Z
2021-09-14T21:16:22Z
dc.type.status.fl_str_mv info:eu-repo/semantics/publishedVersion
dc.type.driver.fl_str_mv info:eu-repo/semantics/bachelorThesis
format bachelorThesis
status_str publishedVersion
dc.identifier.uri.fl_str_mv ARAUJO, Adrielle Braga de. Uma contribuição à teoria da informação e ao critério de informação de Akaike. 2020. 49 f. Trabalho de Conclusão de Curso (Graduação em Ciências Econômicas) - Faculdade de Economia, Universidade Federal Fluminense, 2020
https://app.uff.br/riuff/handle/1/23209
identifier_str_mv ARAUJO, Adrielle Braga de. Uma contribuição à teoria da informação e ao critério de informação de Akaike. 2020. 49 f. Trabalho de Conclusão de Curso (Graduação em Ciências Econômicas) - Faculdade de Economia, Universidade Federal Fluminense, 2020
url https://app.uff.br/riuff/handle/1/23209
dc.language.iso.fl_str_mv por
language por
dc.rights.driver.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/3.0/br/
CC-BY-SA
info:eu-repo/semantics/openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/3.0/br/
CC-BY-SA
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.source.none.fl_str_mv reponame:Repositório Institucional da Universidade Federal Fluminense (RIUFF)
instname:Universidade Federal Fluminense (UFF)
instacron:UFF
instname_str Universidade Federal Fluminense (UFF)
instacron_str UFF
institution UFF
reponame_str Repositório Institucional da Universidade Federal Fluminense (RIUFF)
collection Repositório Institucional da Universidade Federal Fluminense (RIUFF)
repository.name.fl_str_mv Repositório Institucional da Universidade Federal Fluminense (RIUFF) - Universidade Federal Fluminense (UFF)
repository.mail.fl_str_mv riuff@id.uff.br
_version_ 1811823622750208000