Uma contribuição à teoria da informação e ao critério de informação de Akaike
Autor(a) principal: | |
---|---|
Data de Publicação: | 2020 |
Tipo de documento: | Trabalho de conclusão de curso |
Idioma: | por |
Título da fonte: | Repositório Institucional da Universidade Federal Fluminense (RIUFF) |
Texto Completo: | https://app.uff.br/riuff/handle/1/23209 |
Resumo: | Sempre que fazemos observações estatísticas ou planejamos e realizamos experimentos estatísticos, buscamos informações. Consequentemente, o conceito de informação desempenha um papel importante em áreas que utilizam sistemas probabilísticos ou estatísticos de observações. Neste trabalho estudamos duas variáveis aleatórias centrais da teoria da informação: a informação de Shannon e a informação de Kullback-Leibler. Mostramos que as respectivas esperanças matemáticas são conhecidas como entropia de Shannon e divergência de Kullback-Leibler. Dedicamos mais espaço para estudar as propriedades matemáticas da divergência de Kullback-Leibler com o objetivo de mostrar sua aplicação na seleção de modelos probabilísticos como uma medida da “distância” entre distribuições de probabilidade. Apresentamos o critério de informação de Akaike como uma metodologia de otimização da esperança da divergência de Kullback-Leibler |
id |
UFF-2_8b95d74d9d3d09c18bf1f43d7c6c3642 |
---|---|
oai_identifier_str |
oai:app.uff.br:1/23209 |
network_acronym_str |
UFF-2 |
network_name_str |
Repositório Institucional da Universidade Federal Fluminense (RIUFF) |
repository_id_str |
2120 |
spelling |
Uma contribuição à teoria da informação e ao critério de informação de AkaikeTeoria da informaçãoInformação de ShannonInformação de Kullback-LeiblerEntropia de ShannonDivergência de Kullback-LeiblerCritério de informação de AkaikeTeoria da informaçãoTeoria da probabilidadeEstatística matemáticaSérie temporalInformation theoryShannon’s informationKullback-Leibler’s informationShannon’s entropyKullback-Leibler divergenceAkaike information criterionSempre que fazemos observações estatísticas ou planejamos e realizamos experimentos estatísticos, buscamos informações. Consequentemente, o conceito de informação desempenha um papel importante em áreas que utilizam sistemas probabilísticos ou estatísticos de observações. Neste trabalho estudamos duas variáveis aleatórias centrais da teoria da informação: a informação de Shannon e a informação de Kullback-Leibler. Mostramos que as respectivas esperanças matemáticas são conhecidas como entropia de Shannon e divergência de Kullback-Leibler. Dedicamos mais espaço para estudar as propriedades matemáticas da divergência de Kullback-Leibler com o objetivo de mostrar sua aplicação na seleção de modelos probabilísticos como uma medida da “distância” entre distribuições de probabilidade. Apresentamos o critério de informação de Akaike como uma metodologia de otimização da esperança da divergência de Kullback-LeiblerWhenever we make statistical observations or design and conduct statistical experiments, we seek information. Consequently, the concept of information plays an important role in fields that use probabilistic or statistical systems of observations. In this work, we study two central random variables in information theory: Shannon’s information and Kullback-Leibler’s information. We show that their respective mathematical expectations are known as Shannon’s entropy and Kullback-Leibler divergence. We dedicate more space to study the mathematical properties of Kullback-Leibler divergence in order to show its application in the selection of probabilistic models as a measure of the “distance” between probability distributions. We present the Akaike information criterion as a methodology for optimizing the expectation of Kullback-Leibler divergence49 f.Luizar Obregon, Jesus AlexeiPacoricona, Aldo Amilcar BazanSantos, Hugo Henrique Kegler dosFonseca, Luiz Fernando CerqueiraAraujo, Adrielle Braga de2021-09-14T21:16:22Z2021-09-14T21:16:22Z2020info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisapplication/pdfARAUJO, Adrielle Braga de. Uma contribuição à teoria da informação e ao critério de informação de Akaike. 2020. 49 f. Trabalho de Conclusão de Curso (Graduação em Ciências Econômicas) - Faculdade de Economia, Universidade Federal Fluminense, 2020https://app.uff.br/riuff/handle/1/23209http://creativecommons.org/licenses/by-nc-nd/3.0/br/CC-BY-SAinfo:eu-repo/semantics/openAccessporreponame:Repositório Institucional da Universidade Federal Fluminense (RIUFF)instname:Universidade Federal Fluminense (UFF)instacron:UFF2022-11-16T12:02:57Zoai:app.uff.br:1/23209Repositório InstitucionalPUBhttps://app.uff.br/oai/requestriuff@id.uff.bropendoar:21202024-08-19T10:58:18.400587Repositório Institucional da Universidade Federal Fluminense (RIUFF) - Universidade Federal Fluminense (UFF)false |
dc.title.none.fl_str_mv |
Uma contribuição à teoria da informação e ao critério de informação de Akaike |
title |
Uma contribuição à teoria da informação e ao critério de informação de Akaike |
spellingShingle |
Uma contribuição à teoria da informação e ao critério de informação de Akaike Araujo, Adrielle Braga de Teoria da informação Informação de Shannon Informação de Kullback-Leibler Entropia de Shannon Divergência de Kullback-Leibler Critério de informação de Akaike Teoria da informação Teoria da probabilidade Estatística matemática Série temporal Information theory Shannon’s information Kullback-Leibler’s information Shannon’s entropy Kullback-Leibler divergence Akaike information criterion |
title_short |
Uma contribuição à teoria da informação e ao critério de informação de Akaike |
title_full |
Uma contribuição à teoria da informação e ao critério de informação de Akaike |
title_fullStr |
Uma contribuição à teoria da informação e ao critério de informação de Akaike |
title_full_unstemmed |
Uma contribuição à teoria da informação e ao critério de informação de Akaike |
title_sort |
Uma contribuição à teoria da informação e ao critério de informação de Akaike |
author |
Araujo, Adrielle Braga de |
author_facet |
Araujo, Adrielle Braga de |
author_role |
author |
dc.contributor.none.fl_str_mv |
Luizar Obregon, Jesus Alexei Pacoricona, Aldo Amilcar Bazan Santos, Hugo Henrique Kegler dos Fonseca, Luiz Fernando Cerqueira |
dc.contributor.author.fl_str_mv |
Araujo, Adrielle Braga de |
dc.subject.por.fl_str_mv |
Teoria da informação Informação de Shannon Informação de Kullback-Leibler Entropia de Shannon Divergência de Kullback-Leibler Critério de informação de Akaike Teoria da informação Teoria da probabilidade Estatística matemática Série temporal Information theory Shannon’s information Kullback-Leibler’s information Shannon’s entropy Kullback-Leibler divergence Akaike information criterion |
topic |
Teoria da informação Informação de Shannon Informação de Kullback-Leibler Entropia de Shannon Divergência de Kullback-Leibler Critério de informação de Akaike Teoria da informação Teoria da probabilidade Estatística matemática Série temporal Information theory Shannon’s information Kullback-Leibler’s information Shannon’s entropy Kullback-Leibler divergence Akaike information criterion |
description |
Sempre que fazemos observações estatísticas ou planejamos e realizamos experimentos estatísticos, buscamos informações. Consequentemente, o conceito de informação desempenha um papel importante em áreas que utilizam sistemas probabilísticos ou estatísticos de observações. Neste trabalho estudamos duas variáveis aleatórias centrais da teoria da informação: a informação de Shannon e a informação de Kullback-Leibler. Mostramos que as respectivas esperanças matemáticas são conhecidas como entropia de Shannon e divergência de Kullback-Leibler. Dedicamos mais espaço para estudar as propriedades matemáticas da divergência de Kullback-Leibler com o objetivo de mostrar sua aplicação na seleção de modelos probabilísticos como uma medida da “distância” entre distribuições de probabilidade. Apresentamos o critério de informação de Akaike como uma metodologia de otimização da esperança da divergência de Kullback-Leibler |
publishDate |
2020 |
dc.date.none.fl_str_mv |
2020 2021-09-14T21:16:22Z 2021-09-14T21:16:22Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
format |
bachelorThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
ARAUJO, Adrielle Braga de. Uma contribuição à teoria da informação e ao critério de informação de Akaike. 2020. 49 f. Trabalho de Conclusão de Curso (Graduação em Ciências Econômicas) - Faculdade de Economia, Universidade Federal Fluminense, 2020 https://app.uff.br/riuff/handle/1/23209 |
identifier_str_mv |
ARAUJO, Adrielle Braga de. Uma contribuição à teoria da informação e ao critério de informação de Akaike. 2020. 49 f. Trabalho de Conclusão de Curso (Graduação em Ciências Econômicas) - Faculdade de Economia, Universidade Federal Fluminense, 2020 |
url |
https://app.uff.br/riuff/handle/1/23209 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/3.0/br/ CC-BY-SA info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/3.0/br/ CC-BY-SA |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da Universidade Federal Fluminense (RIUFF) instname:Universidade Federal Fluminense (UFF) instacron:UFF |
instname_str |
Universidade Federal Fluminense (UFF) |
instacron_str |
UFF |
institution |
UFF |
reponame_str |
Repositório Institucional da Universidade Federal Fluminense (RIUFF) |
collection |
Repositório Institucional da Universidade Federal Fluminense (RIUFF) |
repository.name.fl_str_mv |
Repositório Institucional da Universidade Federal Fluminense (RIUFF) - Universidade Federal Fluminense (UFF) |
repository.mail.fl_str_mv |
riuff@id.uff.br |
_version_ |
1811823622750208000 |