THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS?

Detalhes bibliográficos
Autor(a) principal: José Coelho Nunes, Dierle
Data de Publicação: 2023
Outros Autores: Morato de Andrade, Otávio
Tipo de documento: Artigo
Idioma: por
Título da fonte: Revista Eletrônica do Curso de Direito da UFSM
Texto Completo: http://periodicos.ufsm.br/revistadireito/article/view/69329
Resumo: Considering that the lack of transparency in artificial intelligence (AI) models represents a risk for its application in sensitive areas, this work aims to investigate explainable artificial intelligence (XAI), which is dedicated to providing satisfactory explanations about algorithmic model decisions. From a review of current literature on the subject, an inductive analysis is undertaken. It is concluded that XAI must be a constitutive element of the transparency of AI systems, since it acts as an important counterweight to opacity, transforming algorithmic “black boxes” into “glass boxes”. In this sense, the creation of more transparent and interpretable systems should be considered and encouraged in the formulation of public policies, in order to increase the legitimacy of decisions produced by intelligent systems.
id UFSM-17_1beafd32e844ac2ffdccc22f1b6241e2
oai_identifier_str oai:ojs.pkp.sfu.ca:article/69329
network_acronym_str UFSM-17
network_name_str Revista Eletrônica do Curso de Direito da UFSM
repository_id_str
spelling THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS?EL USO DE LA INTELIGENCIA ARTIFICIAL EXPLICABLE COMO HERRAMIENTA PARA ENTENDER LAS DECISIONES AUTOMATIZADAS: ¿UNA POSIBLE FORMA DE AUMENTAR LA LEGITIMIDAD Y CONFIABILIDAD DE LOS MODELOS ALGORITMICOS?O USO DA INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL ENQUANTO FERRAMENTA PARA COMPREENDER DECISÕES AUTOMATIZADAS: : POSSÍVEL CAMINHO PARA AUMENTAR A LEGITIMIDADE E CONFIABILIDADE DOS MODELOS ALGORÍTMICOS?deeplearninginteligência artificialinteligência artificial explicávelmachine learningdeep learningArtificial Intelligenceexplainable artificial intelligencemachine learningaprendizaje profundointeligencia artificialinteligencia artificial explicableaprendizaje automáticoConsidering that the lack of transparency in artificial intelligence (AI) models represents a risk for its application in sensitive areas, this work aims to investigate explainable artificial intelligence (XAI), which is dedicated to providing satisfactory explanations about algorithmic model decisions. From a review of current literature on the subject, an inductive analysis is undertaken. It is concluded that XAI must be a constitutive element of the transparency of AI systems, since it acts as an important counterweight to opacity, transforming algorithmic “black boxes” into “glass boxes”. In this sense, the creation of more transparent and interpretable systems should be considered and encouraged in the formulation of public policies, in order to increase the legitimacy of decisions produced by intelligent systems.Considerando que la falta de transparencia en los modelos de inteligencia artificial (IA) representa un riesgo para su aplicación en áreas sensibles, este trabajo tiene como objetivo investigar la inteligencia artificial explicable (XAI), que se dedica a proporcionar explicaciones satisfactorias sobre las decisiones del modelo algorítmico. A partir de una revisión de la literatura actual sobre el tema, se emprende un análisis inductivo. Se concluye que la XAI debe ser un elemento constitutivo de la transparencia de los sistemas de IA, ya que actúa como un importante contrapeso a la opacidad, transformando las “cajas negras” algorítmicas en “cajas de cristal”. En este sentido, la creación de sistemas más transparentes e interpretables debe ser considerada y fomentada en la formulación de políticas públicas, a fin de incrementar la legitimidad de las decisiones producidas por los sistemas inteligentes.Tendo em vista que a falta de transparência em modelos de inteligência artificial (IA) representa um risco para a sua aplicação em áreas sensíveis, este trabalho objetiva investigar a explicabilidade, que se dedica a fornecer explicações satisfatórias sobre decisões de modelos algorítmicos. A partir de uma revisão de literatura atual sobre o tema, é empreendida uma análise indutiva. Conclui-se que a inteligência artificial explicável deve ser elemento constitutivo da transparência dos sistemas de IA, uma vez que atua como importante contrapeso à opacidade, transformando “caixas-pretas” algorítmicas em “caixas de vidro”. Neste sentido, a criação de sistemas mais transparentes e interpretáveis deve ser considerada e estimulada na formulação de políticas públicas, de modo a elevar a legitimidade das decisões produzidas por sistemas inteligentes.Universidade Federal de Santa Maria2023-06-20info:eu-repo/semantics/articleinfo:eu-repo/semantics/publishedVersionapplication/pdfhttp://periodicos.ufsm.br/revistadireito/article/view/6932910.5902/1981369469329Revista Eletrônica do Curso de Direito da UFSM; v. 18 n. 1 (2023): EDIÇÃO ABERTA - publicação contínua; e693291981-36941981-3694reponame:Revista Eletrônica do Curso de Direito da UFSMinstname:Universidade Federal de Santa Maria (UFSM)instacron:UFSMporhttp://periodicos.ufsm.br/revistadireito/article/view/69329/61096http://creativecommons.org/licenses/by-nc-nd/4.0info:eu-repo/semantics/openAccess José Coelho Nunes, Dierle Morato de Andrade, Otávio 2023-06-20T18:48:00Zoai:ojs.pkp.sfu.ca:article/69329Revistahttps://periodicos.ufsm.br/index.php/revistadireito/PUBhttp://periodicos.ufsm.br/index.php/revistadireito/oairevistadireito@ufsm.br||advrso@gmail.com1981-36941981-3694opendoar:2023-06-20T18:48Revista Eletrônica do Curso de Direito da UFSM - Universidade Federal de Santa Maria (UFSM)false
dc.title.none.fl_str_mv THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS?
EL USO DE LA INTELIGENCIA ARTIFICIAL EXPLICABLE COMO HERRAMIENTA PARA ENTENDER LAS DECISIONES AUTOMATIZADAS: ¿UNA POSIBLE FORMA DE AUMENTAR LA LEGITIMIDAD Y CONFIABILIDAD DE LOS MODELOS ALGORITMICOS?
O USO DA INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL ENQUANTO FERRAMENTA PARA COMPREENDER DECISÕES AUTOMATIZADAS: : POSSÍVEL CAMINHO PARA AUMENTAR A LEGITIMIDADE E CONFIABILIDADE DOS MODELOS ALGORÍTMICOS?
title THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS?
spellingShingle THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS?
José Coelho Nunes, Dierle
deeplearning
inteligência artificial
inteligência artificial explicável
machine learning
deep learning
Artificial Intelligence
explainable artificial intelligence
machine learning
aprendizaje profundo
inteligencia artificial
inteligencia artificial explicable
aprendizaje automático
title_short THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS?
title_full THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS?
title_fullStr THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS?
title_full_unstemmed THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS?
title_sort THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS?
author José Coelho Nunes, Dierle
author_facet José Coelho Nunes, Dierle
Morato de Andrade, Otávio
author_role author
author2 Morato de Andrade, Otávio
author2_role author
dc.contributor.author.fl_str_mv José Coelho Nunes, Dierle
Morato de Andrade, Otávio
dc.subject.por.fl_str_mv deeplearning
inteligência artificial
inteligência artificial explicável
machine learning
deep learning
Artificial Intelligence
explainable artificial intelligence
machine learning
aprendizaje profundo
inteligencia artificial
inteligencia artificial explicable
aprendizaje automático
topic deeplearning
inteligência artificial
inteligência artificial explicável
machine learning
deep learning
Artificial Intelligence
explainable artificial intelligence
machine learning
aprendizaje profundo
inteligencia artificial
inteligencia artificial explicable
aprendizaje automático
description Considering that the lack of transparency in artificial intelligence (AI) models represents a risk for its application in sensitive areas, this work aims to investigate explainable artificial intelligence (XAI), which is dedicated to providing satisfactory explanations about algorithmic model decisions. From a review of current literature on the subject, an inductive analysis is undertaken. It is concluded that XAI must be a constitutive element of the transparency of AI systems, since it acts as an important counterweight to opacity, transforming algorithmic “black boxes” into “glass boxes”. In this sense, the creation of more transparent and interpretable systems should be considered and encouraged in the formulation of public policies, in order to increase the legitimacy of decisions produced by intelligent systems.
publishDate 2023
dc.date.none.fl_str_mv 2023-06-20
dc.type.driver.fl_str_mv info:eu-repo/semantics/article
info:eu-repo/semantics/publishedVersion
format article
status_str publishedVersion
dc.identifier.uri.fl_str_mv http://periodicos.ufsm.br/revistadireito/article/view/69329
10.5902/1981369469329
url http://periodicos.ufsm.br/revistadireito/article/view/69329
identifier_str_mv 10.5902/1981369469329
dc.language.iso.fl_str_mv por
language por
dc.relation.none.fl_str_mv http://periodicos.ufsm.br/revistadireito/article/view/69329/61096
dc.rights.driver.fl_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0
info:eu-repo/semantics/openAccess
rights_invalid_str_mv http://creativecommons.org/licenses/by-nc-nd/4.0
eu_rights_str_mv openAccess
dc.format.none.fl_str_mv application/pdf
dc.publisher.none.fl_str_mv Universidade Federal de Santa Maria
publisher.none.fl_str_mv Universidade Federal de Santa Maria
dc.source.none.fl_str_mv Revista Eletrônica do Curso de Direito da UFSM; v. 18 n. 1 (2023): EDIÇÃO ABERTA - publicação contínua; e69329
1981-3694
1981-3694
reponame:Revista Eletrônica do Curso de Direito da UFSM
instname:Universidade Federal de Santa Maria (UFSM)
instacron:UFSM
instname_str Universidade Federal de Santa Maria (UFSM)
instacron_str UFSM
institution UFSM
reponame_str Revista Eletrônica do Curso de Direito da UFSM
collection Revista Eletrônica do Curso de Direito da UFSM
repository.name.fl_str_mv Revista Eletrônica do Curso de Direito da UFSM - Universidade Federal de Santa Maria (UFSM)
repository.mail.fl_str_mv revistadireito@ufsm.br||advrso@gmail.com
_version_ 1799944064247791616