THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS?
Autor(a) principal: | |
---|---|
Data de Publicação: | 2023 |
Outros Autores: | |
Tipo de documento: | Artigo |
Idioma: | por |
Título da fonte: | Revista Eletrônica do Curso de Direito da UFSM |
Texto Completo: | http://periodicos.ufsm.br/revistadireito/article/view/69329 |
Resumo: | Considering that the lack of transparency in artificial intelligence (AI) models represents a risk for its application in sensitive areas, this work aims to investigate explainable artificial intelligence (XAI), which is dedicated to providing satisfactory explanations about algorithmic model decisions. From a review of current literature on the subject, an inductive analysis is undertaken. It is concluded that XAI must be a constitutive element of the transparency of AI systems, since it acts as an important counterweight to opacity, transforming algorithmic “black boxes” into “glass boxes”. In this sense, the creation of more transparent and interpretable systems should be considered and encouraged in the formulation of public policies, in order to increase the legitimacy of decisions produced by intelligent systems. |
id |
UFSM-17_1beafd32e844ac2ffdccc22f1b6241e2 |
---|---|
oai_identifier_str |
oai:ojs.pkp.sfu.ca:article/69329 |
network_acronym_str |
UFSM-17 |
network_name_str |
Revista Eletrônica do Curso de Direito da UFSM |
repository_id_str |
|
spelling |
THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS?EL USO DE LA INTELIGENCIA ARTIFICIAL EXPLICABLE COMO HERRAMIENTA PARA ENTENDER LAS DECISIONES AUTOMATIZADAS: ¿UNA POSIBLE FORMA DE AUMENTAR LA LEGITIMIDAD Y CONFIABILIDAD DE LOS MODELOS ALGORITMICOS?O USO DA INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL ENQUANTO FERRAMENTA PARA COMPREENDER DECISÕES AUTOMATIZADAS: : POSSÍVEL CAMINHO PARA AUMENTAR A LEGITIMIDADE E CONFIABILIDADE DOS MODELOS ALGORÍTMICOS?deeplearninginteligência artificialinteligência artificial explicávelmachine learningdeep learningArtificial Intelligenceexplainable artificial intelligencemachine learningaprendizaje profundointeligencia artificialinteligencia artificial explicableaprendizaje automáticoConsidering that the lack of transparency in artificial intelligence (AI) models represents a risk for its application in sensitive areas, this work aims to investigate explainable artificial intelligence (XAI), which is dedicated to providing satisfactory explanations about algorithmic model decisions. From a review of current literature on the subject, an inductive analysis is undertaken. It is concluded that XAI must be a constitutive element of the transparency of AI systems, since it acts as an important counterweight to opacity, transforming algorithmic “black boxes” into “glass boxes”. In this sense, the creation of more transparent and interpretable systems should be considered and encouraged in the formulation of public policies, in order to increase the legitimacy of decisions produced by intelligent systems.Considerando que la falta de transparencia en los modelos de inteligencia artificial (IA) representa un riesgo para su aplicación en áreas sensibles, este trabajo tiene como objetivo investigar la inteligencia artificial explicable (XAI), que se dedica a proporcionar explicaciones satisfactorias sobre las decisiones del modelo algorítmico. A partir de una revisión de la literatura actual sobre el tema, se emprende un análisis inductivo. Se concluye que la XAI debe ser un elemento constitutivo de la transparencia de los sistemas de IA, ya que actúa como un importante contrapeso a la opacidad, transformando las “cajas negras” algorítmicas en “cajas de cristal”. En este sentido, la creación de sistemas más transparentes e interpretables debe ser considerada y fomentada en la formulación de políticas públicas, a fin de incrementar la legitimidad de las decisiones producidas por los sistemas inteligentes.Tendo em vista que a falta de transparência em modelos de inteligência artificial (IA) representa um risco para a sua aplicação em áreas sensíveis, este trabalho objetiva investigar a explicabilidade, que se dedica a fornecer explicações satisfatórias sobre decisões de modelos algorítmicos. A partir de uma revisão de literatura atual sobre o tema, é empreendida uma análise indutiva. Conclui-se que a inteligência artificial explicável deve ser elemento constitutivo da transparência dos sistemas de IA, uma vez que atua como importante contrapeso à opacidade, transformando “caixas-pretas” algorítmicas em “caixas de vidro”. Neste sentido, a criação de sistemas mais transparentes e interpretáveis deve ser considerada e estimulada na formulação de políticas públicas, de modo a elevar a legitimidade das decisões produzidas por sistemas inteligentes.Universidade Federal de Santa Maria2023-06-20info:eu-repo/semantics/articleinfo:eu-repo/semantics/publishedVersionapplication/pdfhttp://periodicos.ufsm.br/revistadireito/article/view/6932910.5902/1981369469329Revista Eletrônica do Curso de Direito da UFSM; v. 18 n. 1 (2023): EDIÇÃO ABERTA - publicação contínua; e693291981-36941981-3694reponame:Revista Eletrônica do Curso de Direito da UFSMinstname:Universidade Federal de Santa Maria (UFSM)instacron:UFSMporhttp://periodicos.ufsm.br/revistadireito/article/view/69329/61096http://creativecommons.org/licenses/by-nc-nd/4.0info:eu-repo/semantics/openAccess José Coelho Nunes, Dierle Morato de Andrade, Otávio 2023-06-20T18:48:00Zoai:ojs.pkp.sfu.ca:article/69329Revistahttps://periodicos.ufsm.br/index.php/revistadireito/PUBhttp://periodicos.ufsm.br/index.php/revistadireito/oairevistadireito@ufsm.br||advrso@gmail.com1981-36941981-3694opendoar:2023-06-20T18:48Revista Eletrônica do Curso de Direito da UFSM - Universidade Federal de Santa Maria (UFSM)false |
dc.title.none.fl_str_mv |
THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS? EL USO DE LA INTELIGENCIA ARTIFICIAL EXPLICABLE COMO HERRAMIENTA PARA ENTENDER LAS DECISIONES AUTOMATIZADAS: ¿UNA POSIBLE FORMA DE AUMENTAR LA LEGITIMIDAD Y CONFIABILIDAD DE LOS MODELOS ALGORITMICOS? O USO DA INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL ENQUANTO FERRAMENTA PARA COMPREENDER DECISÕES AUTOMATIZADAS: : POSSÍVEL CAMINHO PARA AUMENTAR A LEGITIMIDADE E CONFIABILIDADE DOS MODELOS ALGORÍTMICOS? |
title |
THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS? |
spellingShingle |
THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS? José Coelho Nunes, Dierle deeplearning inteligência artificial inteligência artificial explicável machine learning deep learning Artificial Intelligence explainable artificial intelligence machine learning aprendizaje profundo inteligencia artificial inteligencia artificial explicable aprendizaje automático |
title_short |
THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS? |
title_full |
THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS? |
title_fullStr |
THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS? |
title_full_unstemmed |
THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS? |
title_sort |
THE USE OF EXPLAINABLE ARTIFICIAL INTELLIGENCE AS A TOOL TO UNDERSTAND AUTOMATED DECISIONS: A POSSIBLE WAY TO INCREASE THE LEGITIMITY AND RELIABILITY OF ALGORITHMIC MODELS? |
author |
José Coelho Nunes, Dierle |
author_facet |
José Coelho Nunes, Dierle Morato de Andrade, Otávio |
author_role |
author |
author2 |
Morato de Andrade, Otávio |
author2_role |
author |
dc.contributor.author.fl_str_mv |
José Coelho Nunes, Dierle Morato de Andrade, Otávio |
dc.subject.por.fl_str_mv |
deeplearning inteligência artificial inteligência artificial explicável machine learning deep learning Artificial Intelligence explainable artificial intelligence machine learning aprendizaje profundo inteligencia artificial inteligencia artificial explicable aprendizaje automático |
topic |
deeplearning inteligência artificial inteligência artificial explicável machine learning deep learning Artificial Intelligence explainable artificial intelligence machine learning aprendizaje profundo inteligencia artificial inteligencia artificial explicable aprendizaje automático |
description |
Considering that the lack of transparency in artificial intelligence (AI) models represents a risk for its application in sensitive areas, this work aims to investigate explainable artificial intelligence (XAI), which is dedicated to providing satisfactory explanations about algorithmic model decisions. From a review of current literature on the subject, an inductive analysis is undertaken. It is concluded that XAI must be a constitutive element of the transparency of AI systems, since it acts as an important counterweight to opacity, transforming algorithmic “black boxes” into “glass boxes”. In this sense, the creation of more transparent and interpretable systems should be considered and encouraged in the formulation of public policies, in order to increase the legitimacy of decisions produced by intelligent systems. |
publishDate |
2023 |
dc.date.none.fl_str_mv |
2023-06-20 |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/article info:eu-repo/semantics/publishedVersion |
format |
article |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://periodicos.ufsm.br/revistadireito/article/view/69329 10.5902/1981369469329 |
url |
http://periodicos.ufsm.br/revistadireito/article/view/69329 |
identifier_str_mv |
10.5902/1981369469329 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.relation.none.fl_str_mv |
http://periodicos.ufsm.br/revistadireito/article/view/69329/61096 |
dc.rights.driver.fl_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0 info:eu-repo/semantics/openAccess |
rights_invalid_str_mv |
http://creativecommons.org/licenses/by-nc-nd/4.0 |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.publisher.none.fl_str_mv |
Universidade Federal de Santa Maria |
publisher.none.fl_str_mv |
Universidade Federal de Santa Maria |
dc.source.none.fl_str_mv |
Revista Eletrônica do Curso de Direito da UFSM; v. 18 n. 1 (2023): EDIÇÃO ABERTA - publicação contínua; e69329 1981-3694 1981-3694 reponame:Revista Eletrônica do Curso de Direito da UFSM instname:Universidade Federal de Santa Maria (UFSM) instacron:UFSM |
instname_str |
Universidade Federal de Santa Maria (UFSM) |
instacron_str |
UFSM |
institution |
UFSM |
reponame_str |
Revista Eletrônica do Curso de Direito da UFSM |
collection |
Revista Eletrônica do Curso de Direito da UFSM |
repository.name.fl_str_mv |
Revista Eletrônica do Curso de Direito da UFSM - Universidade Federal de Santa Maria (UFSM) |
repository.mail.fl_str_mv |
revistadireito@ufsm.br||advrso@gmail.com |
_version_ |
1799944064247791616 |