Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios
Autor(a) principal: | |
---|---|
Data de Publicação: | 2021 |
Tipo de documento: | Trabalho de conclusão de curso |
Idioma: | por |
Título da fonte: | Repositório Institucional da Universidade Federal do Ceará (UFC) |
Texto Completo: | http://www.repositorio.ufc.br/handle/riufc/57947 |
Resumo: | Investigate the existence of bias in artificial intelligence algorithms and the possibility of the LGPD being a normative instrument in order to mitigate the discriminatory bias in the decision-making of these systems. To do so, it was sought to, first of all, explain what is artificial intelligence, elucidating how its most important technologies work and the relevance of big data in this area. Afterwards, due to the polysemy of the word, it became necessary to delimit the approached concept of discriminination, along with an analysis of the existing normatives on the brazilian legal order that conceptualize it. After the initial concepts, it was explained what is an algorithm and, then, it was presented different examples of the occurrence of bias in the automated decision-making systems. Finally, it was conceptualized what is meant by algorithmic discrimination and in what ways an algorithm can become biased. Subsequently, the LGPD was analyzed about the data subject safeguards laid out in the legislation that help mitigate discriminatory biases in algorithms, and then the limits of these safeguards were looked at. The methodology used is exploratory and qualitative, based on bibliographic research, using articles, monographs, international documents, and master's dissertations, as well as documentary research, with articles of law and other normative acts. It was concluded that artificial intelligence algorithms are not neutral, since they can make discriminatory decisions through biases in their systems. Furthermore, the LGPD, besides instigating deeper discussions about the problematic approached so that, in the future, it will be possible to create a regulamentation focused on artificial intelligence, shows itself to be a good instrument to mitigate these biases to the extent that it brings indications legally imposed on developers and companies the obligation to produce deeper investigations and audits in order to analyze the true discriminatory potential of their systems and ensure results that are in compliance with the legislation. |
id |
UFC-7_b7d0c82d3a713c086f6f4cb2d91130cd |
---|---|
oai_identifier_str |
oai:repositorio.ufc.br:riufc/57947 |
network_acronym_str |
UFC-7 |
network_name_str |
Repositório Institucional da Universidade Federal do Ceará (UFC) |
repository_id_str |
|
spelling |
Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatóriosDiscriminaçãoAlgoritmosInteligência ArtificialLGPDDecisões automatizadasInvestigate the existence of bias in artificial intelligence algorithms and the possibility of the LGPD being a normative instrument in order to mitigate the discriminatory bias in the decision-making of these systems. To do so, it was sought to, first of all, explain what is artificial intelligence, elucidating how its most important technologies work and the relevance of big data in this area. Afterwards, due to the polysemy of the word, it became necessary to delimit the approached concept of discriminination, along with an analysis of the existing normatives on the brazilian legal order that conceptualize it. After the initial concepts, it was explained what is an algorithm and, then, it was presented different examples of the occurrence of bias in the automated decision-making systems. Finally, it was conceptualized what is meant by algorithmic discrimination and in what ways an algorithm can become biased. Subsequently, the LGPD was analyzed about the data subject safeguards laid out in the legislation that help mitigate discriminatory biases in algorithms, and then the limits of these safeguards were looked at. The methodology used is exploratory and qualitative, based on bibliographic research, using articles, monographs, international documents, and master's dissertations, as well as documentary research, with articles of law and other normative acts. It was concluded that artificial intelligence algorithms are not neutral, since they can make discriminatory decisions through biases in their systems. Furthermore, the LGPD, besides instigating deeper discussions about the problematic approached so that, in the future, it will be possible to create a regulamentation focused on artificial intelligence, shows itself to be a good instrument to mitigate these biases to the extent that it brings indications legally imposed on developers and companies the obligation to produce deeper investigations and audits in order to analyze the true discriminatory potential of their systems and ensure results that are in compliance with the legislation.Investiga-se a existência de discriminação em algoritmos de inteligência artificial e a possibilidade da LGPD ser um instrumento normativo a fim de mitigar os vieses discriminatórios na tomada de decisão desses sistemas. Para tanto, buscou-se primeiramente explicar o que se entende por inteligência artificial, elucidando como funcionam suas principais tecnologias e a relevância do big data nesta seara. Posteriormente, tendo em vista a polissemia da palavra, fez-se necessário delimitar o conceito de discriminação abordado, juntamente com uma análise das normativas existentes no ordenamento jurídico brasileiro que a conceituam. Após os conceitos iniciais, explicou-se o que é um algoritmo e, então, apresentou-se diferentes exemplos da ocorrência de discriminações nos sistemas de decisão automatizada. Enfim, conceituou-se o que se entende por discriminação algorítmica e de quais formas um algoritmo pode se tornar enviesado. Posteriormente, analisou-se a LGPD acerca das garantias dos titulares de dados dispostas na legislação que ajudam a mitigar os vieses discriminatórios nos algoritmos e, após, observou-se os limites dessas garantias. A metodologia utilizada é exploratória e qualitativa, a partir da pesquisa bibliográfica, utilizando-se artigos, trabalhos monográficos, documentos internacionais e dissertações de mestrado, além de pesquisa documental, com artigos de lei e outros atos normativos. Concluiu-se que os algoritmos de inteligência artificial não são neutros, visto que eles podem tomar decisões discriminatórias por meio de vieses em seus sistemas. Ademais, a LGPD, além de suscitar discussões mais aprofundadas a respeito da problemática abordada para que, futuramente, seja possível criar-se uma regulamentação voltada para a inteligência artificial, mostra-se um bom instrumento mitigador desses vieses a medida em que traz nos indicativos juridicamente impostos aos desenvolvedores e empresas a obrigação de produzirem investigações e auditorias mais profundas a fim de analisarem o verdadeiro potencial discriminatório de seus sistemas e assegurar resultados que estejam em conformidade com a legislação.Marques Júnior, William PaivaRibeiro, Ana Lídia Lira2021-04-23T13:00:22Z2021-04-23T13:00:22Z2021info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/bachelorThesisapplication/pdfRIBEIRO, Ana Lídia Lira. Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios. 2021. 61 f. Monografia (Graduação em Direito) - Faculdade de Direito, Universidade Federal do Ceará, Fortaleza, 2021.http://www.repositorio.ufc.br/handle/riufc/57947porreponame:Repositório Institucional da Universidade Federal do Ceará (UFC)instname:Universidade Federal do Ceará (UFC)instacron:UFCinfo:eu-repo/semantics/openAccess2021-04-23T13:00:22Zoai:repositorio.ufc.br:riufc/57947Repositório InstitucionalPUBhttp://www.repositorio.ufc.br/ri-oai/requestbu@ufc.br || repositorio@ufc.bropendoar:2024-09-11T18:21:55.288507Repositório Institucional da Universidade Federal do Ceará (UFC) - Universidade Federal do Ceará (UFC)false |
dc.title.none.fl_str_mv |
Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios |
title |
Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios |
spellingShingle |
Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios Ribeiro, Ana Lídia Lira Discriminação Algoritmos Inteligência Artificial LGPD Decisões automatizadas |
title_short |
Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios |
title_full |
Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios |
title_fullStr |
Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios |
title_full_unstemmed |
Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios |
title_sort |
Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios |
author |
Ribeiro, Ana Lídia Lira |
author_facet |
Ribeiro, Ana Lídia Lira |
author_role |
author |
dc.contributor.none.fl_str_mv |
Marques Júnior, William Paiva |
dc.contributor.author.fl_str_mv |
Ribeiro, Ana Lídia Lira |
dc.subject.por.fl_str_mv |
Discriminação Algoritmos Inteligência Artificial LGPD Decisões automatizadas |
topic |
Discriminação Algoritmos Inteligência Artificial LGPD Decisões automatizadas |
description |
Investigate the existence of bias in artificial intelligence algorithms and the possibility of the LGPD being a normative instrument in order to mitigate the discriminatory bias in the decision-making of these systems. To do so, it was sought to, first of all, explain what is artificial intelligence, elucidating how its most important technologies work and the relevance of big data in this area. Afterwards, due to the polysemy of the word, it became necessary to delimit the approached concept of discriminination, along with an analysis of the existing normatives on the brazilian legal order that conceptualize it. After the initial concepts, it was explained what is an algorithm and, then, it was presented different examples of the occurrence of bias in the automated decision-making systems. Finally, it was conceptualized what is meant by algorithmic discrimination and in what ways an algorithm can become biased. Subsequently, the LGPD was analyzed about the data subject safeguards laid out in the legislation that help mitigate discriminatory biases in algorithms, and then the limits of these safeguards were looked at. The methodology used is exploratory and qualitative, based on bibliographic research, using articles, monographs, international documents, and master's dissertations, as well as documentary research, with articles of law and other normative acts. It was concluded that artificial intelligence algorithms are not neutral, since they can make discriminatory decisions through biases in their systems. Furthermore, the LGPD, besides instigating deeper discussions about the problematic approached so that, in the future, it will be possible to create a regulamentation focused on artificial intelligence, shows itself to be a good instrument to mitigate these biases to the extent that it brings indications legally imposed on developers and companies the obligation to produce deeper investigations and audits in order to analyze the true discriminatory potential of their systems and ensure results that are in compliance with the legislation. |
publishDate |
2021 |
dc.date.none.fl_str_mv |
2021-04-23T13:00:22Z 2021-04-23T13:00:22Z 2021 |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/bachelorThesis |
format |
bachelorThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
RIBEIRO, Ana Lídia Lira. Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios. 2021. 61 f. Monografia (Graduação em Direito) - Faculdade de Direito, Universidade Federal do Ceará, Fortaleza, 2021. http://www.repositorio.ufc.br/handle/riufc/57947 |
identifier_str_mv |
RIBEIRO, Ana Lídia Lira. Discriminação em algoritmos de inteligência artificial: uma análise acerca da LGPD como instrumento normativo mitigador de vieses discriminatórios. 2021. 61 f. Monografia (Graduação em Direito) - Faculdade de Direito, Universidade Federal do Ceará, Fortaleza, 2021. |
url |
http://www.repositorio.ufc.br/handle/riufc/57947 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Repositório Institucional da Universidade Federal do Ceará (UFC) instname:Universidade Federal do Ceará (UFC) instacron:UFC |
instname_str |
Universidade Federal do Ceará (UFC) |
instacron_str |
UFC |
institution |
UFC |
reponame_str |
Repositório Institucional da Universidade Federal do Ceará (UFC) |
collection |
Repositório Institucional da Universidade Federal do Ceará (UFC) |
repository.name.fl_str_mv |
Repositório Institucional da Universidade Federal do Ceará (UFC) - Universidade Federal do Ceará (UFC) |
repository.mail.fl_str_mv |
bu@ufc.br || repositorio@ufc.br |
_version_ |
1813028773076926464 |