Viabilidade da aplicação de sistemas de inteligência artificial aos atos administrativos discricionários
Autor(a) principal: | |
---|---|
Data de Publicação: | 2023 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
Texto Completo: | http://hdl.handle.net/10400.14/43840 |
Resumo: | Os algoritmos têm evoluído exponencialmente nas últimas décadas e a sua implementação em todos os setores de atividade resulta simultaneamente de uma vontade – um ato voluntário - e de uma inevitabilidade. Porém quanto mais evoluídos e potentes se tornam, quantos mais dados conseguem analisar e quanto mais conseguem trabalhar com bases de dados não estruturadas, maiores são os seus efeitos resultantes das suas previsões e decisões. Existem muitos riscos associados a bases de dados enviesadas ou não representativas da sociedade, uma vez que desfavorecem grupos de risco ou minorias, provocando a discriminação, o enviesamento decisório, exponenciados pela escalabilidade e massificação dos outputs produzidos por sistemas automatizados e não dando garantias de equidade. Por outro lado, existem questões associadas à opacidade algorítmica ou efeito “black-box”, em que existe falta de transparência, de explicabilidade e interpretabilidade inteligível por todos, mas fundamentalmente pelos utilizadores intermédios ou pelos finais, das decisões e do porquê das mesmas, num direito à fundamentação. Se este contexto é já de si complexo, a sua aplicação ao campo da Administração Pública, imbuída dos seus poderes de “autonomia valorativa”, a procura de respostas à questão da viabilidade da aplicação de sistemas de IA aos atos administrativos discricionários, parece ser um desafio excessivo. Para abordar tal desafio, propusemos uma metodologia jurídico-administrativa própria, estruturada em 4 dimensões, de abordagem ao tema da automatização dos atos administrativos por níveis de decisão, de acordo com o grau de complexidade e de discricionariedade. Essa metodologia assenta num processo de automatização colaborativa e corresponsável, entre o agente público e os sistemas de IA, através de um modelo de inteligência colaborativa homem-máquina, suportado por aquilo que de mais recente existe no campo da IA - que não apenas os algoritmos de autoaprendizagem Machine e Deep Learning, mas outros bem mais evoluídos e responsivos aos requisitos que se impõem na implementação destas ferramentas no âmbito do Direito e, em particular do Direito Administrativo, em termos transparência, da IA explicável, da IA causal, de algoritmos interativos, ou dos algoritmos de computação cognitiva. |
id |
RCAP_d62790fb2bd391f535949fb29eb554f4 |
---|---|
oai_identifier_str |
oai:repositorio.ucp.pt:10400.14/43840 |
network_acronym_str |
RCAP |
network_name_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository_id_str |
7160 |
spelling |
Viabilidade da aplicação de sistemas de inteligência artificial aos atos administrativos discricionáriosInteligência artificialInteligência artificial causalAprendizagem profundaAprendizagem automáticaHomem no circuitoViés algorítmicoExplicabilidadeDiscricionariedadeTransparênciaAto administrativo discricionárioDiscretionary administrative actArtificial intelligenceCausal artificial intelligenceDeep learningMachine learningHuman-in-the-loopAlgorithmic biasExplainabilityAccountabilityDiscretionaryTransparencyDiscretionary administrative actDomínio/Área Científica::Ciências Sociais::DireitoOs algoritmos têm evoluído exponencialmente nas últimas décadas e a sua implementação em todos os setores de atividade resulta simultaneamente de uma vontade – um ato voluntário - e de uma inevitabilidade. Porém quanto mais evoluídos e potentes se tornam, quantos mais dados conseguem analisar e quanto mais conseguem trabalhar com bases de dados não estruturadas, maiores são os seus efeitos resultantes das suas previsões e decisões. Existem muitos riscos associados a bases de dados enviesadas ou não representativas da sociedade, uma vez que desfavorecem grupos de risco ou minorias, provocando a discriminação, o enviesamento decisório, exponenciados pela escalabilidade e massificação dos outputs produzidos por sistemas automatizados e não dando garantias de equidade. Por outro lado, existem questões associadas à opacidade algorítmica ou efeito “black-box”, em que existe falta de transparência, de explicabilidade e interpretabilidade inteligível por todos, mas fundamentalmente pelos utilizadores intermédios ou pelos finais, das decisões e do porquê das mesmas, num direito à fundamentação. Se este contexto é já de si complexo, a sua aplicação ao campo da Administração Pública, imbuída dos seus poderes de “autonomia valorativa”, a procura de respostas à questão da viabilidade da aplicação de sistemas de IA aos atos administrativos discricionários, parece ser um desafio excessivo. Para abordar tal desafio, propusemos uma metodologia jurídico-administrativa própria, estruturada em 4 dimensões, de abordagem ao tema da automatização dos atos administrativos por níveis de decisão, de acordo com o grau de complexidade e de discricionariedade. Essa metodologia assenta num processo de automatização colaborativa e corresponsável, entre o agente público e os sistemas de IA, através de um modelo de inteligência colaborativa homem-máquina, suportado por aquilo que de mais recente existe no campo da IA - que não apenas os algoritmos de autoaprendizagem Machine e Deep Learning, mas outros bem mais evoluídos e responsivos aos requisitos que se impõem na implementação destas ferramentas no âmbito do Direito e, em particular do Direito Administrativo, em termos transparência, da IA explicável, da IA causal, de algoritmos interativos, ou dos algoritmos de computação cognitiva.In recent decades algorithms have evolved exponentially and their implementation in all sectors of activity results simultaneously from a will – a voluntary act – and from an inevitability. However, the more evolved and powerful they become, the more data they can analyze and the more they can work with unstructured databases, the greater the effects resulting from their forecasts and decisions. There are many risks associated with databases that are biased or not representative of society, since they disadvantage risk groups or minorities, causing discrimination, decision-making bias, exponentiated by the scalability and massification of outputs produced by automated systems and not giving guarantees of equity. On the other hand, there are issues associated with algorithmic opacity or the “black-box” effect, in which there is a lack of transparency, explainability and intelligible interpretability by all, but fundamentally by intermediate or end users, of decisions and the reason for them, a right to state reasons. To address this challenge, we propose our own legal-administrative methodology, structured in 4 dimensions, to approach the topic of automating administrative acts by decision levels, according to the degree of complexity and discretion. This methodology is based on a process of collaborative and co-responsible automation, between the public agent and the AI systems, through a model of collaborative human-machine intelligence, supported by the latest in the field of AI - not just algorithms Machine and Deep Learning self-learning, but others that are much more evolved and responsive to the requirements that are imposed in the implementation of these tools in the field of Law and, in particular, Administrative Law, in terms of transparency, explainable AI, causal AI, interactive algorithms , or cognitive computing algorithms.Gomes, Pedro Miguel dos Santos Silva CerqueiraVeritati - Repositório Institucional da Universidade Católica PortuguesaSilva, Jaime Paulino Maia e2023-09-252023-052024-08-01T00:00:00Z2023-09-25T00:00:00Zinfo:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/10400.14/43840TID:203436610porinfo:eu-repo/semantics/embargoedAccessreponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãoinstacron:RCAAP2024-02-13T01:33:57Zoai:repositorio.ucp.pt:10400.14/43840Portal AgregadorONGhttps://www.rcaap.pt/oai/openaireopendoar:71602024-03-20T02:37:55.574067Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãofalse |
dc.title.none.fl_str_mv |
Viabilidade da aplicação de sistemas de inteligência artificial aos atos administrativos discricionários |
title |
Viabilidade da aplicação de sistemas de inteligência artificial aos atos administrativos discricionários |
spellingShingle |
Viabilidade da aplicação de sistemas de inteligência artificial aos atos administrativos discricionários Silva, Jaime Paulino Maia e Inteligência artificial Inteligência artificial causal Aprendizagem profunda Aprendizagem automática Homem no circuito Viés algorítmico Explicabilidade Discricionariedade Transparência Ato administrativo discricionário Discretionary administrative act Artificial intelligence Causal artificial intelligence Deep learning Machine learning Human-in-the-loop Algorithmic bias Explainability Accountability Discretionary Transparency Discretionary administrative act Domínio/Área Científica::Ciências Sociais::Direito |
title_short |
Viabilidade da aplicação de sistemas de inteligência artificial aos atos administrativos discricionários |
title_full |
Viabilidade da aplicação de sistemas de inteligência artificial aos atos administrativos discricionários |
title_fullStr |
Viabilidade da aplicação de sistemas de inteligência artificial aos atos administrativos discricionários |
title_full_unstemmed |
Viabilidade da aplicação de sistemas de inteligência artificial aos atos administrativos discricionários |
title_sort |
Viabilidade da aplicação de sistemas de inteligência artificial aos atos administrativos discricionários |
author |
Silva, Jaime Paulino Maia e |
author_facet |
Silva, Jaime Paulino Maia e |
author_role |
author |
dc.contributor.none.fl_str_mv |
Gomes, Pedro Miguel dos Santos Silva Cerqueira Veritati - Repositório Institucional da Universidade Católica Portuguesa |
dc.contributor.author.fl_str_mv |
Silva, Jaime Paulino Maia e |
dc.subject.por.fl_str_mv |
Inteligência artificial Inteligência artificial causal Aprendizagem profunda Aprendizagem automática Homem no circuito Viés algorítmico Explicabilidade Discricionariedade Transparência Ato administrativo discricionário Discretionary administrative act Artificial intelligence Causal artificial intelligence Deep learning Machine learning Human-in-the-loop Algorithmic bias Explainability Accountability Discretionary Transparency Discretionary administrative act Domínio/Área Científica::Ciências Sociais::Direito |
topic |
Inteligência artificial Inteligência artificial causal Aprendizagem profunda Aprendizagem automática Homem no circuito Viés algorítmico Explicabilidade Discricionariedade Transparência Ato administrativo discricionário Discretionary administrative act Artificial intelligence Causal artificial intelligence Deep learning Machine learning Human-in-the-loop Algorithmic bias Explainability Accountability Discretionary Transparency Discretionary administrative act Domínio/Área Científica::Ciências Sociais::Direito |
description |
Os algoritmos têm evoluído exponencialmente nas últimas décadas e a sua implementação em todos os setores de atividade resulta simultaneamente de uma vontade – um ato voluntário - e de uma inevitabilidade. Porém quanto mais evoluídos e potentes se tornam, quantos mais dados conseguem analisar e quanto mais conseguem trabalhar com bases de dados não estruturadas, maiores são os seus efeitos resultantes das suas previsões e decisões. Existem muitos riscos associados a bases de dados enviesadas ou não representativas da sociedade, uma vez que desfavorecem grupos de risco ou minorias, provocando a discriminação, o enviesamento decisório, exponenciados pela escalabilidade e massificação dos outputs produzidos por sistemas automatizados e não dando garantias de equidade. Por outro lado, existem questões associadas à opacidade algorítmica ou efeito “black-box”, em que existe falta de transparência, de explicabilidade e interpretabilidade inteligível por todos, mas fundamentalmente pelos utilizadores intermédios ou pelos finais, das decisões e do porquê das mesmas, num direito à fundamentação. Se este contexto é já de si complexo, a sua aplicação ao campo da Administração Pública, imbuída dos seus poderes de “autonomia valorativa”, a procura de respostas à questão da viabilidade da aplicação de sistemas de IA aos atos administrativos discricionários, parece ser um desafio excessivo. Para abordar tal desafio, propusemos uma metodologia jurídico-administrativa própria, estruturada em 4 dimensões, de abordagem ao tema da automatização dos atos administrativos por níveis de decisão, de acordo com o grau de complexidade e de discricionariedade. Essa metodologia assenta num processo de automatização colaborativa e corresponsável, entre o agente público e os sistemas de IA, através de um modelo de inteligência colaborativa homem-máquina, suportado por aquilo que de mais recente existe no campo da IA - que não apenas os algoritmos de autoaprendizagem Machine e Deep Learning, mas outros bem mais evoluídos e responsivos aos requisitos que se impõem na implementação destas ferramentas no âmbito do Direito e, em particular do Direito Administrativo, em termos transparência, da IA explicável, da IA causal, de algoritmos interativos, ou dos algoritmos de computação cognitiva. |
publishDate |
2023 |
dc.date.none.fl_str_mv |
2023-09-25 2023-05 2023-09-25T00:00:00Z 2024-08-01T00:00:00Z |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10400.14/43840 TID:203436610 |
url |
http://hdl.handle.net/10400.14/43840 |
identifier_str_mv |
TID:203436610 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/embargoedAccess |
eu_rights_str_mv |
embargoedAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação instacron:RCAAP |
instname_str |
Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
instacron_str |
RCAAP |
institution |
RCAAP |
reponame_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
collection |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository.name.fl_str_mv |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
repository.mail.fl_str_mv |
|
_version_ |
1799137430044934144 |