Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociais
Autor(a) principal: | |
---|---|
Data de Publicação: | 2021 |
Tipo de documento: | Dissertação |
Idioma: | por |
Título da fonte: | Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
Texto Completo: | http://hdl.handle.net/10071/23399 |
Resumo: | A Inteligência Artificial e os robôs sociais nos cuidados de saúde trazem um novo campo de investigação interdisciplinar. Neste estudo examinámos os julgamentos morais das pessoas acerca da reação de uma agente de saúde perante uma paciente que recusa uma medicação. Para o efeito, desenvolvemos um dilema moral que variou em função da agente (humana vs. robô), decisão (respeito à autonomia vs. beneficência/não-maleficência) e argumentação (benefício à saúde vs. prejuízo à saúde). Avaliámos a aceitabilidade moral da decisão, a responsabilidade moral da agente e os seus traços de amabilidade, competência e confiabilidade, atribuídos por 524 participantes (350 mulheres; 316 brasileiros, 179 portugueses; 18-77 anos), aleatorizados por 8 vinhetas, num desenho inter-sujeitos aplicado através de um inquérito online. Os julgamentos de aceitabilidade moral foram mais elevados na decisão do respeito à autonomia da paciente, evidência similar para as duas agentes. A responsabilização moral e a perceção de amabilidade foram superiores para a humana em relação à robô. Não houve diferenças na perceção de competência e confiabilidade das agentes. As agentes que respeitaram a autonomia foram percebidas como muito mais amáveis, com uma dimensão de efeito superior aos outros atributos, mas menos competentes e confiáveis que as agentes que decidiram pela beneficência/não-maleficência. As agentes que priorizaram a beneficência/não-maleficência e argumentaram acerca do benefício à saúde foram consideradas mais confiáveis do que nas demais interações entre a decisão e a argumentação. Esta investigação contribui para a compreensão dos julgamentos morais no contexto dos cuidados de saúde mediados por agentes tanto humanos como artificiais. |
id |
RCAP_1716c5ba0f97308e74d858d18f3cf7c8 |
---|---|
oai_identifier_str |
oai:repositorio.iscte-iul.pt:10071/23399 |
network_acronym_str |
RCAP |
network_name_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository_id_str |
7160 |
spelling |
Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociaisPsicologia moral da robóticaJulgamentos moraisCuidados de saúde -- Health careRobôs de enfermagemAmabilidade & competênciaMoral psychology of roboticsMoral judgmentsNursing robotsWarmth & competenceA Inteligência Artificial e os robôs sociais nos cuidados de saúde trazem um novo campo de investigação interdisciplinar. Neste estudo examinámos os julgamentos morais das pessoas acerca da reação de uma agente de saúde perante uma paciente que recusa uma medicação. Para o efeito, desenvolvemos um dilema moral que variou em função da agente (humana vs. robô), decisão (respeito à autonomia vs. beneficência/não-maleficência) e argumentação (benefício à saúde vs. prejuízo à saúde). Avaliámos a aceitabilidade moral da decisão, a responsabilidade moral da agente e os seus traços de amabilidade, competência e confiabilidade, atribuídos por 524 participantes (350 mulheres; 316 brasileiros, 179 portugueses; 18-77 anos), aleatorizados por 8 vinhetas, num desenho inter-sujeitos aplicado através de um inquérito online. Os julgamentos de aceitabilidade moral foram mais elevados na decisão do respeito à autonomia da paciente, evidência similar para as duas agentes. A responsabilização moral e a perceção de amabilidade foram superiores para a humana em relação à robô. Não houve diferenças na perceção de competência e confiabilidade das agentes. As agentes que respeitaram a autonomia foram percebidas como muito mais amáveis, com uma dimensão de efeito superior aos outros atributos, mas menos competentes e confiáveis que as agentes que decidiram pela beneficência/não-maleficência. As agentes que priorizaram a beneficência/não-maleficência e argumentaram acerca do benefício à saúde foram consideradas mais confiáveis do que nas demais interações entre a decisão e a argumentação. Esta investigação contribui para a compreensão dos julgamentos morais no contexto dos cuidados de saúde mediados por agentes tanto humanos como artificiais.Artificial Intelligence and social robots in healthcare bring a new interdisciplinary field of research. In this study, we have examined people's moral judgments about a healthcare agent's reaction to a patient who refuses a medication. For this purpose, we have developed a moral dilemma that was varied according to the type of healthcare agent (human vs. robot), decision (respect for autonomy vs. beneficence/non-maleficence), and argumentation (health benefit vs. health harm). We have assessed the decision’s moral acceptability, the agent’s moral responsibility, and her traits of warmth, competence, and trustworthiness assigned by 524 participants (350 women; 316 Brazilian, 179 Portuguese; 18-77 years old) randomized into 8 vignettes, in an inter-subject design that was applied using an online survey. Moral acceptability judgments were higher in the decision to respect patient autonomy, similar evidence for both agents. Moral responsibility and perceived warmth were higher for the human agent than for the robot, and there were no differences in the agents' perceived competence and trustworthiness. Agents who have respected autonomy were perceived as much warmer, with a higher effect dimension than the other attributes, but less competent and trustworthy than agents who have decided for beneficence/non-maleficence. Agents who have prioritized beneficence/non-maleficence and argued about the health benefit were perceived as more trustworthy than in the other interactions between decision and argumentation. This research contributes to the understanding of moral judgments in the context of healthcare mediated by both humans and artificial agents.2021-10-26T13:54:55Z2021-10-15T00:00:00Z2021-10-152021-09info:eu-repo/semantics/publishedVersioninfo:eu-repo/semantics/masterThesisapplication/pdfhttp://hdl.handle.net/10071/23399TID:202777308porSoares, Antonio Alvaroinfo:eu-repo/semantics/openAccessreponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos)instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãoinstacron:RCAAP2023-11-09T17:50:40Zoai:repositorio.iscte-iul.pt:10071/23399Portal AgregadorONGhttps://www.rcaap.pt/oai/openaireopendoar:71602024-03-19T22:25:02.254474Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informaçãofalse |
dc.title.none.fl_str_mv |
Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociais |
title |
Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociais |
spellingShingle |
Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociais Soares, Antonio Alvaro Psicologia moral da robótica Julgamentos morais Cuidados de saúde -- Health care Robôs de enfermagem Amabilidade & competência Moral psychology of robotics Moral judgments Nursing robots Warmth & competence |
title_short |
Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociais |
title_full |
Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociais |
title_fullStr |
Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociais |
title_full_unstemmed |
Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociais |
title_sort |
Ética 4.0: dilemas morais nos cuidados de saúde mediados por robôs sociais |
author |
Soares, Antonio Alvaro |
author_facet |
Soares, Antonio Alvaro |
author_role |
author |
dc.contributor.author.fl_str_mv |
Soares, Antonio Alvaro |
dc.subject.por.fl_str_mv |
Psicologia moral da robótica Julgamentos morais Cuidados de saúde -- Health care Robôs de enfermagem Amabilidade & competência Moral psychology of robotics Moral judgments Nursing robots Warmth & competence |
topic |
Psicologia moral da robótica Julgamentos morais Cuidados de saúde -- Health care Robôs de enfermagem Amabilidade & competência Moral psychology of robotics Moral judgments Nursing robots Warmth & competence |
description |
A Inteligência Artificial e os robôs sociais nos cuidados de saúde trazem um novo campo de investigação interdisciplinar. Neste estudo examinámos os julgamentos morais das pessoas acerca da reação de uma agente de saúde perante uma paciente que recusa uma medicação. Para o efeito, desenvolvemos um dilema moral que variou em função da agente (humana vs. robô), decisão (respeito à autonomia vs. beneficência/não-maleficência) e argumentação (benefício à saúde vs. prejuízo à saúde). Avaliámos a aceitabilidade moral da decisão, a responsabilidade moral da agente e os seus traços de amabilidade, competência e confiabilidade, atribuídos por 524 participantes (350 mulheres; 316 brasileiros, 179 portugueses; 18-77 anos), aleatorizados por 8 vinhetas, num desenho inter-sujeitos aplicado através de um inquérito online. Os julgamentos de aceitabilidade moral foram mais elevados na decisão do respeito à autonomia da paciente, evidência similar para as duas agentes. A responsabilização moral e a perceção de amabilidade foram superiores para a humana em relação à robô. Não houve diferenças na perceção de competência e confiabilidade das agentes. As agentes que respeitaram a autonomia foram percebidas como muito mais amáveis, com uma dimensão de efeito superior aos outros atributos, mas menos competentes e confiáveis que as agentes que decidiram pela beneficência/não-maleficência. As agentes que priorizaram a beneficência/não-maleficência e argumentaram acerca do benefício à saúde foram consideradas mais confiáveis do que nas demais interações entre a decisão e a argumentação. Esta investigação contribui para a compreensão dos julgamentos morais no contexto dos cuidados de saúde mediados por agentes tanto humanos como artificiais. |
publishDate |
2021 |
dc.date.none.fl_str_mv |
2021-10-26T13:54:55Z 2021-10-15T00:00:00Z 2021-10-15 2021-09 |
dc.type.status.fl_str_mv |
info:eu-repo/semantics/publishedVersion |
dc.type.driver.fl_str_mv |
info:eu-repo/semantics/masterThesis |
format |
masterThesis |
status_str |
publishedVersion |
dc.identifier.uri.fl_str_mv |
http://hdl.handle.net/10071/23399 TID:202777308 |
url |
http://hdl.handle.net/10071/23399 |
identifier_str_mv |
TID:202777308 |
dc.language.iso.fl_str_mv |
por |
language |
por |
dc.rights.driver.fl_str_mv |
info:eu-repo/semantics/openAccess |
eu_rights_str_mv |
openAccess |
dc.format.none.fl_str_mv |
application/pdf |
dc.source.none.fl_str_mv |
reponame:Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) instname:Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação instacron:RCAAP |
instname_str |
Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
instacron_str |
RCAAP |
institution |
RCAAP |
reponame_str |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
collection |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) |
repository.name.fl_str_mv |
Repositório Científico de Acesso Aberto de Portugal (Repositórios Cientìficos) - Agência para a Sociedade do Conhecimento (UMIC) - FCT - Sociedade da Informação |
repository.mail.fl_str_mv |
|
_version_ |
1799134812947087360 |