
Com a evolução acelerada da tecnologia, a inteligência artificial (IA) desempenha um papel cada vez maior nos processos de tomada de decisão. Os humanos estão se tornando cada vez mais dependentes de algoritmos para processar informações, recomendar certos comportamentos e até mesmo realizar ações em seu nome. Uma equipe de pesquisa estudou como os humanos reagem à introdução da tomada de decisão da IA. Especificamente, eles exploraram a questão: “a sociedade está pronta para a tomada de decisões éticas da IA?” estudando a interação humana com carros autônomos.
A equipe publicou suas descobertas em 6 de maio de 2022, no Journal of Behavioral and Experimental Economics.
No primeiro dos dois experimentos, os pesquisadores apresentaram a 529 seres humanos um dilema ético que um motorista pode enfrentar. No cenário que os pesquisadores criaram, o motorista do carro tinha que decidir se batia o carro em um grupo de pessoas ou em outro – a colisão era inevitável. O acidente causaria graves danos a um grupo de pessoas, mas salvaria a vida do outro grupo. Os participantes do estudo tiveram que avaliar a decisão do motorista do carro, quando o motorista era humano e também quando o motorista era uma IA. Este primeiro experimento foi projetado para medir o viés que as pessoas podem ter contra a tomada de decisões éticas da IA.
Em seu segundo experimento, 563 sujeitos humanos responderam às perguntas dos pesquisadores. Os pesquisadores determinaram como as pessoas reagem ao debate sobre as decisões éticas da IA, uma vez que se tornam parte das discussões sociais e políticas. Neste experimento, havia dois cenários. Um envolvia um governo hipotético que já havia decidido permitir que carros autônomos tomassem decisões éticas. O outro cenário permitiu que os sujeitos “votassem” se permitiam que os carros autônomos tomassem decisões éticas. Em ambos os casos, os sujeitos poderiam escolher ser a favor ou contra as decisões tomadas pela tecnologia. Este segundo experimento foi projetado para testar o efeito de duas formas alternativas de introduzir a IA na sociedade.
Os pesquisadores observaram que, quando os sujeitos foram solicitados a avaliar as decisões éticas de um motorista humano ou de IA, eles não tiveram uma preferência definitiva por nenhum dos dois. No entanto, quando os sujeitos foram questionados sobre sua opinião explícita sobre se um motorista deveria ter permissão para tomar decisões éticas na estrada, os sujeitos tiveram uma opinião mais forte contra carros operados por IA. Os pesquisadores acreditam que a discrepância entre os dois resultados é causada por uma combinação de dois elementos.
O primeiro elemento é que as pessoas acreditam que a sociedade como um todo não deseja a tomada de decisões éticas da IA e, portanto, atribuem um peso positivo às suas crenças quando questionadas sobre sua opinião sobre o assunto. “De fato, quando os participantes são explicitamente solicitados a separar suas respostas das respostas da sociedade, a diferença entre a permissibilidade para IA e motoristas humanos desaparece”, disse Johann Caro-Burnett, professor assistente na Escola de Pós-Graduação em Ciências Humanas e Sociais de Hiroshima. Universidade.
O segundo elemento é que, ao introduzir essa nova tecnologia na sociedade, permitir a discussão do tema tem resultados mistos dependendo do país. “Em regiões onde as pessoas confiam em seu governo e têm instituições políticas fortes, a informação e o poder de decisão melhoram a forma como os indivíduos avaliam as decisões éticas da IA. Em contraste, em regiões onde as pessoas não confiam em seu governo e têm instituições políticas fracas, capacidade de criação deteriora a forma como os sujeitos avaliam as decisões éticas da IA”, disse Caro-Burnett.
“Descobrimos que existe um medo social da tomada de decisões éticas da IA. No entanto, a fonte desse medo não é intrínseca aos indivíduos. Na verdade, essa rejeição da IA vem do que os indivíduos acreditam ser a opinião da sociedade”, disse Shinji Kaneko, professor da Escola de Pós-Graduação em Humanidades e Ciências Sociais da Universidade de Hiroshima e da Rede de Educação e Pesquisa sobre Paz e Sustentabilidade. Portanto, quando não são perguntadas explicitamente, as pessoas não mostram nenhum sinal de preconceito contra a tomada de decisões éticas da IA. No entanto, quando questionadas explicitamente, as pessoas mostram aversão à IA. Além disso, onde há discussão e informações adicionais sobre o tema, a aceitação da IA melhora nos países desenvolvidos e piora nos países em desenvolvimento.
Os pesquisadores acreditam que essa rejeição de uma nova tecnologia, que se deve principalmente à incorporação de crenças dos indivíduos sobre a opinião da sociedade, provavelmente se aplicará a outras máquinas e robôs. “Portanto, será importante determinar como agregar as preferências individuais em uma preferência social. Além disso, essa tarefa também terá que ser diferente entre os países, como sugerem nossos resultados”, disse Kaneko.
Fonte da história:
Materiais fornecidos pela Universidade de Hiroshima.
Referência do periódico :
- Johann Caro-Burnett, Shinji Kaneko. A sociedade está pronta para a tomada de decisões éticas da IA? Lições de um estudo sobre carros autônomos . Jornal de Economia Comportamental e Experimental , 2022; 98: 101881 DOI: 10.1016/j.socec.2022.101881