Um novo estudo vem mostrando que decisões éticas podem ser implementadas em máquinas, assim como ponderações em tomadas de decisões diante de dilemas morais, e isso poderá ser usado nos carros autônomos em diversas situações em seus percursos no trânsito.

Em pesquisa do "Instituto de Ciência Cognitiva" da Universidade de Osnabrück, através de experiências de realidade virtual, uma investigação sobre as bases morais do comportamento humano está sendo realizada. A pesquisa, publicada no "Frontiers in Behavioral Neuroscience", utilizou realidade virtual imersiva para permitir que os autores do estudo analisassem o comportamento humano diante de diversas situações cotidianas no trânsito.

Os participantes tiveram que passar por simulação em que tinham que dirigir um carro em um bairro típico de subúrbio americano, em um dia de neblina, onde tinham que enfrentar dilemas inesperados envolvendo objetos, animais e pessoas, e tinham que decidir qual deles poupariam em um acidente. Os resultados foram contados estatisticamente juntamente com um grau de explicação do comportamento observado. A pesquisa apontou que as decisões morais no âmbito de colisões de tráfego inevitáveis podem ser explicadas segundo o valor dado a um objeto inanimado, a um animal e a um humano.

Leon Sutfeld, principal autor do estudo, explica que até então acreditava-se que os valores morais, por serem subjetivos, não poderiam ser contabilizados, mas que o estudo tem mostrado que na verdade isso pode ser mensurado através de um modelo simples de valores atribuídos à importância de um determinado objeto, um animal e uma outra pessoa para cada participante. Assim, os valores humanos podem ser sim transformados em algoritmos que poderão ser usados em máquinas também.

As descobertas da pesquisa têm grandes implicações no debate sobre a segurança em veículos autônomos em situações inevitáveis. Uma nova iniciativa do Ministério Federal Alemão de Transporte e Infraestrutura Digital, por exemplo, já definiu 20 princípios éticos relacionados aos veículos autônomos que envolvem comportamento em casos de acidentes inevitáveis, supondo que uma máquina realmente não é capaz de reproduzir a moral humana.

Gordon Pipa, um dos autores da pesquisa, diz que agora que parece ser possível que as máquinas possam ser programadas para tomar decisões humanas de forma moral, é crucial que haja um debate sério sobre isso, pois "em casos de acidentes envolvendo esses veículos autônomos inteligentes, quem será o responsabilizado? ".

Os pesquisadores afirmam que os carros autônomos são apenas o começo, já que esse tipo de sistema de inteligência pode ser utilizado em robôs em hospitais, por exemplo, e em muitos outros. Contudo, acreditam que novas regras precisam ser estabelecidas para evitar, em um caso extremo, que as máquinas cheguem ao ponto de tomarem decisões por nós.


Fonte de conteúdo: ScienceDaily
Fonte de imagem: Google