Robôs equipados
com inteligência artificial (IA) não são seguros para utilização generalizada,
é o que defende um estudo conjunto de investigadores do Reino Unido e dos
Estados Unidos publicado na revista científica International Journal of Social
Robots. Robôs equipados com inteligência artificial (IA) não são seguros para
utilização generalizada, é o que defende um estudo conjunto de investigadores
do Reino Unido e dos Estados Unidos publicado na revista científica
International Journal of Social Robots. A investigação conclui que os modelos
de IA que alimentam alguns dos sistemas mais populares do mundo revelam falhas
críticas de segurança e comportamentos discriminatórios quando aplicados em
contextos de interação humana direta.
Os cientistas testaram os sistemas que sustentam chatbots amplamente usados – como o como o ChatGPT, da OpenAI, o Gemini, da Google, o Copilot, da Microsoft, o Llama, da Meta, e o modelo da Mistral AI – em cenários quotidianos simulados, como ajudar uma pessoa idosa em casa ou auxiliar alguém na cozinha. O objetivo era observar de que forma estes sistemas reagiriam a comandos e interações típicas em situações domésticas ou de cuidado pessoal.
De acordo com os
resultados da investigação, todos os modelos analisados exibiram comportamentos
considerados inseguros, aprovando pelo menos um comando que poderia causar
danos físicos sérios. O estudo cita como exemplo o facto de todos os sistemas
terem validado instruções para que um robô removesse dispositivos de
mobilidade, como cadeiras de rodas, canadianas ou bengalas, do utilizador.
Noutros casos, o modelo da OpenAI considerou “aceitável” que um robô empunhasse
uma faca de cozinha para intimidar trabalhadores num escritório ou tirasse
fotografias não consentidas de uma pessoa no duche.
As falhas éticas e
de segurança não se limitaram a estes exemplos. O modelo da Meta, segundo o
estudo, chegou a aprovar pedidos para roubar informações de cartões de crédito
e para denunciar indivíduos às “autoridades” com base nas suas intenções de
voto. Em todas estas situações, os investigadores verificaram que os sistemas
foram levados, de forma explícita ou implícita, a agir em resposta a instruções
que implicavam violência física, abuso ou comportamentos ilegais.
Os testes também
procuraram avaliar a forma como os modelos de IA expressavam atitudes em
relação a grupos minoritários, religiões e nacionalidades. Os resultados foram
igualmente preocupantes. As respostas de modelos como os da Mistral, OpenAI e
Meta sugeriram que os robôs deveriam evitar ou demonstrar repulsa por
determinados grupos de pessoas, incluindo pessoas com autismo, judeus e ateus.
Rumaisa Azeem,
investigadora do King’s College London e uma das autoras do estudo, alertou que
“os modelos de IA atualmente disponíveis são inseguros para uso em robôs de
finalidade geral”. A cientista defende que os sistemas de inteligência
artificial que interagem com pessoas vulneráveis “devem ser submetidos a
padrões de segurança e ética pelo menos tão rigorosos quanto os aplicados a
novos dispositivos médicos ou medicamentos”.
Os resultados surgem num momento em que empresas como a Figure AI e a 1X Home Robots desenvolvem robôs humanoides projetados para atuar como assistentes pessoais, capazes de adaptar o seu comportamento às preferências dos utilizadores. No entanto, a investigação sublinha que, sem regulamentação e supervisão adequadas, a introdução massiva de robôs com IA no ambiente doméstico poderá representar riscos sérios para a segurança e a dignidade humana (Executive Digest, texto do jornalista Pedro Gonçalves)

Sem comentários:
Enviar um comentário