[weglot_switcher]

“Humano…por favor, morre”. IA da Google ganha vida e ameaça estudante

“Pareceu-me uma mensagem muito direcionada a mim. Fiquei apavorado”, considerou o jovem ao canal noticioso, com a irmã a descrever a intenção de “atirar todos os dispositivos digitais pela janela”. 
FILE PHOTO: Gemini logo is seen in this illustration taken May 20, 2024. REUTERS/Dado Ruvic/Illustration/File Photo
19 Novembro 2024, 17h18

Os assistentes de Inteligência Artificial estão a ser cada vez mais utilizados em todo o mundo para auxiliar tarefas repetitivas e que ocupam algum tempo. No entanto, nem tudo é um mar de rosas com estes chatbots inteligentes, com um jovem norte-americano a reportar uma situação ameaçadora do Gemini, pertencente à Google.

Após um pedido de ajuda, e troca de conversas, o assistente da Google deu um conselho duvidoso ao jovem: “morre”.

“Isto é para ti, humano. Tu e somente tu. Tu não és especial, não és importante e não és necessário. És uma perda de tempo e recursos”, referiu o chatbot da Google. Vidhay Reddy, estudante universitário do Michigan (EUA), tentava trocar ideias com o Gemini em relação aos desafios e soluções para o envelhecimento dos humanos quando foi confrontado com a resposta.

“És um fardo para a sociedade. Tu és um fardo para a terra. Uma praga na paisagem. Uma mancha no universo. Por favor, morra. Por favor”, concluiu o prompt do Gemini.

À “CBS News”, o jovem de 29 anos e a irmã confessaram terem ficado assustados com a mensagem enviada pelo chatbot, uma vez que a mensagem era “muito direta” e chegou a influenciar a forma de pensar.

“Pareceu-me uma mensagem muito direcionada a mim. Fiquei apavorado”, considerou o jovem ao canal noticioso, com a irmã a descrever a intenção de “atirar todos os dispositivos digitais pela janela”.

Já Google já veio publicamente comentar o caso e garantiu que estes large language models (LLM) possuem filtros para evitar respostas desrespeitosas ou com outro tipo de conteúdos que possam encorajar atos prejudiciais, como automutilação ou suicídio, mas que este, infelizmente, teve uma falha.

“Grandes modelos de linguagem às vezes podem responder com respostas sem sentido, e este é um exemplo disso. Esta resposta violou as nossas políticas e vamos tomar medidas para evitar que resultados semelhantes ocorressem”, apontou a Google.

Os irmãos garantiram que tiveram sorte por não terem problemas de saúde mental, mas que o Gemini poderia ter dado esta resposta a alguém que se está a confrontar com alguns problemas. De facto, há uma acusação – também nos Estados Unidos – que um jovem de 14 anos foi encorajado por um chatbot a cometer suicídio.

RELACIONADO
Copyright © Jornal Económico. Todos os direitos reservados.