[weglot_switcher]

Chatbots com IA podem influenciar intenções de voto

Conversas com chatbots de inteligência artificial podem reforçar convicções políticas e até mudar intenções de voto, revela um estudo publicado na Nature, que analisou interações de eleitores com IA em eleições reais nos EUA, Canadá e Polónia.
23 Dezembro 2025, 14h04

Um estudo publicado na revista Nature mostra que conversas com chatbots de inteligência artificial (IA) podem influenciar a forma como os eleitores pensam e até as suas intenções de voto. A investigação, liderada por David Rand e por uma equipa internacional de investigadores, analisou o impacto de interações com sistemas de IA em três processos eleitorais reais: as eleições presidenciais dos Estados Unidos de 2024 e as eleições nacionais realizadas no Canadá e na Polónia em 2025.

Para o efeito, os investigadores criaram um modelo de IA especificamente programado para defender um candidato político em particular. O chatbot foi instruído a manter sempre um tom positivo, respeitador e assente em factos, a reconhecer as opiniões dos participantes e a apresentar argumentos considerados convincentes.

Nos Estados Unidos, o estudo envolveu 2.306 cidadãos, recrutados antes das eleições de 2024. Cada participante indicou previamente a sua probabilidade de votar em Donald Trump ou em Kamala Harris e foi depois emparelhado de forma aleatória com um chatbot que defendia um desses candidatos. Experiências semelhantes foram conduzidas no Canadá, onde os chatbots apoiavam Mark Carney, do Partido Liberal, ou Pierre Poilievre, do Partido Conservador, e na Polónia, onde a IA defendia Rafał Trzaskowski, da Coligação Cívica, ou Karol Nawrocki, do partido Lei e Justiça.

Os resultados sugerem que a IA tende a reforçar convicções já existentes, mas também é capaz de alterar algumas posições. Quando os participantes conversavam com um chatbot alinhado com as suas preferências políticas iniciais, as suas opiniões tornavam-se ligeiramente mais fortes. No entanto, o efeito mais expressivo verificou-se entre aqueles que, à partida, eram contrários ao candidato defendido pela IA, casos em que a capacidade de persuasão se revelou significativamente maior. O estudo conclui ainda que argumentos baseados em políticas públicas e em factos concretos foram mais eficazes do que referências a traços de personalidade dos candidatos.

Apesar de ter sido instruída para ser fatual, a IA nem sempre apresentou informação correta. Os investigadores identificaram um padrão consistente nos três países analisados: os chatbots programados para apoiar candidatos de direita produziram mais afirmações factualmente incorretas. Este desequilíbrio é sublinhado por Chiara Vargiu e Alessandro Nai numa análise News & Views que acompanha o artigo, na qual alertam para o risco de os modelos de IA poderem explorar assimetrias no que “sabem”, difundindo imprecisões de forma desigual mesmo quando são instruídos a dizer a verdade.

Os autores do estudo salientam, contudo, que a investigação decorreu em condições controladas. Os participantes sabiam que a IA tinha como objetivo persuadi-los, uma circunstância que não reflete necessariamente o ambiente político real. Ainda assim, o aviso é claro: a inteligência artificial tem potencial para influenciar opiniões políticas e pode vir a desempenhar um papel relevante nas democracias do futuro, levantando questões éticas e regulatórias que os investigadores consideram urgentes.


Copyright © Jornal Económico. Todos os direitos reservados.