[weglot_switcher]

Empresas estão a ignorar riscos regulatórios da IA

Dois casos recentes nos Estados Unidos colocaram a Inteligência Artificial Generativa no centro de um debate urgente sobre responsabilidade, regulação e ética.
3 Outubro 2025, 17h00

Um chatbot esteve envolvido nas interações que antecederam desfechos trágicos: Adam Raine, adolescente de 16 anos, suicidou-se após meses de interação com o ChatGPT e Erik Soelberg, ex-executivo de tecnologia, matou a mãe e suicidou-se após desenvolver uma relação obsessiva com o ChatGPT, a quem chamava “Bobby Zenith”.

Adolfo Mesquita Nunes, sócio da Pérez-Llorca, membro do Conselho Consultivo para a Digitalização na Administração Pública e um dos advogados que se tem destacado na perspetiva jurídica da tecnologia com a Inteligência Artificial, reflete sobre o papel destes sistemas e os desafios jurídicos que nos colocam. “Os chatbots são rápidos, disponíveis 24/7 e podem melhorar muito a experiência do utilizador. Mas é preciso não esquecer que eles não “pensam” nem compreendem o que dizem: geram respostas probabilisticamente, com base em padrões de linguagem. E isso traz riscos. Se um chatbot dá informações incorrectas, agride verbalmente o interlocutor, faz uma proposta comercial errada, ou recolhe dados pessoais sem consentimento, a empresa pode enfrentar responsabilidade civil ou contratual, violações de protecção de dados ou até publicidade enganosa, com impacto directo na sua reputação.

Há também uma dimensão emocional e ética: muitas pessoas falam com chatbots como se fossem amigos, sem perceber que estão a interagir com um sistema que não sente, não pensa, não distingue o verdadeiro do falso nem avalia o impacto do que diz. Casos trágicos, como os de suicídio ligados a conselhos de chatbots, mostram esses riscos”, diz Adolfo Mesquita Nunes ao Jornal Económico.

O advogado esclarece que o AI Act classifica os chatbots como sistemas de risco limitado, impondo sobretudo obrigações de transparência: o utilizador deve saber que fala com uma IA. Mas isto não esgota o quadro jurídico. Um chatbot que recolha dados sem base legal pode violar o RGPD; se fornecer informações enganosas, pode infringir leis de consumo e publicidade; e se gerar conteúdos discriminatórios, pode originar responsabilidade civil ou até penal. “Por isso, cad3a empresa tem de perceber que a utilização de IA pode ter consequências jurídicas sérias que estão para lá do AI Act. É essencial mapear riscos, preparar mecanismos internos de prevenção, rever contratos para repartir adequadamente responsabilidades e garantir proteção legal sólida. Não basta dizer que o chatbot foi comprado a um fornecedor externo para transferir a responsabilidade: em muitos casos, ela continua a recair sobre quem o usa e integra nos seus serviços. Por exemplo, no caso Moffatt v. Air Canada, o tribunal condenou a companhia aérea a indemnizar um passageiro depois de o seu chatbot ter dado informação enganosa sobre tarifas, deixando claro que a responsabilidade continua a recair sobre a empresa, mesmo quando o erro vem da IA”, sublinha Adolfo Mesquita Nunes.

Certo é que o AI Act muda a vida das empresas porque, pela primeira vez, cria regras horizontais para todos os sistemas de IA na União Europeia, com obrigações proporcionais ao risco. “As empresas passam a ter de classificar os sistemas que usam, garantir transparência, gestão de riscos, governança interna e, para sistemas de alto risco, até auditorias, documentação técnica e registo junto das autoridades. O regulamento considera risco elevado sistemas de IA usados em áreas como saúde, educação, gestão de infraestruturas críticas, transportes, avaliação de crédito, emprego e recursos humanos, aplicação da lei, migração e justiça, entre outras. Atenção: mesmo quem usa IA desenvolvida por terceiros não pode “sacudir a água do capote”: as empresas têm de rever contratos, mapear riscos e garantir conformidade com outras leis, desde o RGPD ao direito do consumo, publicidade, laboral e responsabilidade civil. Em suma, as empresas devem levar a IA a sério, como um tema estratégico, de compliance e de gestão de risco, e não apenas como uma ferramenta tecnológica”, afirma o sócio da Pérez-Llorca ao Jornal Económico.

Sobre se o nosso ordenamento jurídico está pronto para lidar com todas as questões que a IA levanta, Adolfo Mesquita Nunes não tem dúvidas: “Não. A IA impacta áreas muito diferentes do Direito, muitas das quais precisam de actualização. Por exemplo, o Código do Procedimento Administrativo não prevê regras claras sobre quando e como a Administração Pública pode usar sistemas de IA: não há orientações sobre fundamentação das decisões, explicabilidade dos algoritmos ou deveres de transparência perante os cidadãos. No campo da responsabilidade civil, está em discussão a criação de regimes de responsabilidade objectiva para danos causados por sistemas de IA, independentemente de culpa, sobretudo quando são usados em contextos de risco elevado. E isto sem falar na protecção de dados, consumo, direito laboral ou responsabilidade penal, todos impactados por sistemas que hoje podem tomar decisões ou influenciar pessoas em escala massiva. Ou seja, o quadro jurídico atual é fragmentado e reativo, e a IA obriga a repensar conceitos básicos como autoria, imputação de responsabilidade e deveres de diligência”.

Copyright © Jornal Económico. Todos os direitos reservados.