1. A importância da Inteligência Artificial (IA) no mundo atual cresce com o desenvolvimento dos “Agentes de IA”. Simplificadamente, trata-se de sistemas que, com base nas instruções que recebem, realizam tarefas de forma crescentemente autónoma. Um agente pode, por exemplo, navegar na internet para realizar reservas de restaurantes ou hoteis, realizar compras ou negociar planos de saúde. Mas pode também desenhar e operacionalizar campanhas de marketing, intervir em mercados financeiros, ou nos mais variados setores de atividade.

O que distingue os agentes de outros sistemas de IA é a capacidade para realizarem um conjunto de tarefas sucessivas com vista a um dado objetivo, com escassa ou nenhuma intervenção humana. Estas tarefas podem consistir em coligir dados, pesquisar na web, preencher formulários, realizar pagamentos, analisar tendências, emitir alertas, ou muitas outras.

No plano técnico, os agentes de IA, tal como hoje estão a ser desenvolvidos, representam uma evolução a partir dos modelos e sistemas de IA generativa “tradicionais” (especialmente dos LLM – grandes modelos de linguagem e dos modelos multimodais). Todavia, ao invés de gerarem texto, imagens, vídeo ou código, os agentes geram ações, isoladas ou agrupadas em tarefas mais ou menos complexas.

2. Os agentes de IA têm o potencial para revolucionar processos, automatizar tarefas e melhorar resultados, quer para consumidores quer para as empresas, mas os riscos são igualmente importantes.

Num tempo em que a regulação da tecnologia é objeto de reflexão e debate, os agentes de IA vêm colocar em evidência uma das maiores dificuldades da regulação: a tecnologia está em constante evolução, e o quadro regulatório pensado hoje pode tornar-se obsoleto amanhã. Lembremos que a abordagem de risco adoptada pelo projeto de Regulamento de IA da União Europeia (AI Act) teve de ser reformulada pela explosão da IA generativa, levando a quebrar a lógica inicial no Regulamento aprovado, através das novas regras sobre os “modelos de finalidade geral”.

3. Os agentes de IA constituem um novo desafio ao Regulamento europeu, cujo calendário de aplicação está em marcha. Pensemos na escassa supervisão humana, dificilmente compatível com a necessidade de um “human in the loop”, nos contextos de risco elevado. O estado atual da tecnologia é ainda muito permeável ao erro e à alucinação, pelo que o excesso de confiança dos utilizadores pode aqui ter consequências graves. A utilização dos agentes para usos maliciosos ou criminosos e os problemas de cibersegurança são também temas incontornáveis.

Para as organizações, a galopante evolução tecnológica constitui uma oportunidade que não pode ser perdida. É essencial uma estratégia que tenha como pontos cardeais: adotar modelos de governação de dados e de IA adequados; abraçar práticas de IA responsável e de compliance by design; proporcionar literacia sobre o potencial e os riscos operacionais, reputacionais e regulatórios da IA, que é uma obrigação em vigor, nos termos do art. 4º do AI Act. Só através de programas de literacia em IA transversais e adaptados aos contextos específicos será possível construir uma cultura de inovação que potencie a tecnologia e minimize os respetivos riscos.