[weglot_switcher]

AI Act: Regulamento europeu da Inteligência Artificial entra em vigor

Os sistemas de IA são divididos numa pirâmide consoante os riscos que representam. Os Estados-membros da União Europeia têm até 2 de agosto de 2025 para designar autoridades nacionais competentes que se encarreguem de supervisionar a aplicação destas regras.
1 Agosto 2024, 13h13

Já está em vigor a primeira lei europeia da Inteligência Artificial (IA). A partir desta quinta-feira, as empresas que operam nos Estados-membros da União Europeia (UE) têm mesmo de se mentalizar que as regras dos algoritmos vão mudar e se não cumprirem as obrigações vão ser multadas.

As coimas podem chegar a 7% do volume de negócios anual mundial no caso das violações de aplicações de IA proibidas, até 3% para as violações de outras obrigações e até 1,5% da faturação global se fornecerem de informações incorretas relacionadas com esta tecnologia do momento.

O AI Act divide os sistemas de IA numa hierarquia de riscos: risco mínimo, risco específico de transparência, risco elevado e risco inaceitável. No primeiro, encontram-se os sistemas que fazem recomendações – por exemplo, publicidades com base nos conteúdos consumidos -e não representam qualquer problema para os cidadãos. A seguir, entram os chatbots, que devem informar claramente aos utilizadores de que estão a interagir com uma máquina e se forem deep fakes têm de ser identificados dessa forma.

Na categoria de risco elevado entram os algoritmos que mexem verdadeiramente com a vida das pessoas e podem causar obstáculos ao desenvolvimento ou à vida dos cidadãos, entre os quais os que fazem recrutamento, avaliam se alguém tem direito a empréstimo ou gerem robôs autónomos. Aí terão obrigações concretas de controlo humano, login e registo de atividade, entre outras.

Quanto ao risco inaceitável, abrange brinquedos para menores que recorrem à assistência por voz para incentivar comportamentos perigosos, sistemas de governos e organizações que fazem “pontuação social” e aplicações de policiamento preditivo.

Segundo os advogados da Morais Leitão, estão proibidos “os mecanismos de policiamento preditivo, quando estes tenham por base a previsão do risco do cometimento de um crime, com base na definição de um perfil de um indivíduo. Não são proibidos, no entanto, sistemas que avaliem o envolvimento de uma pessoa numa atividade criminosa, quando tenham por base factos objetivos e verificáveis”.

E também não são aceitáveis “os sistemas que criem ou expandam bases de dados de reconhecimento facial através da recolha de imagens faciais na internet ou CCTV [circuito fechado de televisão] e os que infiram emoções nos locais de trabalho e estabelecimentos de ensino, salvo quando estejam em causa razões de saúde ou segurança”.

“Hoje marca um marco importante na liderança da Europa em matéria de IA de confiança. Com a entrada em vigor do AI Act, a democracia europeia proporcionou um quadro eficaz, proporcionado e pioneiro a nível mundial para a IA, combatendo os riscos e servindo de ponto de partida para as empresas europeias em fase de arranque no domínio da IA”, sintetiza o comissário europeu para o Mercado Interno, Thierry Breton, num comunicado divulgado por Bruxelas.

Importa esclarecer que a maioria das regras deste regulamento só têm aplicação a partir de 2 de agosto de 2026. Porém, as proibições de sistemas de IA que apresentam um risco inaceitável serão aplicáveis daqui a seis meses e as medidas que abrangem os modelos de IA “de finalidade geral” – os famosos chatbots utilizados para responder a perguntas, fazer cálculos, criar imagens e completar outras tarefas – daqui a um ano.

Os 27 países da UE têm até 2 de agosto de 2025 para designar autoridades nacionais competentes que se encarreguem de supervisionar a aplicação destas regras e fazerem fiscalização ao mercado. Ao nível da UE – o supervisor a quem reportam os supervisores de cada Estado-membro – será o AI Office.

Margrethe Vestager, vice‑presidente executiva da Comissão Europeia, considera que a IA tem “potencial para mudar a forma como trabalhamos e vivemos e promete enormes benefícios para os cidadãos, para a sociedade e para a economia europeia”, portanto este regulamento garante que a tecnologia “respeita as regras” da UE. “A abordagem europeia da tecnologia põe as pessoas em primeiro lugar e garante que os direitos de todos são preservados”, afirmou a responsável por uma Europa Preparada para a Era Digital.

Tenho uma empresa. O que devo fazer?

Os advogados Pedro da Quitéria Faria e Isabel Araújo Costa, da área de Direito do Trabalho e da Segurança Social da Antas da Cunha Ecija enumeram seis passos:

  • Verificar se, na sua empresa, são utilizados sistemas de IA
  • Categorizar os sistemas de IA (risco elevado ou não)
  • Consoante o nível de risco, verificar quais as obrigações que sobre si impendem
  • Auditar os algoritmos e os sistemas de IA através da AIDF – Avaliação de Impacto sobre os Direitos Fundamentais e da AIPD – Avaliação de Impacto na Proteção de Dados, em estreita e imperativa ligação com o RGPD
  • Independentemente do nível de risco, apostar na literacia em IA, através de ações de formação e sensibilização
  • Desenvolver e implementar uma política interna sobre a utilização correta e conforme dos sistemas de IA pelos trabalhadores
RELACIONADO
Copyright © Jornal Económico. Todos os direitos reservados.