A inteligência artificial (IA) não é apenas mais um hype. É uma realidade e está a mudar quase tudo ao nosso redor a um ritmo alucinante e de uma forma imparável, desde a investigação científica mais sofisticada, até à forma como organizamos uma simples viagem de família.
Não se trata meramente de uma revolução tecnológica, trata-se de uma revolução civilizacional que promove oportunidades e benefícios fantásticos, mas que acarreta também desafios e riscos sérios.
Todos nós conseguimos pensar em cenários críticos em que a IA já está a ser utilizada ou o será em breve. A produção de conteúdos digitais, a condução autónoma, os sistemas inteligentes de gestão de tráfego, os diagnósticos médicos, são apenas alguns exemplos.
Quando estão em causa direitos tão fundamentais, como a liberdade e a segurança de vidas humanas, quem é o responsável em caso de falha? Quem tem autoridade para regular? E com que meios?
Este é o tipo de questões que devemos discutir enquanto sociedade para garantir uma utilização ética, segura e responsável da IA.
Atualmente, o esforço para definir uma base sólida a ser seguida por parte de diversos países e entidades é notório.
O EU Artificial Intelligence Act, que neste momento apresenta potencial para se tornar uma prática de referência na regulamentação da IA, e a norma ISO 42001:202 Artificial Intelligence Management System, são resultados deste esforço conjunto que visa dar resposta à necessidade urgente de um quadro regulatório e normativo que acompanhe o ritmo desta revolução.
Embora existam abordagens distintas por parte dos diversos países, verificam-se tendências comuns na criação das regulamentações sobre a adoção da IA, nomeadamente:
(i) a utilização dos princípios fundamentais da OCDE como referência global para a definição de uma abordagem centrada na proteção dos direitos humanos;
(ii) a adoção de uma abordagem baseada no risco, visando obter um equilíbrio regulamentar adequado entre a atenuação dos riscos associados à IA e a promoção dos seus benefícios; e
(iii) a inclusão de considerações específicas dos sectores, como, por exemplo, a utilização de regras adicionais específicas para sectores que impliquem riscos de segurança mais elevados, como é o exemplo dos veículos autónomos.
Pese embora o esforço no desenvolvimento de um quadro regulatório e normativo, o ritmo da evolução e da adoção de IA irá inevitavelmente superá-lo. Nesse sentido, as organizações responsáveis terão de ser proativas e eficazes na implementação de estruturas sólidas de gestão de risco que, para além da preocupação com compliance, promovam uma adoção e utilização de IA ética, responsável e segura. Essas estruturas deverão incluir modelos de governo, responsabilidades e controlo e deverão assentar em pessoas informadas (não se pode gerir o que não se conhece) e em modelos colaborativos, transversais e ágeis, desde a gestão de topo até às operações.
O tsunami está à nossa frente e não o iremos conseguir parar com as mãos. É tempo de agir!