A velocidade de adoção da Inteligência Artificial (IA) por parte das funções de negócio está a ser vertiginosa de forma a maximizar e criar novas fontes de receita. A adoção da IA pelo negócio é alicerçada na tecnologia e protegida pela cibersegurança. Isso significa que se estes três elementos (negócio, tecnologia e cibersegurança) não evoluírem ao mesmo ritmo, poderá ser criada uma lacuna importante com possíveis consequências e riscos proporcionais ao tamanho dessa mesma lacuna.

As organizações necessitam de conduzir análises de risco para identificar potenciais vulnerabilidades, os seus impactos e probabilidade de se materializarem.

Num Inquérito realizado pela EY sobre análise e gestão de risco no que diz respeito a IA, estas análises podem ser relativas a riscos gerados pela utilização de IA, como os resultados influenciados (Data Poisoning e Bias), falta de transparência, utilização de dados privados inadvertidamente, etc. mas, também devem ser relativas à classificação de risco dos sistemas e aplicações que suportam a própria IA.

Os dados são a base da IA, e, por conseguinte, a privacidade e a governança dos mesmos são de vital importância. De acordo com um inquérito realizado em conjunto pela Foundry e pela Searce, 58% dos inquiridos referiram que a segurança dos dados é uma das maiores barreiras à adoção da IA.

As organizações necessitam de adotar frameworks de governança e estabelecer políticas e controlos rigorosos que promovam a proteção e privacidade dos dados. Classificação de dados e controlos como criptografia, controlo de acessos e auditorias regulares contribuem para garantir a integridade e confidencialidade dos dados, mas também a conformidade com requisitos regulamentares.

Tal como referido no documento Guidelines for Secure AI system Development, publicado pelo UK National Cyber Security Centre, pelo US Cybersecurity and Infrastructure Security Agency (CISA) e outros parceiros, os sistemas e aplicações de IA, em particular as que utilizam large language models, trazem consigo um conjunto novo de possíveis vulnerabilidades, e por isso integrar cibersegurança no processo de desenvolvimento de IA é crucial para promover a adoção da tecnologia. Desde a recolha e análise dos dados, pré-processamento, treino dos modelos de dados, até à implementação e manutenção das soluções, boas práticas de cibersegurança, como desenvolvimento de código seguro, análises de vulnerabilidades e threat modeling, deverão ser incorporadas para que as organizações consigam mitigar e reduzir os riscos de segurança.

Um estudo desenvolvido em conjunto pela Tessian e pelo Professor Jeff Hancock da Universidade de Stanford estimou que 88% dos incidentes de cibersegurança são causados por erros de colaboradores. É vital que as empresas invistam na formação e sensibilização dos seus colaboradores, principalmente no sentido de os capacitar para reconhecer e mitigar riscos de segurança associados à adoção da IA. Promover uma cultura de conhecimento e partilha no que às boas práticas de cibersegurança diz respeito é crítico para diminuir as vulnerabilidades relacionadas com, ou provocadas pelos, seres humanos.

No que diz respeito à cibersegurança, com a introdução desta desde o início do processo de adoção da IA , as organizações estarão melhor preparadas para antecipar e/ou reagir mais rapidamente a ameaças e falhas de segurança em sistemas e aplicações de IA, assim como endereçar as temáticas de regulamentação, que se esperam, vir a ser mais exigentes num futuro próximo com a introdução de novas normas e diretivas como o EU AI Act.

A cibersegurança revela-se assim não apenas como um componente essencial da adoção responsável de IA, mas também como uma necessidade estratégica para o sucesso das organizações neste panorama digital em constante evolução.