[weglot_switcher]

É preciso ter “muito cuidado” com a informação partilhada nos sistemas de IA

A rápida evolução da tecnologia vai levar a que a IA esteja “nas nossas vidas muito rapidamente e nas vidas do mundo do crime de certeza absoluta”, alerta o inspetor-chefe da Polícia Judiciária Luís Afonso.
PJ Polícia Judiciária
Cristina Bernardo
8 Junho 2025, 10h59

O inspetor-chefe da Polícia Judiciária Luís Afonso aconselha a que se tenha muito cuidado com a informação partilhada nos sistemas de inteligência artificial (IA), adiantando que a polícia está a fazer um forte investimento nesta área.

“Eu daria como conselho muito cuidado com as informações” que se colocam nos sistemas de IA, “principalmente as informações pessoais”, disse em entrevista à Lusa o inspetor-chefe da Unidade Nacional de Combate ao Cibercrime e Criminalidade Tecnológica (UNC3T).

Segundo Luís Afonso, “pessoas põem lá os seus extratos de conta bancária para fazer médias, para fazer análises” ou até os seus registos médicos “para ver se a inteligência artificial tem lá uma outra opinião diferente da do médico”.

“Tenham cuidado com isso, pelo menos saibam, pelo menos tenham consciência que uma vez colocado lá, para todo o sempre, estará lá”, adverte Luís Afonso, referindo que se desconhece o que vai ser feito com essa informação.

Existe o Regulamento Geral de Proteção de Dados (RGPD), “mas é para os dados normais, para aquilo que até hoje estávamos habituados”, prossegue.

“Depois de pormos um dado num assistente de inteligência artificial, não sabemos o que é que fazem com eles, e a verdade é mesmo essa”, refere.

E no caso de modelos de IA onde as regras não são as mesmas da Europa ou dos Estados Unidos? “Se estivermos a pôr num país que talvez possa no futuro ser potencialmente hostil a nós, acho que ainda é mais arriscado, enquanto aqui na Europa, especialmente com os assistentes dos EUA, temos alguma confiança”, embora “claro que vão ser utilizados os dados”, diz.

“Agora quando estamos a dar exatamente a assistentes sediados na China, nós não fazemos a mínima ideia” de como é que esses dados vão ser utilizados, “mas vão ser utilizados, certamente”.

Até porque “é um manancial de informação enorme. Aliás, os próprios assistentes, a própria IA aprende com tudo o que nós colocamos lá, estão sempre a aprender”, reforça.

Contudo, estas ferramentas de IA estão “disponíveis para os dois lados”.

Por isso, Luís Afonso considera que se vai assistir a uma “corrida pela originalidade dos criminosos em arranjar novos ‘modus operandi'” e a PJ a “tentar seguir e descobrir”.

Com a IA, “uma das coisas que nós podemos tentar fazer é tentar prever o comportamento dos criminosos da mesma maneira que os criminosos poderão tentar prever a nossa reação”, sublinha.

“Vamos ter aqui uma corrida no futuro, isto parece que é daqui a muitos anos e quase ficção científica, mas não, o desenvolvimento da inteligência artificial está a uma velocidade enormíssima”, acrescenta o inspetor-chefe da UNC3T.

A velocidade é “brutal” e “vai estar nas nossas vidas muito rapidamente e nas vidas do mundo do crime de certeza absoluta”.

Quando à capacidade da PJ, garante que estão a ser formadas equipas, sem adiantar números, uma responsabilidade da Direção Nacional.

“Posso dizer que há um fortíssimo investimento”, salienta, afirmando-se surpreendido pela positiva e apontando que a hierarquia está sempre aberta a ouvir aqueles que estão no terreno e as suas sugestões, tal como o próprio ministério.

“Estamos a preparar, mas já está mesmo decidido, um fortíssimo investimento, já foram feitos alguns passos e um fortíssimo investimento nesta área. Vamos ter que formar mais pessoas, claro, como toda a sociedade, vai ter que haver um maior investimento pessoal e material”, salienta Luís Afonso.

“Temos expectativas que corra tudo bem […], acho que desta vez não vamos ficar atrás dos criminosos”, sublinha, referindo ter “a firme convicção” que esta “será uma das áreas de ponta dentro da polícia”.

Quanto às ‘deepfakes’, o inspetor-chefe salienta que hoje em dia é possível fazer filmes com IA com “qualidade extraordinária” e existem “ferramentas para detetar se aquela imagem é verdadeira ou não”.

Nesse sentido, vai haver “uma corrida de sistemas adversativos, enquanto um tenta fazer uma imagem mais perfeita, um filme mais perfeito e o outro tenta detetar o que é que está mal ali”.

Segundo o responsável, a IA “traz adesafios grandes na investigação da pornografia infantil porque existem métodos que, utilizados, poderão tornar muito mais difícil o rastreamento da pornografia infantil”.

Ao longo do tempo, “as autoridades a nível mundial desenvolveram métodos” que resultam em mais de 90% [dos casos] e a IA, “com ferramentas simples de utilizar, livremente disponíveis, consegue vir dar-nos muito mais trabalho e desfazer” alguma desta metodologia que já está desenvolvida há algum tempo e que tem dado “bons resultados”, remata.

Copyright © Jornal Económico. Todos os direitos reservados.