A competição pela vanguarda em Inteligência Artificial (IA) está cada vez mais a ser enquadrada em questões geopolíticas que impulsionam uma corrida armamentista pelo domínio de IA, reformulando as estratégias de defesa e segurança das principais potências mundiais.

A abordagem de Trump reforça a colaboração entre o governo e o setor privado para acelerar a inovação em IA, não apenas para obter vantagens militares, como também para uma certa (re)industrialização dos EUA, motivada pela consolidação da sua liderança tecnológica face aos seus adversários, isto é, tenta assegurar a supremacia tecnológica americana perante Estados como a China, Rússia e Israel. A administração Trump prevê implementar medidas protecionistas, como impostos e tarifas contra países que imponham taxas às empresas de tecnologia americanas, além de incentivar a exploração de recursos energéticos para sustentar a crescente procura do setor de IA.

Os EUA tentaram limitar o acesso da China a tecnologias-chave, como semicondutores avançados, e a China respondeu ao acelerar os seus esforços em direção à autossuficiência e inovação tendo até surpreendido o mundo com o recente lançamento do Deepseek, modelo de IA comparável aos desenvolvidos pela OpenAI, porém treinado com uma fração dos recursos.

Em paralelo, a Rússia e Israel estão a investir significativamente em capacidades militares baseadas em IA, com foco em sistemas autónomos e armas inteligentes. No caso dos EUA, além dos investimentos em modelos generativos de IA, existe um foco significativo no desenvolvimento de tecnologias de IA aplicadas ao setor militar, abrangendo áreas tais como veículos aéreos não tripulados (drones), sistemas de reconhecimento de alvos e armas autónomas letais.

Concretamente, a utilização de drones equipados com IA para missões de reconhecimento e combate tem-se revelado crucial em conflitos recentes, como no caso da Ucrânia e da Rússia – nomeadamente, no caso russo, tendo vindo a utilizar alvos ucranianos para treinar os drones no reconhecimento de alvos. O objetivo será que os mesmos consigam operar de forma independente e identificar alvos sem intervenção humana direta.

No fundo, a IA é utilizada para analisar imagens de satélite e outros dados de vigilância para identificar e monitorizar ameaças potenciais, como movimentos militares, com maior precisão e em tempo real.  Já na China, estão a ser recrutados estudantes para programas no Beijing Institute of Technology (BIT) que é um dos principais institutos de pesquisa e desenvolvimento de armas do país, e cujo lançamento do novo programa constitui uma evidência do peso atribuído pelo governo chinês ao desenvolvimento de tecnologia de IA para uso militar – os chamados killer robots e/ou dogs of war.

Também no caso de Israel, são já bastante conhecidas as aplicações de IA para defesa militar, sendo um exemplo notório, o famoso Iron Dome que, também através de IA, atua dentro de um conjunto de parâmetros pré-programados para conseguir intercetar mísseis e/ou rockets que possam atingir alvos críticos.

O Gospel, é igualmente um outro exemplo de uma plataforma israelita de identificação de alvos que tem o objetivo de dar suporte militar ao melhorar recomendações e identificar alvos-chave. O Gospel, alegadamente, identifica estruturas e edifícios como alvos, sendo que as fontes de dados específicas alimentadas nele permanecem não reveladas. Contudo, especialistas sugerem que sistemas de segmentação orientados por IA analisam conjuntos de dados diversos, incluindo imagens de drones, comunicações intercetadas, dados de vigilância e padrões comportamentais de indivíduos e grupos.

O desenvolvimento de armas autónomas e de identificação de alvos, que podem tomar decisões letais de forma independente, é uma área de intenso debate ético e estratégico. Embora ofereçam vantagens táticas, levantam questões relacionadas com o controlo e responsabilidade em cenários de combate, em particular, na tomada de decisões de vida ou morte delegadas a sistemas sem o controlo humano, e assim, violando princípios éticos e legais internacionais.

A crescente corrida pela vanguarda em Inteligência Artificial não pode anular as questões éticas e regulamentares que serão fundamentais no acompanhamento da inovação – facto que os Estados parecem muitas vezes ignorar no seu objetivo primordial de reforço do seu statu quo.