Em pleno século XXI, numa era em que a tecnologia digital se infiltra em todos os aspectos da nossa vida quotidiana, a Inteligência Artificial (IA) tem gerado fascinantes questões de estudo e reflexão, em especial nas áreas da ética e da segurança. Contudo, a emergência de armas autónomas neste diálogo introduz complexidades adicionais. Para ilustrar esta conjetura, gostava de recorrer ao filme de 1974, “Dark Star”, do realizador John Carpenter.

Neste filme, somos apresentados à Bomba Nº20, uma engenhosa arma autónoma pertencente à nave espacial ‘Dark Star’. Devido a uma avaria, a Bomba Nº20 inicia a sua contagem decrescente para a detonação ainda enquanto está acoplada à nave. A tripulação da nave tenta persuadir a bomba a desistir da detonação, utilizando a lógica e o argumento.

A Bomba Nº20, ao ponderar as suas ações, demonstra uma característica singular da IA: a capacidade de processar informações e tomar decisões com base em algoritmos complexos. No entanto, o explosivo está longe de ser uma IA perfeita. Ela é limitada pelo seu próprio algoritmo e programação, evidenciando uma das principais preocupações sobre armas autónomas: a incapacidade de compreender completamente o contexto e as implicações das suas ações.

Os sistemas de IA, ao contrário dos humanos, não possuem intuição ou consciência. Eles processam informações e produzem resultados com base nos dados disponíveis e na programação que lhes é fornecida. Mas o que acontece quando essa programação falha ou quando o sistema se depara com um cenário imprevisto?

As armas autónomas, poderão seguir a sua programação até ao fim, mesmo que isso resulte em consequências catastróficas se não existirem contrapontos (checks and balances). E, como o filme demonstrou, a lógica humana pode não ser suficiente para dissuadir um sistema de IA de seguir a sua programação. Isto sublinha a necessidade de construir fortes salvaguardas na programação de qualquer sistema de armas autónomas.

É inegável que a IA tem o potencial para beneficiar enormemente a humanidade. Ela pode aumentar a eficiência, reduzir erros humanos e realizar tarefas perigosas para humanos. O desafio reside em como colher esses benefícios minimizando os riscos e como usar a tecnologia de forma ética e responsável.

Devemos olhar para o exemplo da Bomba Nº20 como uma parábola, um aviso contra a adoção precipitada e sem medidas, contramedidas e sistemas de redundâncias controlados por seres humanos das armas autónomas. É necessária cautela e a participação dos vários atores da sociedade na abordagem deste tema, levando em consideração tanto o potencial benefício quanto os riscos iminentes.

Precisamos garantir que os sistemas de IA, especialmente aqueles usados em armas autónomas, sejam construídos com a capacidade de avaliar adequadamente as situações e, se possível, com a capacidade de se desativar ou solicitar orientação humana quando confrontados com cenários incertos.

Tal como a tripulação do ‘Dark Star’, estamos numa jornada de exploração. Mas, no nosso caso, o desconhecido não é o espaço, mas a amplitude e profundidade do mundo da IA. E, tal como eles, precisamos navegar neste percurso com cuidado e prudência, garantindo que as ferramentas que criamos para nos auxiliar nesta viagem não se tornem perigosas.

“Dark Star” e a Bomba Nº20 são fictícios, mas as questões que levantam são reais e dignas de consideração. As armas autónomas e a IA em geral prometem trazer mudanças revolucionárias, mas precisamos garantir que essas mudanças sejam seguras e benéficas para todos. Compreender as limitações da IA e trabalhar para mitigar os seus riscos será crucial para moldar o futuro de uma forma que beneficie a humanidade.

Por último, talvez o filme “Dark Star” deva servir não apenas como entretenimento, mas também como um convite à reflexão sobre a natureza da tecnologia que estamos a criar e o mundo que estamos a construir. E é nosso dever, como criadores e utilizadores desta tecnologia, garantir que ela seja usada de forma ética, responsável, segura e centrada nos valores humanistas.