[weglot_switcher]

A IA boa e a IA má. Os conselhos de Musk a Trump e o partido comunista chinês

Max Tegmark, professor no MIT, e defensor do uso positivo da tecnologia, acredita que Elon Musk vai ser uma influência positiva junto do novo presidente dos EUA em relação à regulação da IA má. Acredita que EUA e China poderão ser faróis no mundo para a aplicação do bom uso da IA.
13 Novembro 2024, 14h13

Elon Musk no Governo norte-americano pode ser uma boa notícia em termos de criação de regulação para controlar a inteligência artificial ‘má’, se for usada sem controlo: a artificial general intelligence (AGI). 

A opinião é de Max Tegmark, professor de IA e de física no Massachussetts Institute of Technology (MIT) e fundador do Future of Life Institute, que promove o uso positivo da tecnologia.

A AGI surge em contraponto à tool AI, a inteligência artificial que é usada para resolver um problema, considerada a IA ‘boa’.

“Elon Musk adora tecnologia. E tem, consistentemente ao longo de uma década, defendido o controlo do AGI. Houve uma grande luta política na Califórnia pela sua regulação e o Elon Musk defendeu a regulação”, disse hoje o investigador na Web Summit.

Questionado se Elon Musk pode ter mudado de opinião, respondeu: “Não sou Sigmund Freud, mas não há nenhuma indicação”, acrescentando que o fundador da Tesla/Starlink/Space X tem-se focado no tool AI para “aterrar os seus foguetões” ou “para a condução dos seus automóveis”. “Agora, usar IA para criar uma nova espécie? Musk é muito contra isso”.

E partilhou uma história com o milionário norte-americano. “Elon Musk disse-me, em 2023, que tinha sido contactado por responsáveis do Partido Comunista chinês sobre a IA. Eu disse-lhe que existia o risco de a China vir a ser liderada por super inteligência e não pelo Partido Comunista”. Mais tarde, a “China aprovou nova regulação de IA. Isto é a mesma lógica que nos EUA: o Governo dos EUA não quer perder o seu poder para o CEO de uma tecnológica ou para máquinas”.

Na sua perspetiva, EUA e China vão continuar a concorrer na IA, inclusive para uso militar, mas irão usar a sua “influência política” para impor regras em todo o mundo sobre o uso da AGI.

“É preciso haver standards de segurança”, como em todas as indústrias, defendeu. “Certificarmo-nos de que os sistemas não ensinam a um terrorista como fazer um atentado. Se não houver intervenção governamental, estamos completamente tramados”, defendeu, pedindo regulação no AGI que ainda não viu a luz do dia, faltando algum tempo, ou talvez não, segundo Sam Altman da Open AI, que aponta 2025 como o ano em que a AGI vai avançar.

Sobre a ideia de querer acelerar na AGI para ganhar terreno à China, disse: “esse é o enquadramento errado”, apontando que o maior risco em termos de segurança é a nível nacional, e não internacional, pois o AGI pode “causar a extinção humana. Isto é claramente um assunto de segurança nacional”.

“O ChatGPT usa 10 mil vezes mais energia do que o nosso cérebro de 12 watts. É preciso muito mais hardware”, apontou, destacando as necessidades de energia para alimentar os centros de dados.

Copyright © Jornal Económico. Todos os direitos reservados.