Elon Musk no Governo norte-americano pode ser uma boa notícia em termos de criação de regulação para controlar a inteligência artificial ‘má’, se for usada sem controlo: a artificial general intelligence (AGI).
A opinião é de Max Tegmark, professor de IA e de física no Massachussetts Institute of Technology (MIT) e fundador do Future of Life Institute, que promove o uso positivo da tecnologia.
A AGI surge em contraponto à tool AI, a inteligência artificial que é usada para resolver um problema, considerada a IA ‘boa’.
“Elon Musk adora tecnologia. E tem, consistentemente ao longo de uma década, defendido o controlo do AGI. Houve uma grande luta política na Califórnia pela sua regulação e o Elon Musk defendeu a regulação”, disse hoje o investigador na Web Summit.
Questionado se Elon Musk pode ter mudado de opinião, respondeu: “Não sou Sigmund Freud, mas não há nenhuma indicação”, acrescentando que o fundador da Tesla/Starlink/Space X tem-se focado no tool AI para “aterrar os seus foguetões” ou “para a condução dos seus automóveis”. “Agora, usar IA para criar uma nova espécie? Musk é muito contra isso”.
E partilhou uma história com o milionário norte-americano. “Elon Musk disse-me, em 2023, que tinha sido contactado por responsáveis do Partido Comunista chinês sobre a IA. Eu disse-lhe que existia o risco de a China vir a ser liderada por super inteligência e não pelo Partido Comunista”. Mais tarde, a “China aprovou nova regulação de IA. Isto é a mesma lógica que nos EUA: o Governo dos EUA não quer perder o seu poder para o CEO de uma tecnológica ou para máquinas”.
Na sua perspetiva, EUA e China vão continuar a concorrer na IA, inclusive para uso militar, mas irão usar a sua “influência política” para impor regras em todo o mundo sobre o uso da AGI.
“É preciso haver standards de segurança”, como em todas as indústrias, defendeu. “Certificarmo-nos de que os sistemas não ensinam a um terrorista como fazer um atentado. Se não houver intervenção governamental, estamos completamente tramados”, defendeu, pedindo regulação no AGI que ainda não viu a luz do dia, faltando algum tempo, ou talvez não, segundo Sam Altman da Open AI, que aponta 2025 como o ano em que a AGI vai avançar.
Sobre a ideia de querer acelerar na AGI para ganhar terreno à China, disse: “esse é o enquadramento errado”, apontando que o maior risco em termos de segurança é a nível nacional, e não internacional, pois o AGI pode “causar a extinção humana. Isto é claramente um assunto de segurança nacional”.
“O ChatGPT usa 10 mil vezes mais energia do que o nosso cérebro de 12 watts. É preciso muito mais hardware”, apontou, destacando as necessidades de energia para alimentar os centros de dados.
Taguspark
Ed. Tecnologia IV
Av. Prof. Dr. Cavaco Silva, 71
2740-257 Porto Salvo
online@medianove.com