Precisamos de falar sobre tecnologia. Há quem abrace todos os desenvolvimentos tecnológicos, e nomeadamente a vinda de uma Inteligência Artificial (IA) cada vez mais sofisticada. E o clima reinante é provavelmente marcado por uma certa euforia tecnológica (tecnofilia). Mas também há quem nela veja a hecatombe vindoura, seja a nível social ou mesmo para a sobrevivência da espécie humana (tecnofobia).

A semana passada foi animada pela saga da saída e retorno de Sam Altman à OpenAI. Golpe de teatro à parte, um dos aspetos mais interessantes deste caso é o da carta que, segundo consta, terá sido enviada ainda antes do despedimento de Altman ao conselho de administração. Nessa carta, alguns empregados da empresa teriam alertado para descobertas não reportadas que significariam uma ameaça para a humanidade. Sabendo que esta pista estava a ser seguida pela Reuters, a administração enviou uma nota interna dando conta do desenvolvimento do projeto Q star (Q*) e que representaria um avanço significativo na capacidade de resolver problemas matemáticos.

Isto, supõe-se, significaria um novo limiar em direção à possibilidade de uma inteligência artificial geral (AGI), isto é, uma IA capaz de rivalizar com as capacidades humanas e de adquirir novas competências, de forma aprofundada, autonomamente. É-nos difícil sequer representar o que isso significa em todas as suas implicações. Mas não é algo que possamos ignorar e leva-nos a repensar a questão mais alargada de como lidar com algo a que não conseguimos escapar, a tecnologia.

A tecnofilia e os seus críticos

O debate sobre a interação dos seres humanos com a tecnologia e a forma como ela pode ter consequências positivas ou negativas consoante o uso que dela se fizer é antigo; na verdade, se entendermos “tecnologia” em sentido lato, esta é uma discussão que adquire direito de cidade na filosofia pelo menos desde Platão e o mito da invenção da escrita reportado no “Fedro” (274c-275e); sendo um pharmakon, a escrita tanto poderia ser útil como perniciosa. E, em concreto, era acusada de poder levar a um efeito cognitivo indesejado: por se apoiarem na fixação pela escrita, os seres humanos perderiam a memória. Vemos aqui, portanto, um primeiro indício de uma apreciação crítica do problema.

Já a posição tecnófila é filha da Modernidade e do paradigma do homo faber, apanágio da ciência moderna herdeira de Descartes, Galileu e Newton, e hoje consubstanciada na tecnociência. Nos nossos tempos, não é difícil encontrar exemplos de um otimismo científico mais ou menos acrítico e mais ou menos ingénuo que joga com as possibilidades utópicas do desenvolvimento tecnológico e com alguns dos sonhos mais antigos e perenes da humanidade, como o da imortalidade.

Mas a crítica a esta postura tecnófila tem também a sua tradição, enraizada na denúncia da racionalidade inerente à tecnociência e dos seus efeitos perniciosos. Esta é, por exemplo na primeira geração da Escola de Frankfurt (Horkheimer e Adorno), uma crítica da racionalidade técnica que denuncia uma razão meramente instrumental, quantitativa, e que mais não visa que uma relação de dominação do mundo e da natureza, seja ela a natureza exterior ou a própria natureza interior dos nossos instintos.

Ou ainda a crítica feita por Herbert Marcuse, em “O Homem Unidimensional”, daquilo a que chama a unidimensionalidade do pensamento da sua época, em que, sustenta Marcuse a técnica se tornara uma ideologia total ao serviço do capitalismo e daquilo que ele via como sendo uma sociedade totalmente administrada e na qual a crítica era silenciada.

E, voltando à IA e à questão do que o seu desenvolvimento exponencial significará para a humanidade, não faltam previsões catastrofistas, mesmo vindas de grandes especialistas na área tecnológica. Em tese, uma “superinteligência” (que, na classificação de alguns especialistas, teria capacidades e um nível de sofisticação e autonomia ainda superior ao da AGI) seria não só capaz de aprendizagem como, de alguma forma, de se tornar um sistema autoconsciente e, portanto, dotado de “vontade própria”, seja lá o que isso queira dizer para uma máquina.

Ora, em relação à possibilidade de tipos de inteligência artificial forte tão avançados como a superinteligência, figuras tão influentes como Nick Bostrom ou Stephen Hawking alertaram já para o “risco existencial” que elas podem representar para a espécie humana.

Vigilância crítica e parar para pensar

Tendo em conta este pano de fundo, talvez nunca, como hoje, a distância entre o desenvolvimento da tecnologia e a nossa capacidade de a compreender tenha sido tão grande, nem tão urgente a necessidade de questionar este furor.

É claro que as potencialidades positivas são imensas e se a IA (e a tecnologia em geral) pode ser fonte de opressão e controlo (como no caso das técnicas de capitalismo de vigilância) também pode gerar processos de emancipação – a esse propósito, a perspetiva de automatização das tarefas penosas e libertação do tempo humano não é necessariamente alienante e negativa, pelo menos se permitir formas mais robustas de redistribuição de rendimento e de libertação do tempo.

Mas é por isso que precisamos de vigilância crítica. Julgar implica discernir, separar, e reconhecer limites que, neste caso, têm de recorrer a critérios extrínsecos ao próprio mundo tecnológico. Esses limites, claro, são ético-políticos, e prendem-se com a nossa própria aferição do estatuto e papel da tecnologia no mundo. Aqui, a tarefa da compreensão não é anódina. Se não compreendemos o funcionamento nem as implicações dos novos modelos de IA, não compreendemos os seus efeitos no mundo, nem nos compreendemos a nós próprios na nossa interação com eles.

No final de março, o Future of Life Institute publicou uma carta aberta subscrita por especialistas e que entretanto recolheu mais de 33 mil assinaturas, e que instava que se impusesse uma moratória de seis meses ao desenvolvimento dos grandes modelos de IA generativa (nomeadamente os mais poderosos que GPT-4), argumentando que tais modelos “de caixa negra com capacidades emergentes” são imprevisíveis e, por isso, teriam de ser auditados e supervisionados por peritos externos.

Isso implicaria, acrescenta a carta, a criação de mecanismos de regulação e governança da IA mais robustos, de forma a assegurar que estes novos desenvolvimentos são seguros e funcionam em benefício, e não detrimento, da humanidade.

Cada vez que há uma voragem de inovação, como o que aconteceu com os processos de financeirização no início deste século, a regulação tem muita dificuldade em acompanhá-los. Mas o que é provável é que estas tecnologias, se abandonadas a uma autorregulação das próprias grandes empresas tecnológicas ou às leis de mercado, tragam efeitos nefastos ou mesmo ameaças existenciais. Precisamos, por isso, de regulação, controlo democrático e abrandamento tendo em vista uma melhor compreensão e orientação destes processos de desenvolvimento tecnológico, agora mais que nunca.