O conhecido ciclo de hype da consultora Gartner descreve regularmente e com representação gráfica o percurso de uma nova tecnologia. Começa com a introdução de uma inovação prometedora, suscitando a esperança de crescimento até ao pico de expectativas inflacionadas, momento em que se pensa que o seu potencial é praticamente ilimitado.
O problema é que se segue um “vale da desilusão”, altura em que se percebe que o retorno não corresponde ao que se imaginava. Só posteriormente, e apenas em alguns casos, começa uma “rampa de consolidação”, bem mais lenta, até se atingir um “planalto de produtividade”, normalmente bem mais modesto do que se chegou a prever.
Regressemos a 2022. O hype dominante era evidentemente o Metaverso. No final do ano anterior, a empresa anteriormente designada por Facebook mudou o nome para Meta, prevendo que os mundos virtuais seriam a “próxima evolução na tecnologia social”. Todavia, o Metaverso caiu com estrondo em 2023, vítima do simples facto de que ninguém realmente dele necessitava.
Um pouco antes, em 30 de novembro de 2022, a OpenAI abria ao público o ChatGPT, face visível da revolução da IA generativa que se anunciava. O que veio a seguir é história: adoção viral deste chatbot e corrida ao desenvolvimento de outros modelos pela Google (Gemini), Anthropic (Claude), Meta (Llama) e até pela francesa Mistral.
A corrida à apresentação de modelos cada vez mais potentes e capazes, com novas versões, iterações e aplicações, parecia imparável, tal como a promessa de aproximação a uma inteligência artificial geral, capaz de superar em todos os campos a inteligência humana. Algumas vozes (Hinton ou Harari, por exemplo) temem uma IA a escapar ao controlo humano e capaz de provocar riscos existenciais para a humanidade.
Perante isto, a União Europeia aprovou este verão o incontornável Regulamento IA (AI Act), com o objetivo de submeter as aplicações de IA ao filtro da tutela dos direitos fundamentais e da proteção da segurança e saúde dos cidadãos, apesar de a complexidade deste texto e da sua aplicação pelas empresas ser muitas vezes criticada, por constituir um entrave à inovação na Europa o que é discutido.
Hoje, a IA generativa parece começar a descer do seu pedestal, o que justifica que a Gartner a tenha colocado numa fase descendente do seu gráfico. Porquê?
Antes de mais, está em crise a crença de que modelos cada vez mais potentes, correndo em computadores cada vez mais poderosos, e treinados em bases de dados ainda mais extensas, produzem resultados proporcionais ao investimento. Tudo indica que os problemas próprios destes modelos (alucinações, limitações várias, falta de fiabilidade) podem ser minimizados através de técnicas várias, mas não propriamente eliminados com mais dados e capacidade computacional.
As bases de dados disponíveis na internet não são ilimitadas, e parte dos dados existentes é já gerada por IA. Há, pois, quem defenda que os modelos podem ter atingido um teto que não se derruba quantitativamente. Mais relevantemente, os estudos até agora publicados não têm revelado um grau de adoção e um incremento substancial de produtividade proporcionais ao enorme investimento dirigido à IA generativa.
Daí que seja necessário lembrar, em primeiro lugar, que a IA é uma família de tecnologias, e a GenAI é apenas um ramo, que não serve para tudo nem substitui outras correntes.
Em segundo lugar, em vez de procurar introduzir IA generativa em todas as organizações, estas devem preocupar-se em transformar processos e envolver pessoas, de modo a conseguirem atingir melhor o respetivo propósito. Tal pode ou não envolver GenAI.
Em terceiro lugar, as empresas e entidades públicas devem procurar perceber quais os casos de uso de IA que já incorporaram e aqueles que devem implementar para o futuro, e organizar a sua governance de harmonia com o novo Regulamento e restante Direito Digital.
A possível queda da IA generativa vai certamente levá-la, dentro de algum tempo, a um “planalto de produtividade”, desde que articulada com outras tecnologias e bem orientada em função de resultados. Não sabemos é quando.