[weglot_switcher]

Inteligência Artificial aliada à computação quântica vai ser “grande oportunidade” para o país, afirma CEO da IBM Portugal

Em entrevista ao Jornal Económico, o CEO da IBM Portugal, Ricardo Martinho, diz que as plataformas de inteligência artificial com dados fiáveis – aliadas à computação quântica – vão ser um “manancial de oportunidades incríveis”. Sobretudo para pequenos países como Portugal, nas mais variadas áreas, da saúde à indústria automóvel.
26 Outubro 2023, 07h30

Qual é o projecto mais interessante que a IBM tem em cima da mesa, aquele que o leva a pensar mais vezes ao longo do dia?
A inteligência artificial e esta questão do Watson X. Esta nova plataforma… Eu trabalho na IBM há 25 anos, já passei por várias transformações ao longo destes anos: éramos uma empresa de serviços, depois passamos a ser uma empresa de software, depois passamos a ser uma empresa de serviços de infraestrutura, agora separámo-nos da área de infraestrutura e voltámos outra vez a ser uma tecnológica focada em inteligência artificial e em cloud híbrida. Pela primeira vez nestes 25 anos, vejo, sinto, partilho e faço parte desta realidade em que os meus colegas sénior – vice-presidentes da área de research, todas as pessoas que estão envolvidas ao mais alto nível na criação de soluções – dizem: “nós somos dos poucos felizardos que conseguimos, durante a nossa vida, presenciar algo que realmente vai mudar as nossas vidas radicalmente. E isso é o aparecimento desta plataforma.

A Watson X…
Eu acredito – e conhecendo a plataforma e o potencial que esta plataforma vem trazer para aquilo que é o dia a dia empresarial e a utilização da inteligência artificial em prol do negócio, em prol das empresas – eu realmente acho que também sou um desses felizardos, que está a viver esse momento. É uma área super recente, nós anunciámos isto em Junho, portanto tem poucos meses. É, sem dúvida nenhuma, aquela área que eu penso mais. E além dessa área só, também penso no potencial que essa área poderá ter, da inteligência artificial, associada à nova capacidade do quantum computing.

Como é que decidiram apostar nesta área da inteligência artificial com dados certificados? Foi um caminho natural apontado pelos vossos clientes?
Nós ouvimos muito os nossos clientes. Temos uma organização dentro da IBM, que é o Institute for Business Value, em que periodicamente falamos com os nossos clientes nos mais variados níveis – com os CEO, os CIO, os CFO – para percebermos quais é que são as dificuldades que eles vêem dentro das suas empresas, quais são as áreas de melhoria que eles achavam que poderiam mudar a maneira deles trabalharem. E ouvindo-os tentamos trazer para a nossa área de research algumas destas matérias para podermos ser diferenciadores.
E a área da Inteligência Artificial é uma área que nós trabalhamos há 50 anos. Não existiam era estes Foundation Models. Como sabemos, foi criado por Stanford e, portanto, a utilização destes Foundation Models permitiu depois todos estes mecanismos de IA generativa. E este boom que se seguiu à volta disto.

Como foi esse momento?
Quando foi este boom, obviamente, todos nos interrogávamos: “Isto é a loucura. Que modelos são estes? Nós não precisamos de catalogar todos os dados infindáveis nos projetos infindáveis, super custosos em que estamos envolvidos? Então isto vai mudar as nossas vidas”. E depois percebemos que havia alguns problemas de segurança, partilha de dados, credibilidade dos próprios dados, de democratização dos dados. Todos estes problemas que não surgiram quando surgiu a tecnologia. Isto é, as grandes vantagens, mas, acima de tudo, as grandes desvantagens vêm com a utilização, no dia-a-dia, na aplicação das tecnologias. E nós chegámos a essa conclusão. Na altura, sentimo-nos um bocadinho ultrapassados, por pensávamos que tinha havido um momento ‘Ovo de Colombo’. Que, na realidade, foi, mas que não foi inventado pelas empresas que o trouxeram. Foi inventado por outros e estava a ser utilizado. E então realizámos que a tecnologia, sem dúvida, ia fazer aqui uma diferença. Esta nova metodologia, estas novas plataformas vinham mudar a maneira como nós olhamos para a inteligência artificial.

Mas…?
Mas havia uma necessidade tremenda de suprir estas lacunas todas que existiam. E foi isso que nós tentámos, ouvindo os nossos clientes, com o conhecimento que já vinha do passado, das preocupações que sempre tiveram com esta questão da utilização e também por uma questão muitíssimo importante, que é a génese da nossa empresa. Nós vivemos sempre virados para o cliente, para a parte enterprise e por isso é que muitas das vezes também somos menos publicitados, menos vistos, menos falados, porque não somos tão virados para o utilizador final, para o consumidor. Estamos mais virados para a empresa, certo? Ok. Somos os inventores do Personal Computer. É verdade. O PC ainda é uma trademark da IBM. Somos criadores do código de barras. Não há mais consumer oriented do que o código de barras. Mas a nossa génese não está aí. A nossa génese está nas empresas, a nossa génese está nos mainframes que existem e em que não há concorrência. E queremos criar alguma coisa que seja diferenciadora. E o Watson X foi isso.

Mas já vinha da vossa matriz a questão da segurança e da fiabilidade.
Está claro. É o único sistema no mundo que nunca foi violado, o mainframe. Eu tive a oportunidade de trabalhar nos laboratórios da IBM de Montpellier, em que a base era o mainframe. Eram aí que eram produzidos os mainframes. Não eram montados, eram depois desmontados, mas era lá que eram todos testados, todos verificados. Fazíamos alguns testes de stress com clientes e, tipicamente, os clientes até gostavam mais das máquinas que eram utilizadas nessas provas de conceito, porque já tinham sofrido algum stress levado ao extremo. E aquilo foi uma altura muito interessante. Um dos dos especialistas de segurança, uma das pessoas com maior referência na altura, era assíduo colaborador do Pentágono. E eu perguntei-lhe um dia: ‘Patrick, porque é que nós nunca fomos atacados nestas infraestruturas?’. E ele dizia, por todo o legacy de segurança que temos e, claro, também tivemos algum bocadinho de sorte. Porque não há sistemas invioláveis. Sempre que há uma transacção, há um potencial de de intrusão.

Se eu abro uma porta, abro margem para o risco.
Se abre uma porta pode entrar sempre alguma coisa. Nós tivemos foi uma vida, diria eu, de preocupação nesse sentido e, portanto, criámos e inventámos e disponibilizámos metodologias que, felizmente, nos permitem dizer que este nosso sistema nunca foi violado.

E as empresas portuguesas estão conscientes dessa necessidade?
Da questão da segurança?

Sim, da segurança. Fazem bem em dizer aos seus colaboradores ‘ganhem ideias através da Generative AI, brinquem com isso”? Não há aqui um risco, já que estão a fornecer material da empresa?
Uma óptima questão, porque há uma tendência – que eu não sei se é humana, não sou psicólogo – mas há sempre uma tendência para nós olharmos só para o resultado. Não olhar para como lá chegamos, mas apenas para o resultado. Eu não gosto muito de citar, mas os Chat GPT, os Dalis, e todas estas plataformas que são, sem dúvida nenhuma, muito impactantes e espetaculares em muitos dos casos, nós temos uma tendência muito grande em seguir aquilo que é o resultado final. E nós olhamos e ficamos todos muito contentes com o resultado final.

Ou céticos…
Isso, mas impressionados sempre. E então, muitas das vezes nós não entramos em detalhe para saber como é que tudo se passou por trás para se chegar àquele resultado? O que é que eu tive que dar? Que informação é que eu partilhei? O que é que deixou de ser só meu? O que é que agora se calhar é de uma comunidade? O que é que se calhar agora pode ser usado por outros? Bem ou mal, certo? E o que é que aquele resultado trouxe? De onde é que veio aquela informação? Quem é que a produziu? Quais são as fontes de dados? Nós não conseguimos muitas das vezes pensar nisso, mas pensamos ‘Ah! Fez-me um sumário de toda a minha reunião de uma forma espetacular. Fez-me uma análise óptima do mercado que eu tinha falado.

Custo futuro disto, não sei…
Pois, não sei como é que vou pagar isso amanhã. Eu acho que vivemos todos – uns mais do que outros, obviamente – mas todos vivemos um bocadinho nessa ilusão do resultado e do potencial que estas ferramentas nos dão, mas não sabemos bem o preço que estamos a pagar e, portanto, esse foi um dos grandes motores da criação desta plataforma Watson X. Acho que é algo coisa muitíssimo interessante ler o paper que Stanford criou na altura dos Foundation Models. Eles próprios levantavam todas estas questões da democratização da própria inteligência artificial. Se eu dou mais dados na língua inglesa, então o inglês tem mais acesso à Inteligência Artificial do que um português.

E aumentam ainda mais as assimetrias.
Como é que nós criamos um modelo que não seja assimétrico? Como é que nós criamos um modelo que possa traduzir tudo seja em que língua for? E que seja tudo, na realidade, mais homogéneo e não criar essas assimetrias. E depois a questão de toda a credibilidade dos dados. Isto são modelos massivos: quanto mais informação eu tiver, melhor estes modelos funcionam. Por isso é que os Foundation Models são uma grande transformação, porque nós deixámos de necessitar de catalogar todos os dados como fazíamos até hoje, que demorava infinidades. O que nós, na realidade, conseguimos – não a IBM, mas com estes novos modelos – foi criar algoritmos de machine learning que permitiam fazer essa catalogação por amostra. E, portanto, ganhámos muitíssimo tempo no conhecimento desses dados. E os dados podiam ser estruturados, não estruturados, etiquetados, que é outra das grandes diferenças e portanto, conseguimos utilizá-los de uma forma mais vasta e no melhor dos sentidos. O que é que acontece? As fontes de dados podem ser manipuladas, se realmente não houver um governance ou se nós não soubermos qual é que é a origem. E então – sendo o uma pessoa tendenciosa – poderia injetá-lo com mensagens de ódio, racistas, tendenciosas e, portanto, a resposta seria muito mais em linha com aquilo que eu obrigava a que o sistema pensasse. Porquê? Porque a informação já era tendenciosa em si.

Não tinha pensado nisto nesta forma, mas algum do trabalho do jornalimo é verificação e certificação de informação, que depois pode ou não ser noticia. A IBM está a fazer negócio a verificar e a certificar dados para a Inteligência Artificial.
Exatamente. E, acima de tudo, aquilo que nós disponibilizamos são as ferramentas. Nós disponíveis a tecnologia para que os dados que qualquer empresa queira usar para tirar o tal partido destes modelos generativos, destes modelos fundacionais, o consiga fazer de uma forma segura, de uma forma credível, que saiba as fontes de dados.

Mas essa restrição dos dados não limita o potencial todo do IA?
Limita o conhecimento, claro. O princípio é igual ao humano. É filtrado. Nós acreditamos que o a inteligência artificial tem que incluir uma quantidade de dados maciça. E que têm que ser dados de todo o tipo. Para quê? Para que consigamos ver a diferença. Porque senão nós não conseguimos ver a diferença, senão estamos nós a manipular também só para o lado bom. Mas também há o lado mau. Há sempre um lado bom e um lado mau das coisas. Agora, os modelos, tal como nós, têm que estar sujeitos a estas influências na sua globalidade. Aquilo que nós achamos é que têm que ser realmente credíveis, não manipuláveis, mas credíveis. E por isso é que nós fizemos uma parceria com uma entidade chamada Hugging Face, que é provavelmente uma das empresas de open source de modelos fundacionais mais extensa a nível mundial, que produz milhares de foundation models por mês. E temos essa parceria, que é uma open source community para englobarmos essa informação dentro das nossas ferramentas. Mas damos hipótese ao nosso cliente de juntar a sua informação a essa, num ambiente controlado. Ou seja, a sua informação não é perdida, nós é que a injetamos.

Estamos a caminhar para a IBM fazer o trademark do selo “Certificado pela IBM”?
Quando as coisas estiverem mais reguladas, eu acho que esse é outro processo que nós também temos que fazer. Não só a IBM, mas toda a comunidade. Temos de ter selos de qualidade, há selos de qualidade para tudo.

E em que entidade é que nós confiaríamos para atribuir isso?
Não sei. Eu acho que qualquer qualquer entidade que seja reconhecida globalmente, em termos de da sua idoneidade, da sua postura holística perante as situações, acho que qualquer uma dessas entidades, quer seja governamental ou não, acho que qualquer uma delas poderia entrar nesta certificação.

Mas isso é necessário, é ponto assente um regulador para a inteligência artificial à escala global?
Eu acho que é necessário nós termos uma regulação. Não sei se seria um regulador, mas uma regulação. E porquê? Porque há aqui um princípio: a IBM usa-o. Mas outros, se calhar, podem não usar, que é a questão da ética. E nós temos que ter uma obrigação para connosco próprios. Eu acho que isto é uma questão de princípio que nós queremos usar. E aquilo que nós achamos é que não vale tudo. Sempre achámos isso.

Concretamente, o que é que não vale, Ricardo?
Não vale manipular, não vale condicionar, não vale deturpar aquilo que é a realidade. Acho que isso não vale.

No contexto da inteligência artificial, como é que se deturpa? Injeta-se dados?
Dados falsos. Dados perturbados. Dados com a tendência que eu quiser. Há a questão do volume de dados que injeta (se é ou não suficiente para alterar os resultados) e depois há a questão da credibilidade dos próprios mecanismos. Há formas, e nós já vimos, de estes modelos serem controláveis com determinada qualidade de informação e determinadas perguntas. Há perguntas que baralham os sistemas.

Perguntas muito complexas?
Perguntas tendenciosas, que mudam o modelo para um lado. Isto são modelos que aprendem por si, não é? Portanto, nós conhecendo os modelos, também os podemos orientar para que pensem de uma determinada forma. Isto é, nós tentamos, dentro da inteligência artificial, mimetizar aquilo que é a mente humana. Ainda estamos longe disso. Portanto, nós temos uma questão, que é a consciência. Nós somos o único ser que tem noção de consciência. Nós sabemos que se der ali um salto, vai-me acontecer qualquer coisa. Posso morrer, partir as pernas, eu tenho consciência. Tenho consciência de que aquilo que tomar como decisão pode fazer mal a pessoas. Posso fazer bem. Estou sempre preocupado. E tenho outra questão que é a percepção da morte? Um animal tem perceção da morte por uma questão de sobrevivência, mas não pensa na morte. Nós pensamos. Nós, seres humanos, pensamos muito na morte.

Não pensa no tempo como uma coisa finita e muito menos com objectivos a cumprir em determinados momentos.
Claro. Estive noutro dia numa conferência sobre a inteligência artificial e uma das perguntas de um aluno – eram todos alunos da Faculdade de Medicina – era: ‘se eu desse à IA toda a informação que Newton teve aquando da criação de muitas das suas teorias, acham que algum modelo de inteligência artificial iria chegar exactamente à mesma conclusão?’ Eu achei uma pergunta muitíssimo interessante, porque na realidade nós ainda não estamos a a copiar a forma como exactamente os humanos pensam. Por isso é que muita gente diz que a inteligência artificial vem substituir-nos a todos. Não, não vem. Vem é ajudar-nos. Naquilo que os americanos chamam de augmented reality. Aquilo que nos vem ajudar é que nós olhemos para uma realidade de uma forma aumentada e, portanto, consigamos tomar decisões muito mais facilmente, com muito menos esforço de análise.

Mais informados e, se calhar, até com alguma previsibilidade acerca do resultado das nossas decisões.
Exatamente. Muito mais eficaz. E por isso é, sem dúvida nenhuma, uma ferramenta de ajuda à tomada de decisão e aquilo que é a forma de nós pensarmos. Portanto, isto para lhe dizer que todo o mal que nós conseguimos também criar a outros… Eu não deixo o meu filho sair com fulano A ou B porque é uma má influência. O que é que é isso de ser uma má influência? Ele vai injetar informação que nós se calhar não queremos que a nossa base de dados chamada filho tenha daquela forma. E que tome decisões que nós achamos possam ser erradas ou prejudiciais para ele próprio e para o outro, ou para a família, ou o que seja. E, portanto, nós não queremos que isso aconteça. Os modelos de inteligência artificial são a mesma coisa. Eu não quero que alguém vá falar com aquele modelo que é para não ficar contaminado.

E qualquer pessoa mal intencionada, com um bot a formular milhares de milhões de perguntas, pode fazê-lo?
Desde que tenha capacidade computacional.

Consegue inquinar o que quer que seja?
Se for tudo aberto, claro que sim.

A IBM está neste negócio há uma série de tempo, há 50 anos. Portanto, é como se fosse uma construtora de carros que há muito tempo fabrica carros. Lembra-se de olhar para o Chat GPT ou para qualquer um dos outros e dizer ‘Estes tipos estão a fazer carros há meia dúzia de anos e já meteram cá fora um Ferrari’?
Foi logo a primeira coisa que me surgiu à cabeça: exactamente, um Ferrari. Mas depois quando nós analisamos – e eu também não quero ser mau – mas faz-me lembrar uma vez uma conferência em que eu estive sobre a contrafação, que acaba com o exemplo de um Ferrari F40 igualzinho, mas que ao tirarem o chassis tinham o motor Renault. E não estou a dizer que seja o caso. Aquilo que eu estou a dizer é que na realidade é um Ferrari, mas é um Ferrari que nós não podemos levá-lo à velocidade máxima. Porquê? Porque lhe pode sair uma roda ou pode acontecer alguma coisa de perigoso. E porquê perigoso? Porque já vimos que há vários exemplos em que não é assertivo, não é real, é tendencioso, pode ter falhas, pode bloquear. Há uma série de questões. São as vantagens e as desvantagens.

Mas na utilização do dia-a-dia?
Agora na utilização do dia-a-dia do aluno que vai agarrar no Chat GPT para fazer uma redação que tem que entregar à professora? Sim, sem dúvida nenhuma, que provavelmente, até porque é LLM – que são os Large Language Models – funciona muito bem. Mas eu vou ficar por aqui? Vou ficar com o texto? É isto que a Inteligência Artificial me vai trazer? Não é muito mais interessante, se calhar, eu ter um gerador de código informático que me crie estes próprios modelos, em que nem sequer tenho de pensar nisso? Se calhar era.

É o tipo de pensamento elaborado de um CEO da IBM Portugal, Ricardo Martinho. Eu gostava de saber é o que a maioria das empresas pensa fazer com a Inteligência Artificial? Está à procura de coisas para fazer com a IA.
Acho é que houve um hype gigantesco e, portanto, toda a gente tinha que agarrar na questão da inteligência artificial. Havia alguns que já vinham a trabalhar com estas áreas e, portanto, agarraram nestes novos modelos e nesta nova geração de inteligência artificial de uma forma consciente, sabendo daquilo que poderiam ser as supervantagens que isto trazia. Mas com calma, ‘vamos ver e analisar como é que tiramos daqui o máximo proveito’. E houve outros que nunca tiveram aquele contacto, porque achavam que não era preciso, que era uma coisa de ficção científica. Mas agora que lhes chega ao seu telemóvel, acham que agora a inteligência artificial vai resolver tudo. Temos que ir já, temos que ir já, temos que estar nisto. Mas sem analisarem. Na realidade, eu acho que toda a gente tem que entrar na inteligência artificial. Não há dúvida nenhuma. Inteligência artificial é uma super vantagem, a vários níveis. Nós usamos a inteligência artificial há muitos anos, não é? Como eu dizia, o Watson foi o primeiro sistema cognitivo do mundo. Foi lançado pela IBM e nós usávamos para criar chatbots, para modernizar os call centers, automatizar processos. Coisas desse género. Tinham algumas lacunas.

Qual é que é a próxima grande novidade da IBM?
O Watson X aliado à computação quântica, que também já foi anunciado. Mas, sem dúvida nenhuma, esta é outra das áreas de grande aposta da IBM. Nós achamos que é outro momento de mudança. Não é como a Inteligência Artificial, que já está aqui ao alcance de todos, não é? É uma tecnologia que ainda está muito virada para a área de research em que se estão a fazer ‘user cases’ e estudos do potencial, mas realmente aquilo que vai acontecer é que esta vai ser uma forma de computação que nos vai ajudar a resolver problemas, que até hoje eram impossíveis de o fazer.

Trazendo o quê para cima da mesa?
Portanto, isto vai trazer uma abertura e um manancial de oportunidades incrível. E ainda mais interessante é que, provavelmente, vai ser esta a computação que vai resolver os problemas que nós ainda não sabemos. E isso é que ainda tem mais uma maior abertura. Se nós olharmos, por exemplo, a questão da simulação da natureza, nós sempre tentamos simular como é que vai acontecer aqui e ali, mas não temos capacidade. A manipulação molecular na parte dos medicamentos, por exemplo criar novas drogas. A criação de uma nova droga mainstream custa aproximadamente, em média, 1 bilião. É o custo. Cerca de 90% das vezes que essa droga sai, volta para ser manipulada outra vez, porque tem erros, contraindicações, isto e aquilo. Este bilião é porque isso demora muitíssimo tempo a trabalhar. Se eu tiver um sistema que me possa simular a natureza, que eu possa manipular moléculas, moléculas de alta complexidade.

Uma espécie de gémeo digital do ser humano?
Eu posso manipular para o simular. Vejo se as ligações são fortes ou não. Qual é a reação que tem com outras, etc. Saltam-se alguns testes e começa-se a produzir. Eu no outro dia estava a ver uma apresentação de uma ideia espetacular, mas era uma forma alternativa de ser menos intrusiva para o teste animal. Era uma startup que inventou e bem, um mecanismo que não é tão intrusivo, não tem impacto tão brutal para os animais. E que é espetacular porque é uma preocupação para com os outros seres vivos. Mas eu estava a olhar para aquilo e dizia: ‘isto é uma óptima ideia e vai ser óptima, até existir a computação quântica mainstream, porque com a computação quântica mainstream eu não preciso dos ratinhos. Eu faço esses testes, como dizia, eu faço os testes, vejo quais são as influências que aquilo que eu estou a fazer tem ou não tem. Estabilidade, está estável. Então agora já começo com o processo.

E com esse processo, até não se chega a um medicamento cobertor para toda a gente. Porque não uma droga calibrada para o Ricardo, para o Nuno ou para a Cristina?
Claro. Que é aquilo que todos ambicionamos desde sempre: uma perspetiva individual da questão. Aquele efeito secundário que só o Bernardo tem, deixa de existir. E portanto aí vai ser outra grande oportunidade para países pequenos como Portugal que consigam criar ‘use cases’ em que este tipo de computação possa ser usado. Isto não vai resolver os problemas todos do mundo, porque nem todos os modelos usam este tipo de computação. Agora, se nós conseguirmos descobrir estes ‘use cases’ para as baterias, por exemplo, dos carros elétricos. Nós estamos a fazer vários projetos com alguns dos nossos clientes nestas áreas: criação e manipulação de baterias e ninguém sabe muito bem o que se passa dentro duma bateria. Uma pilha é o caos, certo? Isto dito por professores doutores na área de Química e de Física.

Porquê?
Porque na realidade nós conhecemos o princípio de uma bateria, mas não sabemos exatamente como é que se comportam os átomos lá dentro. Aquilo é um caos. Então, como é que eu faço uma bateria que dura um ano? Posso construir uma do tamanho de um prédio. Está bem, mas isso não pode ser num carro, claro. Então, nós não conseguimos trabalhar bem isso enquanto não tivermos uma computação que nos permita analisar. Nós estamos a fazer testes com algumas das empresas da indústria automóvel para conseguirmos trabalhar, conhecer e depois, obviamente, manipular aquilo que acontece dentro numa bateria. E aí eu consigo provavelmente dar uma autonomia a um carro não de 500 ou 600 quilómetros, mas de um ano. E a partir daí, se calhar as coisas mudam.

Copyright © Jornal Económico. Todos os direitos reservados.