“That’s a wrap, folks”, diriam os realizadores de cinema. O mesmo se pode aplicar aos cinco dias de Re:Invent da Amazon Web Services (AWS), que decorreram no centro de conferências do Venetian, em Las Vegas.
Foram 120 horas de expo para várias empresas, mas também sessões especializadas sobre diversos temas abrangidos pela tecnologia mas também sessões especiais com grandes keynotes da AWS. Peter DeSantis, vice-presidente de computação utilitária da AWS, foi o nome escolhido para o primeiro dia, e escolheu fazer um resumo do processo da empresa desde 2006, ao mesmo tempo que apresentou algumas novidades.
O principal anúncio de DeSantis concentrou-se à volta da Amazon Aurora Limitless Database, um database do Aurora que pode ser dimensionado além dos limites originais, tornando mais fácil para as empresas escalarem os seus negócios.
Ainda durante a sua apresentação, o também diretor do EC2 da Amazon apresentou o novo quantum chip que prevê a redução de erros. “É um chip personalizado, totalmente fabricado pela nossa equipa quântica da AWS”, sustentou DeSantis na apresentação.
“Conseguimos eliminar erros em 100 vezes ao utilizar uma abordagem passiva de correção dos mesmos”, disse. Na opinião de DeSantis, este chip de última geração é um marco importante na procura por computadores quânticos com correção de erros.
Todos os presentes da conferência esperaram pela palestra de Adam Selipsky, CEO da Amazon Web Services, anteriormente liderada por Andy Jassy, atual CEO da Amazon.
A plateia cheia irrompeu em aplausos aquando da apresentação de Q, o chatbot que utiliza Inteligência Artificial Generativa (GenIA) e que prevê ser um dos maiores concorrentes do ChatGPT.
Para Selipsky e AWS, o Q “visa capacitar os funcionárias das empresas e obter respostas a negócios, resolver problemas, gerar conteúdo e programar ações utilizando dados e a experiência dentro da empresa”.
“Este é apenas o começo de como vamos ajudar a reinventar o futuro do trabalho. Continuamos a inovar em todas as camadas, para trazer o que os clientes precisam para aproveitar o poder da GenIA para o desempenho e infraestrutura económica da sua organização”, apontou Selipsky no segundo dia.
O chatbot visa fornecer informações e aconselhar os funcionários das empresas a agilizar as suas tarefas, bem como acelerar a tomada de decisões e resolução de problemas. Outro ponto essencial do Q é “ajudar a despertar a criatividade e inovação no trabalho”. E como é que a AWS torna isso possível? É que o Amazon Q foi desenhado para responder a rigorosos requisitos, sendo que pode “personalizar as interações para cada utilizador, tendo como base identidades, funções e permissões dentro da organização”.
Swami Sivasubramanian, vice-presidente de data e Inteligência Artificial da AWS, lembrou, no mesmo palco mas no dia seguinte, que a GenIA “tem o potencial de estimular uma mudança tecnológica que remodelará as ações das pessoas, desde a procura por informação à exploração de novas ideias, seja na escrita ou construção de aplicações”.
“A AWS está a ajudar os clientes a aproveitar a GenIA com soluções em todas as camadas, incluindo infraestruturas, ferramentas e aplicativos desenvolvidos especificamente. O Amazon Q baseia-se no histórico da AWS em usar tecnologias complexas e caras e torná-las acessíveis a clientes de todos os tamanhos e habilidades técnicas, com uma abordagem que dá prioridade aos dados, segurança e privacidade das empresas”.
O vice-presidente da IA lembrou que os tradicionais chatbots não conhecem as empresas e a forma como estão organizadas. “Essas soluções não foram, inicialmente, desenvolvidas com recursos de segurança e privacidade que as organizações precisam”.
Por isso mesmo, o Q “oferece uma mudança na forma como os programadores e profissionais de IT criam, implementam e operam aplicações e carga de trabalho na AWS”.
“Amazon Q baseia-se no histórico da AWS em usar tecnologias complexas e caras e torná-las acessíveis a clientes de todos os tamanhos e habilidades técnicas, com uma abordagem que dá prioridade aos dados, segurança e privacidade das empresas”.
Atualmente, o Amazon Q apenas está disponível para parceiros, estimando-se a sua chegada geral ao mercado durante o próximo ano. O chatbot da Amazon tem mais de 40 ligações integradas para fonte de dados, nas quais se incluem o Amazon S3, Dropbox, Google Drive, Microsoft 365 e Salesforce.
Para rematar, Selipsky disse que o Q é “apenas o início de como vamos ajudar a reinventar o futuro do trabalho”. “Vamos continuar a inovar em todas as camadas para fazer chegar o que os clientes precisam para aproveitar o poder da GenIA para o seu desempenho”.
Se os participantes da conferência já estavam cansados de aplaudir a apresentação do CEO, o homem mais esperado do evento, a multidão virou o jogo quando Jensen Huang, CEO da Nvidia se juntou a Selipsky no palco central.
Se a plateia estava à espera de novidades no segmento dos chips, a presenta do CEO da Nvidia não o era.
No palco, Selipsky e Huang anunciaram a expansão da sua colaboração estratégica, com o intuito de oferecer a infraestrutura, software e serviços atualizados para potenciar a GenIA para os clientes.
De facto, a AWS está o primeiro fornecedor de cloud com os chips Nvidia GH200 Grace Hopper com a nova tecnologia NVLink. Além disso, a AWS vai hospedar o Nvidia DGX Cloud, plataforma de treino da IA como um serviço da Nvidia. Será a primeira cloud a fornecer mais memória partilhada. O objetivo é que o GDX Cloud acelere o treino da GenIA e grandes modelos de linguagem que possam atingir mais de um bilião de parâmetros.
Além disso, as duas empresas focadas em tecnologia vão fazer parceria no projeto Ceiba, com o objetivo de criar um supercomputador de IA alimentado pelo GPU mais rápido do mundo. Segundo informação dada pelos dois responsáveis, o supercomputador será pioneiro e estará equipado com 16.384 superchips da Nvidia, sendo capaz de processa 65 exaflops de IA.
Este computador será utilizado pela empresa de Huang, com uma empresa especializada, para impulsionar a próxima vaga de GenIA.
“Continuamos a inovar com a Nvidia para tornar a AWS no melhor lugar para executar GPU, combinando superchips de último recurso com a rede EFA da AWS”, apontou Selipsky.
“Impulsionadas por uma missão comum de fornecer IA generativa de última geração e econômica para todos os clientes, a Nvidia e a AWS estão a colaborar em toda a computação, abrangendo infraestrutura de IA, bibliotecas de aceleração, modelos básicos e até serviços de GenIA”, sustentou Jensen Huang.
Tagus Park – Edifício Tecnologia 4.1
Avenida Professor Doutor Cavaco Silva, nº 71 a 74
2740-122 – Porto Salvo, Portugal
online@medianove.com