[weglot_switcher]

Investigadores da OpenAI alertaram sobre perigos no avanço nessa área antes da demissão do CEO

De acordo com a ‘Reuters’, através de carta foram levantadas preocupações sobre um projeto chamado Q*, que pode representar um passo importante no desenvolvimento da IA geral. Depois do envio da carta o CEO foi demitido.
23 Novembro 2023, 17h51

Vários investigadores escreveram uma carta ao conselho de administração da OpenAI, antes da saída do CEO Sam Altman. Na carta os investigadores expressaram a sua preocupação com a direção sobre uma poderosa descoberta relacionada com a Inteligência Artificial (IA), que pode colocar em risco a humanidade, segundo avança a ‘Reuters’.

Segundo o que a ‘Reuters’ conseguiu apurar, a carta levantava preocupações sobre um projeto chamado Q*, que pode representar um passo importante no desenvolvimento da IA geral. Este é um conceito que a empresa define como sistemas autónomos que superam os seres humanos nas tarefas mais valiosas economicamente.

Com recurso a vastos recursos computacionais, o novo modelo foi capaz de resolver certos problemas matemáticos, segundo revelou uma fonte da ‘Reuters’, que sublinhou que apesar do modelo resolver apenas problemas matemáticos ao nível de secundário, a sua performance deixou os investigadores muito otimistas quando ao futuro sucesso do Q*.

Os signatários da carta consideram que a matemática é uma fronteira do desenvolvimento da IA generativa, que atualmente já adquiriu uma boa capacidade de escrita e de tradução. A conquista da matemática implica que a IA teria capacidades de raciocínio semelhantes ou superiores às dos humanos.

Depois do envio desta carta, o CEO saiu da empresa. Segundo a ‘Reuters’ esta carta deve ter despoletado na administração da OpenAI a vontade de demitir Sam Altman.

Copyright © Jornal Económico. Todos os direitos reservados.