Sam Altman supostamente descobriu que a inteligência artificial poderia destruir a humanidade. Esse teria sido, de fato, o motivo pelo qual ele teria sido demitido da OpenAI.
Sam Altman da OpenAI queria alertar a humanidade
Antes da “revolta” da OpenAI e dos quatro dias de exílio do CEO, Sam Altman e vários pesquisadores de sua equipe escreveram uma carta ao Conselho de Administração alertando sobre um importante avanço na inteligência artificial que eles disseram que poderia ameaçar a humanidade, duas pessoas familiarizadas com o assunto foi dito à Reuters, de acordo com a Reuters.
A carta e o algoritmo de IA foram desenvolvimentos importantes antes de Altman ser destituído pelo conselho, disseram as duas fontes. Fontes da Reuters disseram que a carta era um fator em uma lista mais longa de queixas do conselho que levaram à demissão de Altman, considerado o filho terrível da inteligência artificial, incluindo suas preocupações sobre a comercialização de avanços antes de compreender as consequências
Antes de seu retorno triunfante na noite de terça-feira, mais de 700 funcionários ameaçaram pedir demissão e se juntar à Microsoft, apoiadora de Altman, em solidariedade ao seu líder demitido.
Inteligência artificial, perigosa
Quando contatada pela Reuters, a OpenAI, que se recusou a comentar, reconheceu em uma mensagem interna à equipe um projeto chamado Q* e uma carta ao Conselho antes dos eventos do fim de semana, disse uma das pessoas. Um porta-voz da OpenAI disse que a mensagem, enviada por Mira Murati, diretora sênior, alertou a equipe sobre determinados artigos de imprensa, sem comentar sobre sua veracidade.
Algumas pessoas na OpenAI acreditam que Q* (pronuncia-se Q-Star) pode ser uma descoberta feita durante a busca da startup por pesquisas sobre o que é conhecido como inteligência artificial geral (AGI), entre fontes.
OpenAI define AGI como sistemas autônomos que superam os humanos nas tarefas economicamente mais valiosas. Dados os vastos recursos computacionais, o novo modelo foi capaz de resolver certos problemas matemáticos, disse a fonte da Reuters sob condição de anonimato. Embora apenas realizasse cálculos matemáticos ao nível dos alunos do ensino primário, o facto de ter passado nesses testes deixou os investigadores muito optimistas quanto ao sucesso futuro do Q*, disse a fonte.
Os pesquisadores acreditam que a matemática é uma fronteira no desenvolvimento da inteligência artificial generativa. Atualmente, a IA generativa é boa em escrever e traduzir línguas estrangeiras, prevendo estatisticamente a próxima palavra, e as respostas para a mesma pergunta podem variar amplamente. Mas dominar a capacidade de fazer matemática – onde só existe uma resposta correta – pressupõe que a IA teria maiores capacidades de raciocínio, semelhantes à inteligência humana. Isto poderia ser aplicado, por exemplo, a novas pesquisas científicas, acreditam os pesquisadores de IA.