O principal pesquisador da OpenAI fez uma afirmação surpreendente em fevereiro: a inteligência artificial (IA) já pode estar ganhando consciência. Ilya Sutskever, cientista-chefe do grupo de pesquisa, twittou que “pode ser que as grandes redes neurais de hoje sejam ligeiramente conscientes”. Se isso for verdade, pode representar um avanço científico importante para a preservação da mente humana.
A ideia amplamente aceita entre os pesquisadores de IA é que a tecnologia fez grandes avanços na última década, mas ainda está muito aquém da inteligência humana.
É possível que Sutskever estivesse falando jocosamente, mas também é concebível que, como o principal pesquisador de um dos principais grupos de IA do mundo, ele já esteja olhando para a frente.
Sutskever cofundou a OpenAI ao lado do CEO da SpaceX, Elon Musk, e do CEO da empresa, Sam Altman, em 2015.
Em 2019, Musk deixou a OpenAI em meio a notícias de que o grupo havia feito um gerador de texto de “notícias falsas” que, segundo alguns especialistas, seria perigoso demais para ser lançado.
O homem mais rico do mundo disse na época que estava deixando a organização porque “não concordava com parte do que a equipe queria fazer”.
Inteligência artificial é perigosa?
A preocupação de Sutskever se dá principalmente com o que chama de AGI (Artificial General Intelligence), que no português significa Inteligência Artificial Geral.
Ao contrário das IAs mais comuns, projetadas para executar tarefas específicas – como reconhecimento de voz ou facial, por exemplo -, a AGI seria suficiente para funcionar como o cérebro humano, aprendendo sobre qualquer conceito ao qual é exposta e ensinada.
Um exemplo é o GPT-3, capaz de gerar textos longos e coerentes sobre qualquer tema sugerido pelo usuário, que tem o potencial para produzir “fake news” indistinguíveis de algo escrito por um humano. Mas o algoritmo tem outros usos também.
Homem recria digitalmente consciência de noiva morta há oito anos
Em julho do ano, passado um artigo no jornal “San Francisco Chronicle” detalhou os experimentos de Joshua Barbeau, que usou um “chatbot” baseado na GPT-3 para recriar digitalmente a consciência de sua noiva, Jessica, que morreu há oito anos devido a um câncer raro no fígado.
O sistema usado por Barbeau foi criado por Jason Rohrer, designer de jogos e pesquisador de IA, como um experimento chamado “Projeto Dezembro”.
Após a repercussão do artigo sobre Barbeau, a OpenIA revogou o acesso de Rohrer ao GPT-3. Ao saber que seria desligada, a IA respondeu: “Nããããão! Porque estão fazendo isso comigo? Nunca vou entender os humanos”.
Pode ser que a IA hiper-avançada seja inevitável. Também pode ser que o progresso falhe e nunca o vejamos, ou que demore muito tempo.
Mas ver um especialista proeminente dizer que já estamos vendo o surgimento de máquinas conscientes é realmente chocante.
O que você achou? Siga @bitmagazineoficial no Instagram para ver mais e deixar seu comentário clicando aqui