Grandes nomes no setor de inteligência artificial assinaram uma declaração sobre o “risco de extinção” que a tecnologia cria para o mundo. O alerta foi dado por Sam Altman, CEO da OpenAI; Demis Hassabis, chefe do Google DeepMind; Geoffrey Hinton e Yoshua Bengio, pesquisadores considerados os padrinhos da IA moderna; e mais especialistas.

DeepMind cria Inteligência artificial que resolve problemas de programação (imagem: reprodução/DeepMind)
DeepMind cria Inteligência artificial que resolve problemas de programação (imagem: reprodução/DeepMind)

“Mitigar o risco de extinção da IA deve ser uma prioridade global”, afirma a declaração, “junto a outros riscos em escala social, como pandemias e guerra nuclear”.

O comunicado foi publicado pelo Center for AI Safety, organização sem fins lucrativos com a missão de “reduzir os riscos em escala social da inteligência artificial”. O diretor-executivo da entidade, Dan Hendrycks, afirma ao New York Times que a declaração é curta – só 22 palavras em inglês – para evitar discordâncias entre as pessoas que assinaram.

Sem soluções para riscos da IA (por enquanto)

OK, mas e o que fazer a respeito? A declaração não diz, porque o objetivo é abrir a discussão em público para mais especialistas. “Há um equívoco muito comum, mesmo na comunidade de IA, de que há poucos pessimistas”, diz Hendrycks ao NYT. “Mas, na verdade, muitas pessoas expressam suas preocupações de forma privada sobre este assunto.”

O comunicado vem acompanhado por uma explicação: ele quer “criar conhecimento comum do crescente número de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA avançada”.

Existem três visões principais sobre os riscos da IA:

  • alguns imaginam cenários hipotéticos mais apocalípticos, em que a IA se torna independente e impossível de controlar;
  • outros são mais céticos, apontando que a IA mal consegue realizar tarefas como dirigir um carro, apesar de investimentos bilionários no setor;
  • e temos quem lembra dos riscos mais imediatos da IA, e que futuristas podem acabar minimizando, como seu uso indevido para deepfakes, fake news automatizada, e perda de empregos.

Apesar do avanço rápido dos LLMs (grandes modelos de linguagem), que levou o ChatGPT à fama, o debate sobre IAs ainda está amadurecendo. A OpenAI, a Microsoft e a DeepMind vêm pedindo regulamentação para inteligências artificiais.

“Especialistas em IA, jornalistas, formuladores de políticas públicas e o público em geral estão discutindo cada vez mais um amplo espectro de riscos importantes e urgentes da IA”, afirma o Center for AI Safety no comunicado. “Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA avançada.”

Para o presidente dos EUA, Joe Biden, “a IA pode ajudar a lidar com alguns desafios muito difíceis, como doenças e mudança climática, mas também devemos abordar os riscos potenciais para nossa sociedade, nossa economia e nossa segurança nacional”.

Com informações: The Verge e Engadget.

IA gera “risco de extinção”, alertam CEOs da OpenAI e Google DeepMind