Os criadores desta inteligência artificial são dois ex-engenheiros do Google: Noam Shazeer e Daniel de Freitas.
Como você pode adivinhar pelo nome, Freitas é brasileiro. Ele é formado em Engenharia da Computação pela Escola Politécnica da USP.
Freitas começou a se interessar por inteligências artificiais para conversas ainda na Microsoft, onde trabalhava como engenheiro de software nos motores de busca do Bing.
Depois, ele foi para o Google, trabalhar na área do YouTube. Com 20% do expediente disponibilizado pelo Google para em desenvolver projetos pessoais, ele criou um modelo de inteligência artificial para conversas chamado Meena.
O Meena serviu de base para o LaMDA, sigla que significa Modelo de Linguagem para Aplicações de Diálogo. O LaMDA ficou famoso quando um engenheiro disse que o modelo havia ganhado “vida própria” — o que, mais tarde, se mostrou um exagero.
Inteligência artificial boa de papo
Enquanto isso, Freitas e Shazeer fundaram sua própria empresa e continuaram trabalhando na tecnologia de modelos de conversa.
A criação da dupla é o Character.AI. Com ele, é possível simular muitas pessoas, principalmente famosos de várias áreas, reais ou ficcionais, mortos ou vivos.
A lista é praticamente infinita. Você pode conversar com Tim Cook, Sócrates, Albert Einstein, Tony Stark, personagens de anime, famosos do TikTok e muito mais.
Também dá para usar o modelo para aprender idiomas ou falar de assuntos específicos, como videogames ou História, ou usar o assistente Character, um robozinho que responde perguntas e realiza tarefas.
A inteligência artificial aprende como cada um dessas personalidades fala e pensa a partir de textos extraídos da internet. Depois de ler muitas declarações de Tim Cook, por exemplo, ela tenta replicar nas conversas o que ele diria.
Falar é fácil, difícil é acertar
No entanto, a Character.AI repete um problema do ChatGPT e outros modelos similares: eles não têm precisão factual. As conversas imitam o estilo das personalidades, mas podem conter informações que não são verdadeiras.
Shazeer e Freitas sabem disso, e o site da ferramenta, ainda em fase beta, tem um aviso: “Tudo que os personagens dizem é inventado!”.
É um problema que o ChatGPT também tem — o que trouxe problemas para quem tentou dar usos práticos a ele, com o site de notícias de tecnologia Cnet.
Ao New York Times, Shazeer diz que os sistemas não foram projetados para falar a verdade. “Eles foram desenhados para ter conversas plausíveis”, comenta.
O próximo passo é treinar o modelo com mais quantidades enormes de dados extraídos da internet. Ao jornal novaiorquino, Shazeer declara que a tarefa está apenas no começo, já que a quantidade de conteúdo cresce em ritmo acelerado, dia após dia. Ele espera que os sistemas fiquem ainda mais inteligentes.
Com informações: The New York Times.
IA criada por brasileiro consegue imitar famosos em conversas por texto
You must be logged in to post a comment.