A Microsoft anunciou uma prévia da ferramenta de correção para a plataforma de IA da Azure, voltada para desenvolvedores que criam aplicações com inteligência artificial generativa. O objetivo do novo recurso é corrigir alucinações (fenômeno em que a máquina inventa fatos ou dá um retorno impreciso) nas respostas do chatbot.

  • Clique e siga o no WhatsApp
  • CEO do Google destaca importância da IA na Assembleia Geral da ONU

O serviço da Azure já tinha uma função para identificar e bloquear respostas sem fundamento. Agora, o recurso de correção permite que os desenvolvedores alterem o texto da IA e coloquem uma resposta correta no lugar. 

“Empoderar consumidores para entenderem e tomarem ações sobre conteúdos infundados e alucinações é crucial, especialmente quando a demanda por confiabilidade e precisão em materiais gerados por IA continua a aumentar”, detalha a Gerente de Marketing de Produto de Segurança de Conteúdo do Azure AI, Katelyn Rothney, em nota. 


Entre no Canal do WhatsApp do e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Ferramenta identifica alucinações de modelos de IA e oferece uma correção (Imagem: Reprodução/Microsoft)

Como o recurso funciona

Primeiramente, o desenvolvedor precisa habilitar a opção na plataforma da Azure. Depois, o serviço de Segurança de Conteúdo do Azure AI identifica possíveis alucinações e destaca o texto para o usuário. 

Em seguida, é possível pedir para a ferramenta explicar por que aquele trecho apresenta informações incorretas ou imprecisas, além de permitir que o sistema reescreva o material e garanta que a resposta faz sentido com o que existe nas fontes de dados do modelo de IA. Dessa forma, o usuário final não vê a resposta com material incorreto e já acessa o conteúdo corrigido.

De acordo com a Microsoft, a novidade pode melhorar a experiência dos usuários, já que vão encontrar respostas mais confiáveis no lugar de apenas bloquear o resultado da IA. Além disso, a correção pode ajudar no desenvolvimento de mais ferramentas de IA generativa em segmentos de alto risco, como na área de medicina. 

As alucinações são uma das maiores preocupações com o uso dessa tecnologia, principalmente em chatbots mais criativos, como ChatGPT e Gemini. Apesar de ser muito difícil eliminar esse fenômeno, pesquisadores da Universidade de Oxford, na Inglaterra, criaram um modelo de probabilidade para combatê-las. 

LEIA TAMBÉM:

  • Ex-designer da Apple trabalha em novo produto de IA com a OpenAI
  • Lançamento da OpenAI é voltado a países que usam IA para resolver problemas
  • Microsoft quer reabrir usina nuclear “adormecida” — e a culpa é da IA

VÍDEO: Todo mundo ODEIA a Inteligência Artificial

 

Leia mais matérias no ItechNews .