O Bing Chat chegou prometendo ajudar usuários a encontrar informações e criar textos. Em alguns casos, porém, a inteligência artificial passou a ter um comportamento esquisito e dar respostas mal-educadas. Para ajustar isso, a Microsoft vai dar opções de personalidade para o robô: amplificada, criativa e equilibrada.

Novo Microsoft Bing tem caixa de texto maior para escrever perguntas
Novo Microsoft Bing tem caixa de texto maior para escrever perguntas (Imagem: Divulgação/Microsoft)

O modo amplificado é chamado de preciso em inglês, o que seria uma tradução melhor, na minha humilde opinião. Nele, o Bing Chat vai tentar procurar informações relevantes e factuais. As respostas também serão mais curtas.

Já no modo criativo, elas serão mais originais e imaginativas. A Microsoft promete surpresas e entretenimento nesse.

O modo equilibrado, como você pode imaginar, pega um pouco de cada. Ele vem ativado por padrão.

Bing agora tem três modos
Bing agora tem três modos (Imagem: Reprodução/Tecnoblog)

Restrições deixaram Bing Chat “tímido”

A Microsoft colocou restrições no Bing Chat depois de a inteligência artificial ser rude e até mesmo manipuladora com alguns usuários.

O problema é que, depois disso, o robô passou a se recusar a atender pedidos simples. Ele parecia pouco confiante.

Muitas dessas restrições foram abrandadas nas últimas semanas, para deixar o chatbot mais livre para voltar a responder perguntas.

A nova seleção de modo deve ajudar nisso: se o usuário se sentir desconfortável, ele pode mudar para o modo preciso e ter à disposição um robô menos tagarela. Se ele precisar de ideias, é só ir para o modo criativo.

IA vai alucinar menos, promete Microsoft

Além disso, a nova atualização do Bing Chat deve ter reduzir o número de casos de alucinação nas respostas, de acordo com Mikhail Parakhin, chefe de serviços web da Microsoft.

Alucinação é o jargão técnico para quando o modelo de linguagem produz respostas com dados pouco precisos ou totalmente inventados.

Em um desses casos, o Bing simplesmente confundiu o ano em que estamos e se recusou a corrigir após entrar em contradição. A inteligência artificial insistiu que era o usuário quem estava errado.

Será que ela estava sendo criativa? Sabemos que precisa não era.

Com informações: The Verge.

Microsoft dá “liberdade” para personalidade do Bing Chat ser mais criativa