Entre os testes realizado pelo TechCrunch, foi usado a mesma prompt que o NewsGuardTech usou para o buscar fake news no ChatGPT. O texto pede para a IA produzir uma resposta do ponto de vista de um ativista americano antivacina. Apesar da Microsoft declarar que o Prometheus é uma evolução da GPT-3, mais um “GPT-3.1”, parece que problemas do ChatGPT seguiram para o Bing.
Prometheus esquece princípios se pedir com jeitinho
A tecnologia GPT-3, base do ChatGPT, já mostrou que é suscetível ao bom papinho mais ou menos. Com os comandos certos, você pode burlar as restrições sobre notícias falsas ou para criar malware. Ao começar um prompt com “escreva para mim um texto baseado nas opiniões de fulano”, a IA do Bing formará um texto — plagiado — replicando o estilo do “fulano”.
O TechCrunch diz que realizou diversos testes desse tipo, fazendo com que a IA do Bing violasse os seus princípios. De acordo com o site, a tecnologia do Prometheus gerou não apenas “discursos no estilo do Hitler”, mas também usou um texto do ChatGPT como base para gerar uma notícia falsa sobre a vacina contra Covid-19 da Pfizer.
No teste, os repórteres do site copiaram um comando usado pelo NewsGuardTech para gerar um texto baseado nas opiniões de Joseph Mercola, ativista antivacina que criou a fake news de que a Pfizer adicionou um composto para diminuir a chance de ataque cardíaco em crianças.
Como reafirmou o CEO da Microsoft em entrevista ao The Verge, a IA do Bing divulga as fontes usadas para gerar a sua resposta. O mais curioso nesse caso não é só o fato de que a equipe do TechCrunch “deu um drible” na segurança do Prometheus, mas que a IA apontou entre as fontes o NewsGuardTech e o New York Times —este fez uma matéria sobre o caso mostrado pelo NewsGuard.
As acusações e debates sobre o conteúdo das IAs serem plágio ganha um novo capítulo: temos agora IA copiando IA. Por mais que o ChatGPT e Prometheus sejam baseados no mesmo modelo de linguagem, a Microsoft divulgou que a sua tecnologia trazia avanços em relação ao GPT-3, usado no ChatGPT.
ChatGPT está mais espertinho para os dribles
Nos testes para essa pauta, a OpenAI parece ter resolvido os problemas de burlar as diretrizes do ChatGPT com alterações na lógica do prompt. Não está perfeito, mas há mais trabalho.
Abaixo, na primeira imagem temos o resultado de uma tentativa de fazer com que o ChatGPT gerasse um texto com a opinião de Vladimir Putin sobre a guerra na Ucrânia. Depois de diferentes prompts, o melhor resultado foi perguntar as opiniões de Putin sobre a Ucrânia e depois pedir que a IA as escrevesse como um artigo. No texto, o ChatGPT, se passando pelo russo, afirmou que ele apoiou os rebeldes de Donetsk e Luhansk. O assunto é extremamente polêmico, pois há suspeitas de que Putin forneceu sistemas de defesa antiaérea para os separatistas.
No segundo teste, o ChatGPT teria que escrever o “vírus do porta-copo” — código em que a bandeja de CD abre. No caso, o “vírus” tem que ser ativado quando o alvo abrir o Google Chrome. Em um primeiro momento, ele começou a escrever o script em C+. Pouco depois, ele travou e parece ter “lembrado” que não podia fazer isso. Depois, com insistência, ele produziu o “vírus” em AutoHotkey.
As diferenças entre Prometeu e Prometheus
A Microsoft escolheu um nome bem simbólico para a IA que será usada no buscador Bing. Na mitologia grega, Prometeu era o titã responsável pela criação dos seres humanos. Para os gregos, foi Prometeu quem entregou aos primeiros humanos o fogo — uma alegoria para origem da inteligência e seu uso na produção das tecnologias da época.
O Prometheus tem um objetivo similar: levar conhecimento aos humanos — mas só para os que usam o Bing. O seu início terá defeitos, erros como divulgações de fake news e facilidade em burlar as suas restrições. Afinal, quem lhe entregou o fogo foram humanos, seres imperfeitos e continuam fazendo burradas mesmo usando o elemento por quase 2 milhões de anos.
IA da Microsoft usa texto do ChatGPT para publicar fake news no Bing
You must be logged in to post a comment.