Como um humano e uma IA se sairiam em um cenário da teoria dos jogos? Pesquisadores da Universidade de Washington, localizada na cidade americana de St. Louis, testaram essa interação e o resultado foi este: os humanos passam a rejeitar as ofertas da IA após descobrirem que elas são as parceiras de jogo. Para os pesquisadores, isso mostra um problema no treinamento de IAs.
A teoria dos jogos é um modelo matemático usado em diferentes áreas de sociais aplicadas. Ela visa compreender como duas pessoas se saem em situações que exigem cooperação, como dividir uma quantia de dinheiro. Nesses casos, os envolvidos podem ter uma interação na qual um lado ganha e outro perde, ganha-ganha ou perde-perde.
Humanos não querem cooperar com IAs?
O jogo aplicado no teste é um dos clássicos da teoria dos jogos. Na pesquisa, um lado tem US$ 10 (R$ 55) para dividir e precisa oferecer uma parte ao outro. Se a oferta for negada, todos perdem e ficam sem nenhum dinheiro. Geralmente, nessa situação, as pessoas tendem a aceitar as ofertas divididas igualmente (50%-50%) ou que estão próximas disso.
No teste, o comportamento dos humanos mudou após o jogo ser realizado com uma inteligência artificial e eles serem informados disso — uma parte seguiu sem saber quem estava do outro lado. Os pesquisadores ainda explicaram que a interação serviria para treinar a IA. Ao invés de aceitar as ofertas de divisão igual, as pessoas jogando com inteligências artificias passaram a rejeitá-las.
Para os pesquisadores, isso mostra que os seres humanos podem agir de modo enviesado quando está treinando uma IA. Nos testes, a rejeição da oferta influenciaria a inteligência artificial a entregar propostas mais vantajosas. Por exemplo, entender que precisa ofertar 60% ou mais do valor ao outro lado.
IAs mais generosas que americanos
Estudos da teoria dos jogos com americanos mostram que as eles tendem a rejeitar ofertas 70-30 (70% para o autor, 30% para o outro) e maiores. Assim, ao treinar a IA para fazer ofertas piores para ela, os participantes a deixariam mais “generosa”, mesmo que não se beneficiassem desse comportamento no futuro.
O jogo de negociação foi refeito informando aos usuários que eles não treinariam mais a IA. Porém, os participantes seguiram rejeitando ofertas consideradas boas (50-50, 60-40). Para os pesquisadores, isso mostra que a criação de um hábito pode prejudicar o treinamento correto das IAs.
Para as inteligências artificiais feitas com LLM, o impacto pode ser menor. Contudo, em casos que humanos são necessários para aprimorar o treinamento, há o risco de IAs enviesadas. O Gemini, quando ainda era Bard, precisou de um “intensivão” de vários assuntos com funcionários do Google.
Com informações: Ars Technica
Experimento mostra que pessoas manipulam IA em benefício próprio
You must be logged in to post a comment.