Segundo o Washington Post, a senhora chamada Ruth Card se sentiu bastante assustada na situação. Ela e o marido, Greg Grace, 75, foram rapidamente ao banco sacar 3 mil dólares canadenses. No entanto, quando tentaram retirar mais dinheiro de uma segunda conta em outro local, o gerente da instituição percebeu e foi falar com o casal.
O profissional explicou que eles podiam ser vítimas de um golpe, pois algo similar havia acontecido com outro correntista. Assim, após a conversa, eles perceberam que o rapaz não se encontrava realmente na prisão. Para o jornal americano, a idosa comentou que estava realmente convencida de que era seu neto no telefone:
Não foi uma história muito convincente, mas não precisava ser melhor do que o que era para nos convencer.
Inteligência artificial se tornou ferramenta para golpistas
Devido à facilidade em usar programas de IA, os criminosos conseguem copiar a fala de qualquer pessoa a partir de uma amostra de poucos segundos. Normalmente, a tecnologia usada é a do deepfake, que pode manipular áudios e simular determinadas vozes, como o timbre e o tom.
Como consequência, fica difícil para o indivíduo questionar se realmente está falando com um conhecido ou não.
Além disso, surge a dificuldade de identificar o infrator, seja pela vítima ou pela polícia, já que é complicado rastrear ligações feitas de várias partes do globo e os transgressores usam a voz de terceiros na ligação.
Nos Estados Unidos, por exemplo, esse tipo de farsa se tornou a segunda mais popular entre os golpistas, com mais de 36 mil relatos apenas em 2022, de acordo com a Federal Trade Comission. Como consequência, mais de US$ 11 milhões foram roubados.
Outra dor de cabeça é que a Justiça não tem precedentes para culpar as empresas que desenvolvem ferramentas para deepfake. O que atrapalha ainda mais os processos legais após um indivíduo ser enganado pelos criminosos por telefone.
Caso de idosos é mais um na lista
Ruth Card e seu marido Greg Grace não foram os primeiros e não serão os últimos a sofrerem esse tipo de golpe.
Por exemplo: Um americano chamado Benjamin Perkin, 39, viu seus pais perderem milhares de dólares devido a um esquema que utilizou sua voz criada por IA. Na situação, um homem ligou para os idosos afirmando que era um advogado. Em seguida, ele disse que o rapaz havia matado um diplomata em um acidente de carro e que estava preso precisando de dinheiro para fiança.
O falso advogado “colocou” Benjamin Perkin no telefone para falar com sua mãe, mas, na verdade se tratava de um áudio gerado por deepfake. Assustados pelo momento, eles acabaram sacando um alto valor e o depositou em um terminal de bitcoin.
Quando descobriram a farsa, era tarde demais. “O dinheiro se foi. Não há seguro. Não tem como revê-lo”, afirmou Perkin.
Golpe usa voz gerada por inteligência artificial para se passar por entes queridos
You must be logged in to post a comment.