Golpistas estão usando a inteligência artificial para se passar por entes queridos de vítimas em todo o mundo. A técnica é conhecida como deepfake e permite que os criminosos criem áudios com vozes geradas artificialmente.
Isso faz com que as pessoas pensem que estão falando com seus filhos, netos ou amigos. O resultado é que muitos acabam caindo no golpe e perdendo grandes quantias de dinheiro.
Leia também
O que é deepfake e por que é tão perigoso?
Como descobrir se um vídeo é deepfake?
Idosos são os alvos principais
Países como os Estados Unidos e o Canadá já contabilizaram inúmeros casos de golpes usando deepfake, com idosos sendo os principais alvos. Recentemente, uma canadense de 73 anos, de nome Ruth Card, foi vítima de um golpe em que o criminoso usou uma voz gerada por inteligência artificial para se passar por seu neto.
Ele ligou para a senhora e afirmou estar na cadeia, pedindo dinheiro para pagar a fiança. A idosa rapidamente sacou 3 mil dólares canadenses, sem ter ideia de que estava sendo enganada. Felizmente, o gerente do banco percebeu o golpe antes que ela perdesse ainda mais dinheiro.
Com a crescente facilidade de manipulação de áudios e simulação de vozes através de programas de inteligência artificial, os golpistas têm sido capazes de reproduzir a fala de qualquer pessoa a partir de pequenas amostras, que podem durar apenas alguns segundos. O deepfake, uma das tecnologias mais utilizadas para esse fim, permite a criação de vozes com timbre e tom semelhantes aos das pessoas reais.
Isso torna difícil para a vítima questionar se realmente está falando com um conhecido ou não. Sem falar que é complicado rastrear ligações feitas de várias partes do mundo, o que dificulta a identificação dos infratores pela polícia.
Lista de casos só aumenta
O caso da canadense Ruth Card é apenas mais, dentre tantos exemplos, de como os golpistas estão se aproveitando da tecnologia para enganar as pessoas. Outro caso envolveu um americano chamado Benjamin Perkin, que viu seus pais perderem milhares de dólares ao caírem em um esquema similar.
Na ocasião, um falso advogado utilizou a voz criada por inteligência artificial do filho para convencê-los a depositar dinheiro em um terminal de bitcoin. O argumento usado foi que Benjamin havia atropelado e matado um diplomata e, por isso, estava preso.
Para dar veracidade à sua história, o criminoso então colocou Benjamin Perkin ao telefone para falar com sua mãe. A senhora, obviamente, acreditou estar falando com seu filho. Mas na verdade ela tinha ouvido apenas um arquivo de áudio com a voz de Benjamin gerada por computador. Infelizmente, quando descobriram a farsa, já era tarde demais para recuperar o dinheiro perdido.
Golpes usando inteligência artificial já são o segundo mais popular nos Estados Unidos
De acordo com a Federal Trade Commission, só nos Estados Unidos, esse tipo de fraude se tornou a segunda mais popular entre os golpistas em 2022. Foram realizados um total de mais de 36 mil golpes utilizando esta técnica. Os prejuízos financeiros ultrapassam os US$ 11 milhões.
No entanto, o desenvolvimento de ferramentas de deepfake para fins maliciosos mostra-se como um desafio legal para a justiça. Ainda não há precedentes para culpar as empresas responsáveis pelo desenvolvimento dessas tecnologias. Esse impasse pode dificultar ainda mais os processos legais e a recuperação do dinheiro roubado pelos golpistas.
É importante estar atento e verificar a veracidade das informações antes de realizar transações financeiras por telefone.
Fonte: The Washington Post
Deixe seu comentário