Tecnologia

Golpistas usam inteligência artificial para aplicar golpes de voz e extorsão

Programas de IA imitam vozes para enganar vítimas e roubar dinheiro

Por Da Redação
Ás

Golpistas usam inteligência artificial para aplicar golpes de voz e extorsão

Foto: Pexels

Golpistas estão cada vez mais engajados em confundir suas vítimas para obter dinheiro, e agora estão utilizando métodos complexos, incluindo inteligência artificial (IA).

O novo golpe consiste na manipulação da voz por meio de programas que imitam padrões respiratórios, pausas e entonação, gerando frases que são enviadas por áudio ou ligações para pessoas que possam reconhecer os sons, como amigos e familiares. O objetivo é enganar e extorquir. 

Um caso recente envolveu o pai do influenciador Dario Centurione, conhecido por compartilhar vídeos com dicas e curiosidades nas redes sociais. Após receber uma ligação que supostamente era de seu filho pedindo dinheiro, o homem de 71 anos fez uma transferência via Pix de R$ 600 para o golpista.

"Meu pai não desconfiou porque, segundo ele, a voz era muito parecida. Ele falou: 'Dario, eu tinha certeza que era a sua voz. Era o mesmo tom'", conta o influenciador ao R7.

O pai de Dario só percebeu que havia caído em um golpe quando conversou de fato com seu filho, que negou ter solicitado dinheiro.

Arthur Igreja, especialista em tecnologia e inovação e cofundador da plataforma AAA Inovação, explica que a principal ferramenta utilizada nesse tipo de golpe é a ElevenLabs, mas existem outras, como Murf.ai, Respeecher e Discursar.

Esses softwares, alimentados por inteligência artificial, conseguem imitar vozes e reproduzi-las de maneira fiel, usando apenas alguns minutos de áudio real. "Há programas que, com apenas 3 segundos, conseguem criar uma identidade, mas não são capazes de capturar alguns aspectos da voz, como vícios de linguagem e pequenas sutilezas. Para ser algo extremamente fiel, esses programas pedem de 10 a 15 minutos de áudio", explica Igreja.

As pessoas que publicam vídeos na internet são os principais alvos dos golpistas. "O acesso à voz delas é mais fácil e, quanto mais gravações disponíveis, mais perfeita a voz artificial se torna", explica o advogado Luiz Augusto D’Urso, especialista em crimes cibernéticos.

Após o programa assimilar a voz original, tudo o que o golpista precisa fazer é escrever uma frase como: "Você pode fazer um Pix de R$ 600 para mim?". Então, o programa gera a voz artificial que pode enganar as vítimas.

Para se proteger do golpe da voz, Luiz Augusto sugere a criação de uma palavra-chave entre amigos e familiares mais próximos. "Combinar uma palavra de segurança para ser usada sempre que o assunto envolver finanças é uma garantia de identificar se é um golpe ou não."

Após o pai de Dario cair no golpe da voz, a família criou uma palavra-chave e agora se sente mais segura. "Eu percebi que, assim como meu pai, minha mãe e outros familiares também poderiam acreditar no golpe. Por isso, escolhemos uma palavra para usar nesses casos e estamos mais atentos."

Outra opção é realizar uma videochamada antes de efetuar qualquer tipo de transação. No entanto, o advogado Luiz Augusto alerta que esse método poderá ficar obsoleto em breve, uma vez que a inteligência artificial também é capaz de manipular imagens. "Embora seja um processo que exige tempo e profissionais experientes, se ainda não está ao alcance dos golpistas, em breve estará", afirma.

A Febraban (Federação Brasileira de Bancos) destaca que os golpistas utilizam manipulação psicológica do usuário e falsas urgências para obter informações confidenciais, como senhas, números de cartões e transações. Portanto, sempre que alguém solicitar dinheiro ou dados por meio de aplicativos de mensagens, a desconfiança deve ser uma defesa natural.

Comentários

Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião deste site. Se achar algo que viole os termos de uso, denuncie:[email protected]

Faça seu comentário