x

Notícias

Idosa cai em golpe de IA que imitava voz da filha e perde R$ 83 mil

Criminosos que se passavam pela filha da vítima usando IA relataram uma emergência para que ela transferisse o dinheiro

mm

Publicado

em

Senhora dando entrevista
Idosa foi enganada em golpe utilizando IA | Reprodução / WFLA

Uma mulher foi vítima de um esquema sofisticado envolvendo IA (inteligência artificial) no qual criminosos utilizaram a clonagem de voz para se passar por sua filha, no estado da Flórida (EUA), na última semana. Os criminosos por trás da falsa chamada telefônica pediram que a vítima depositasse a quantia de US$ 15 mil (cerca de R$ 83 mil) fingindo ser a filha dela precisando de ajuda.

Leia também

A protagonista do caso, residente no condado de Hillsborough, recebeu uma ligação inesperada na qual a voz do outro lado da linha se parecia em todos os detalhes com a de sua filha adulta.

O teor da conversa envolvia uma situação de emergência: a suposta filha, em prantos, relatava ter se envolvido em um acidente enquanto dirigia e mexia no celular. O desespero transmitido convenceu a mãe da autenticidade do pedido de socorro.

Os golpistas não se limitaram ao uso da voz simulada. Logo após a primeira abordagem emocional, outra pessoa assumiu a ligação, apresentando-se como advogado da vítima do acidente.

Ele solicitou uma grande quantia em dinheiro para pagamento de uma suposta fiança, orientando a mãe a não revelar ao banco o motivo da retirada. Essa é uma prática comum dos chamados golpes do falso sequestro ou deepfake de voz: pressionar a vítima a agir rapidamente e de forma sigilosa, afastando qualquer possibilidade de consulta a parentes ou amigos.

Além da manipulação psicológica, os criminosos forneceram orientações específicas para a entrega do dinheiro, incluindo detalhes de como embalar e repassar a quantia.

Uso da IA em golpes

A popularização do acesso a ferramentas de inteligência artificial torna mais fácil a criação de áudios extremamente realistas. Esses sistemas podem analisar vídeos e gravações disponíveis em redes sociais, reproduzindo não apenas a voz, mas nuances emocionais, sotaques e padrões de fala específicos.

Essa capacidade torna os ataques mais convincentes e personalizáveis, desafiando métodos tradicionais de autenticação, como reconhecimento de voz pelo telefone.