Notícias
Idosa cai em golpe de IA que imitava voz da filha e perde R$ 83 mil
Criminosos que se passavam pela filha da vítima usando IA relataram uma emergência para que ela transferisse o dinheiro
Uma mulher foi vítima de um esquema sofisticado envolvendo IA (inteligência artificial) no qual criminosos utilizaram a clonagem de voz para se passar por sua filha, no estado da Flórida (EUA), na última semana. Os criminosos por trás da falsa chamada telefônica pediram que a vítima depositasse a quantia de US$ 15 mil (cerca de R$ 83 mil) fingindo ser a filha dela precisando de ajuda.
Leia também
- Homem com namorada e filho na vida real pede IA em casamento
- Idoso cai em golpe por telefone e perde quase R$ 3 milhões
- VÍDEO: Idosa é atropelada por trem em cidade mineira
A protagonista do caso, residente no condado de Hillsborough, recebeu uma ligação inesperada na qual a voz do outro lado da linha se parecia em todos os detalhes com a de sua filha adulta.
O teor da conversa envolvia uma situação de emergência: a suposta filha, em prantos, relatava ter se envolvido em um acidente enquanto dirigia e mexia no celular. O desespero transmitido convenceu a mãe da autenticidade do pedido de socorro.
Os golpistas não se limitaram ao uso da voz simulada. Logo após a primeira abordagem emocional, outra pessoa assumiu a ligação, apresentando-se como advogado da vítima do acidente.
Ele solicitou uma grande quantia em dinheiro para pagamento de uma suposta fiança, orientando a mãe a não revelar ao banco o motivo da retirada. Essa é uma prática comum dos chamados golpes do falso sequestro ou deepfake de voz: pressionar a vítima a agir rapidamente e de forma sigilosa, afastando qualquer possibilidade de consulta a parentes ou amigos.
Além da manipulação psicológica, os criminosos forneceram orientações específicas para a entrega do dinheiro, incluindo detalhes de como embalar e repassar a quantia.
Uso da IA em golpes
A popularização do acesso a ferramentas de inteligência artificial torna mais fácil a criação de áudios extremamente realistas. Esses sistemas podem analisar vídeos e gravações disponíveis em redes sociais, reproduzindo não apenas a voz, mas nuances emocionais, sotaques e padrões de fala específicos.
Essa capacidade torna os ataques mais convincentes e personalizáveis, desafiando métodos tradicionais de autenticação, como reconhecimento de voz pelo telefone.