Com o avanço da IA generativa, a clonagem de voz e rosto tem sido usada por criminosos para golpes sofisticados — que vão desde pedido de resgate até falsificação de autoridade por ligações de vídeo no WhatsApp. Esses métodos recriam familiares ou chefes, explorando emoções e confiança de vítimas para obter dinheiro ou dados pessoais.
Hoje, basta apenas três a quinze segundos de áudio originais para uma IA gerar vozes assustadoramente convincentes Reddit+11Noticias R7+11We Live Security+11. O método ganhou atenção global em 2019, quando criminosos clonaram a voz do CEO de uma empresa alemã e tiraram quase € 220 mil de sua filial britânica We Live Security. Um relatório do Starling Bank revelou que mais de 25 % dos adultos no Reino Unido já foram vítimas de clonagem de voz via IA em 2023, sendo que quase metade não sabia da existência desse tipo de fraude We Live Security.

No Brasil, investir para um familiar caiu sob ataque: pais receberam pedidos de dinheiro, com a voz de WhatsApp de seus filhos dizendo que haviam se envolvido em acidente ou precisavam pagar fatura urgente — casos confirmados pela mídia Reddit+15Canaltech+15Reddit+15. O UniBrasil e outros especialistas alertam que a mudança na lógica criminal não é pequena: agora bastam minutos e dados públicos para criar golpes altamente verossímeis.
O professor Mozart Hasse, do UniBrasil, destaca que, com IA, o risco não está mais apenas em acessar links suspeitos, mas em expor sua voz e imagem — que criam “pontes” para golpear outras pessoas próximas:
“Hoje em dia para se copiar a voz de alguém … você precisa basicamente de uns 15 segundos dessa pessoa falando. Então, quando receber uma ligação de um desconhecido, se não for alguém que você conhece, não fique ‘batendo papo’…” BMC NEWS
Além disso, um mecanismo de golpe comum começa capturando a voz da vítima primária (por exemplo, funcionários ou conhecidos), usada em seguida para enganar executivos ou líderes e solicitar transferências de alto valor Noticias R7Folha de S.Paulo.
Nas redes, pessoas relatam experiências reais com golpes de voz clonada. Um usuário no Reddit descreveu o pânico vivido por seu pai:
“Liguei para o meu irmão e ouvi a voz dele… não dava nem pra entender direito… desliguei e liguei para confirmar que ele estava vivo” Cryptoid
Essa dependência de familiaridade, combinada com penalidades emocionais (como supostos resgates), torna o golpe tão confiável que até pessoas tecnológicas podem cair.
Como não cair: recomendações práticas
Aplicar medidas preventivas simples já pode ser decisivo:
- Combine uma palavra-código privada com seus familiares: sem ela, nenhum pedido urgente deve ser acatado sem checagem LinkedIn.
- Desconfie de urgência audível: desligue a chamada e confirme diretamente pela pessoa em outro número ou chamada de vídeo real.
- Restrinja sua voz e imagem nas redes sociais: fotos e vídeos podem servir como base para IA clonar sua voz ou rosto BMC NEWS.
- Evite instalar apps com pouca reputação. Use autenticação dupla e senha forte, sobretudo em aplicativos bancários.
- Em ligações desconhecidas, mantenha silêncio até que a pessoa se identifique — golpistas geralmente desistem se não conseguem coletar voz inicial do alvo.
O FBI já alertou que essas táticas podem resultar em perdas devastadoras para pessoas e empresas We Live Security. No Brasil, o setor financeiro responde com trilhas de estornos e protocolos de bloqueio para transações suspeitas, embora a prevenção ainda seja a melhor defesa Folha de S.Paulo+1Folha de S.Paulo+1.
Para ajudar a evitar esse tipo de golpe no celular, o especialista Mozart Hasse indica medidas como: instalar apenas apps confiáveis; manter o telefone bloqueado por senha; e considerar o uso de um segundo celular apenas para contas bancárias, minimizando riscos de registros indevidos BMC NEWS.
Ao apresentar essas ações de segurança com mais objetividade e clareza, o cenário ficcional do ataque digital deixa de ser distante. Tornar-se consciente dos riscos e criar hábitos de verificação é o primeiro passo contra golpes que já misturam tecnologia, emoção e engenharia social de forma perigosa.





