Golpe do século? Criminosos usam IA para clonar vozes e aplicar fraudes
A tecnologia tem avançado de forma impressionante, trazendo inúmeros benefícios para áreas como saúde, educação e comunicação. Mas, junto com essas conquistas, surge também um lado sombrio: o uso da inteligência artificial (IA) por criminosos para aplicar golpes cada vez mais convincentes e difíceis de detectar.
A combinação de IA generativa com técnicas tradicionais de manipulação emocional, como a engenharia social, criou o ambiente perfeito para a proliferação de fraudes. O que antes era um simples trote telefônico agora se transforma em armadilhas sofisticadas, com potencial de causar prejuízos graves.
Se você acha que esses golpes estão distantes da sua realidade, é melhor repensar. Eles têm alcançado pessoas de todas as idades e perfis — muitas vezes usando a própria voz da vítima ou de um familiar como isca.

Voz clonada por IA: o novo golpe que assusta famílias
Entre os golpes mais alarmantes está o da clonagem de voz. Com apenas alguns segundos de áudio — que podem ser retirados de vídeos nas redes sociais ou mensagens de voz em aplicativos — criminosos conseguem recriar vozes com altíssimo grau de realismo.
Essas vozes falsas são usadas em chamadas para familiares e amigos. Os golpistas simulam situações de urgência, como sequestros ou pedidos de ajuda, e a semelhança vocal com a pessoa querida é suficiente para causar desespero e abrir caminho para o golpe.
Imagine receber uma ligação da “sua filha”, chorando e pedindo dinheiro com urgência. É nesse momento de vulnerabilidade emocional que muitas pessoas acabam fornecendo dados bancários ou realizando transferências sem checar a veracidade.
Por isso, o alerta é claro: mesmo que a voz pareça familiar, nunca tome decisões no impulso. Desligue e retorne o contato por um número já conhecido para confirmar a situação antes de qualquer ação.
Deepfakes e vídeos falsos também estão sendo usados em golpes
Além da clonagem de voz, a inteligência artificial também permite a criação de vídeos falsos, os chamados deepfakes. Com essa tecnologia, é possível simular rostos, expressões e falas, dando a impressão de que alguém está participando de uma videochamada ou gravando um vídeo real.
Em um caso recente na Ásia, um executivo transferiu milhões após “falar” com colegas de trabalho em uma reunião virtual — que, na verdade, era composta por avatares gerados por IA. A confiança nas imagens custou caro.
No Brasil, ainda são raros os casos com deepfakes em vídeo, mas especialistas já alertam para tentativas em fraudes corporativas, principalmente envolvendo investidores e representantes de empresas.
A lição aqui é simples: desconfie de situações incomuns, mesmo que visualmente pareçam legítimas. Um rosto conhecido na tela nem sempre garante que a pessoa do outro lado é quem diz ser.
Como se proteger e o que fazer se for vítima
Diante de golpes cada vez mais realistas, adotar medidas preventivas é essencial. A primeira recomendação dos especialistas é: nunca forneça senhas, códigos ou dados bancários por telefone, mesmo que a voz pareça familiar ou venha de um suposto banco.
Desconfie de qualquer ligação com tom de urgência. Se alguém pedir dinheiro, desligue e tente outro canal de contato. Ative a verificação em duas etapas em todos os aplicativos importantes — isso reduz o risco de invasões e acessos indevidos.
Evite também publicar áudios ou vídeos com sua voz em ambientes públicos, e oriente familiares, especialmente idosos, que são os alvos preferenciais dos golpistas por serem mais suscetíveis emocionalmente.
Se mesmo assim você cair em um golpe, aja rápido: entre em contato com o banco, registre boletim de ocorrência (físico ou online), alerte amigos e familiares e busque suporte jurídico e emocional, se necessário. Quanto mais rápido for o seu movimento, menores as chances de prejuízo.