Como a IA virou arma nas mãos de criminosos

Em meio ao avanço das tecnologias que prometem revolucionar o mundo, a inteligência artificial (IA) também passou a alimentar um lado sombrio: o dos crimes digitais. Se por um lado ela contribui para diagnósticos médicos mais precisos e melhora na comunicação, por outro, vem sendo usada para aplicar golpes cada vez mais engenhosos — e assustadoramente convincentes.
A combinação de IA generativa com antigas táticas de engenharia social criou um novo cenário de risco, especialmente em chamadas telefônicas e no ambiente digital. A ameaça não é mais futurista — ela está acontecendo agora, com vítimas reais e prejuízos que vão além do dinheiro.
Quando a voz que liga é idêntica à do seu filho
Entre os golpes que mais crescem no Brasil está o da clonagem de voz. Com apenas alguns segundos de áudio — facilmente retirados de vídeos postados nas redes sociais ou de mensagens enviadas por aplicativos — criminosos conseguem criar réplicas extremamente fiéis da voz de uma pessoa.
Essas vozes artificiais são usadas em ligações falsas, muitas vezes para familiares. O roteiro é sempre o mesmo: um pedido de ajuda urgente, um tom de desespero, e a sensação de que é preciso agir rápido. Pais e mães, pegos de surpresa, muitas vezes transferem dinheiro sem tempo para duvidar.
Imagens forjadas, decisões reais
Outra estratégia que começa a se espalhar é o uso de deepfakes — vídeos manipulados digitalmente que recriam rostos, expressões e vozes de forma tão realista que confundem até os mais atentos. Em um caso recente na Ásia, um executivo foi enganado durante uma videochamada e transferiu milhões de dólares acreditando estar falando com colegas de trabalho.
No Brasil, o uso de deepfakes em vídeos ainda é limitado, mas já há registros de tentativas, especialmente em golpes contra empresas e investidores. A tecnologia está disponível, e os criminosos sabem disso.
Como se proteger de armadilhas cada vez mais realistas
Diante de tantos riscos, a prevenção se tornou ainda mais crucial. Especialistas recomendam:
- Desconfie de chamadas urgentes, mesmo quando a voz parece familiar. Em caso de dúvida, desligue e entre em contato por um número que você já conhece.
- Jamais forneça senhas ou códigos de verificação por telefone, mesmo que a ligação pareça vir de um banco ou empresa confiável.
- Ative a verificação em duas etapas em redes sociais, e-mails e contas bancárias.
- Evite publicar vídeos com sua voz em ambientes públicos, e revise suas configurações de privacidade online.
- Converse com familiares, principalmente idosos, sobre esse tipo de golpe. A informação é a melhor proteção.
Portal SBN | Com informações | Notícias ao Minuto Brasil