Deepfakes em chamadas e mensagens: como identificar e se proteger de vozes e rostos falsos em 2025

TUTORIAISATUALIZAÇÕESCIBERSEGURANÇATENDÊNCIAS

Ricardo Gonçalves

7/1/20256 min read

1. Introdução

Imagine receber uma chamada de vídeo de alguém que parece ser seu chefe, pedindo uma transferência urgente para resolver uma crise na empresa. A voz e o rosto soam perfeitamente autênticos, e você não hesita. Dias depois, descobre que tudo não passava de um deepfake — a tecnologia de inteligência artificial que clona rostos e vozes em tempo real.

Deepfakes deixaram de ser mera curiosidade. Golpistas usam vídeos e áudios falsos com qualidade impressionante para enganar desde consumidores individuais até grandes corporações. Nos últimos anos, casos envolvendo fraudes de milhões de reais foram atribuídos a chamadas e mensagens manipuladas por IA.

Neste artigo, você vai descobrir:

  • Como funcionam os deepfakes de voz e vídeo, sem jargões.

  • Casos reais que mostram a gravidade da ameaça.

  • Sinais visuais, auditivos e comportamentais de falsificação.

  • Ferramentas e práticas para detectar e se proteger em 2025.

  • Passos a seguir se você for alvo ou identificar um deepfake.

Nosso objetivo é apresentar o tema de forma clara e conversacional, para que você fique preparado mesmo sem ser especialista.

2. Ter senha não garante segurança: a cultura da confiança enganosa

Por muito tempo, confiamos em indicadores superficiais de autenticidade — como o cadeado “https://” nos sites ou a senha obrigatória em redes Wi-Fi. Mas deepfakes elevam o problema: se até rostos e vozes podem ser forjados, em quem podemos confiar?

A senha em uma rede Wi-Fi protege contra intrusos externos, mas não impede que outros usuários, devidamente conectados, monitorem o tráfego. Analogamente, a aparência e a voz também podem ser falsificadas. Reconhecer essa mudança de paradigma é o primeiro passo para não cair em armadilhas.

3. Casos reais de deepfake que chocaram o mundo

3.1. Hong Kong: R$ 140 milhões transferidos a golpistas

Em fevereiro de 2024, um executivo em Hong Kong participou de uma videoconferência com a diretoria. O “CEO”, porém, era um deepfake. Convencido, o funcionário autorizou uma transferência de US$ 25 milhões (aprox. R$ 140 milhões). A fraude só foi detectada em auditoria externa, mostrando como deepfakes em tempo real burlam processos rigorosos.

3.2. Golpe com deepfake de Marcos Mion

No início de 2025, um vídeo falso do apresentador Marcos Mion prometia vouchers de jantar no Outback. Para resgatar o benefício, as vítimas faziam Pix de R$ 10 a R$ 20. A voz e o rosto, clonados por IA, enganaram milhares de pessoas, gerando prejuízos financeiros e abrindo debate sobre a regulação de deepfakes.

3.3. Vídeos falsos de políticos e jornalistas

Durante o ciclo eleitoral de 2024–2025, deepfakes de Lula, Marina Silva e William Bonner circularam em grupos de WhatsApp, manipulando discursos e redirecionando eleitores a sites de phishing que roubavam dados do Gov.br..

3.4. Clonagem de vozes de familiares

Em abril de 2025, um morador de São Paulo recebeu no WhatsApp um áudio com a voz de seu pai, pedindo R$ 5 000 para cobrir uma suposta dívida médica. O verdadeiro familiar estava fora do país e ignorou o pedido. A técnica usada, RVC (Retrieval-based Voice Conversion), necessita de poucos segundos de áudio original para gerar respostas personalizadas.

4. Como deepfakes de voz e vídeo são gerados

  • Coleta de material de origem

    • Golpistas recolhem vídeos, áudios e fotos públicos — redes sociais, entrevistas e transmissões.

  • Treinamento de modelos

    • Ferramentas como DeepFaceLive, Magicam e Amigo AI “aprendem” rosto e voz usando redes neurais profundas.

  • Síntese em tempo real

    • Durante chamadas de vídeo ou ao enviar áudios, esses softwares substituem sua imagem e voz pelos modelos treinados.

  • Entrega ao alvo

    • O usuário vê e ouve um deepfake que, para a maioria, soa genuíno e dificulta a identificação imediata de fraude.

5. Como identificar um deepfake de vídeo ou voz

5.1. Sinais visuais
  • Desalinhamento de lábios e fala: pequenos atrasos ou sincronia imperfeita.

  • Piscadas irregulares: ausência de piscar natural ou movimentos mecânicos.

  • Sombras inconsistentes: luzänderança abrupta no rosto de quadro a quadro.

  • Textura de pele artificial: áreas muito suaves, sem poros ou imperfeições.

5.2. Sinais auditivos
  • Entonação monótona: falta de variação natural na voz.

  • Áudio “limpo” demais: ausência de ruídos de fundo comuns em chamadas.

  • Pausas abruptas: falhas de transição entre palavras ou frases.

5.3. Sinais comportamentais
  • Urgência forçada: pedidos de dinheiro ou dados com justificativas de crise inevitável.

  • Respostas genéricas: discurso pouco adaptado a perguntas específicas.

  • Recusa em outro canal: insistência em não mudar para ligação tradicional ou mensagem escrita.

6. Ferramentas para detectar deepfakes

  • FakeCatcher (Intel): analisa variações de cor no rosto causadas pelo fluxo sanguíneo para identificar deepfakes em tempo real.

  • Microsoft Video Authenticator: atribui pontuação de autenticidade a frames de vídeo.

  • Deepware Scanner: código aberto, analisa vídeos e áudios à procura de artefatos de IA.

  • Sensity AI: plataforma comercial usada por empresas e governos para monitorar conteúdo manipulado.

  • Sentinel: reporta visualmente regiões inconsistentes em rostos e corpos.

  • DeepBrain AI Detector: serviço web que detecta clonagens de voz e rosto em poucos minutos.

7. Como se proteger de deepfakes em chamadas e mensagens

  • Valide por outro canal: em caso de pedido suspeito, desligue e retorne a ligação usando um número verificado.

  • Ative autenticação multifator (MFA): exija código extra (SMS, app autenticador ou chave física) em serviços bancários e e-mail.

  • Restrinja material pessoal online: vídeos e áudios próprios podem treinar deepfakes; ajuste privacidade nas redes sociais.

  • Configure privacidade em apps de mensagem: desative pré-visualização e downloads automáticos de mídias.

  • Eduque familiares e colegas: compartilhe casos reais e procedimentos de verificação.

  • Use antivírus e extensões com detecção de IA: diversas soluções de segurança já incorporam módulos para identificar deepfakes.

8. O que fazer se você for vítima ou identificar um deepfake

  • Denuncie o conteúdo: YouTube, Facebook e Instagram têm mecanismos de denúncia para vídeos e áudios falsos.

  • Registre boletim de ocorrência: use a delegacia virtual ou procure a polícia civil da sua região.

  • Alerta aos contatos: compartilhe o alerta com colegas e redes de segurança da sua empresa.

  • Comunique instituições financeiras: no caso de tentativa de fraude bancária, informe o banco imediatamente.

9. Conclusão

Os deepfakes representam uma das ameaças digitais mais sofisticadas em circulação. Com rostos e vozes gerados em tempo real, nossa confiança nas interações online fica comprometida.

Ainda assim, informação e desconfiança saudável são nossas melhores defesas. Ao reconhecer sinais de falsificação, usar ferramentas de detecção e adotar práticas de validação, você pode navegar e comunicar-se com muito mais segurança.

A próxima vez que receber uma chamada ou mensagem suspeita, lembre-se: até sua imagem e voz podem ser forjadas. Confie na sua atenção e na autenticação por múltiplos canais para evitar golpes e proteger sua identidade.


Referências

  1. CNN Brasil – Funcionário de multinacional paga US$ 25 mi a golpista que usou “deepfake” para simular reunião https://www.cnnbrasil.com.br/internacional/funcionario-de-multinacional-paga-us-25-mi-a-golpista-que-usou-deepfake-para-simular-reuniao/

  2. Forbes Brasil – Alerta Deepfake: entenda como empresa de Hong Kong caiu em golpe milionário https://forbes.com.br/forbes-tech/2024/02/alerta-deepfake-entenda-como-empresa-de-hong-kong-caiu-em-golpe-milionario/

  3. PronaTEC – Funcionário é enganado por deepfake e transfere 140 milhões para golpistas https://pronatec.pro.br/funcionario-e-enganado-por-deepfake-e-transfere-140-milhoes-para-golpistas/

  4. Forbes Brasil – Após golpe com Marcos Mion, deepfakes entram na mira da justiça brasileira https://forbes.com.br/forbes-tech/2025/01/apos-golpe-com-marcos-mion-deepfakes-entram-na-mira-da-justica-brasileira/

  5. Estado de Minas – Marcos Mion é vítima de deepfake; entenda o caso e como se proteger https://www.em.com.br/emfoco/2025/01/26/marcos-mion-e-vitima-de-deepfake-entenda-o-caso-e-como-se-proteger/

  6. UOL Tilt – Golpe Marcos Mion: voucher Outback falso https://www.uol.com.br/tilt/noticias/redacao/2025/01/19/golpe-marcos-mion-voucher-outback.htm

  7. O Globo – Uso de inteligência artificial para aplicar golpes cresce nas redes, aponta pesquisa https://oglobo.globo.com/brasil/noticia/2025/06/23/com-videos-e-audios-falsos-uso-de-inteligencia-artificial-para-aplicar-golpes-cresce-nas-redes-aponta-pesquisa.ghtml

  8. Canaltech – Golpes com deepfake e vozes clonadas estão em alta; veja como se proteger https://canaltech.com.br/seguranca/golpes-com-deepfake-e-vozes-clonadas-estao-em-alta-veja-como-se-proteger/

  9. BMC News – Como evitar cair em golpes com vozes clonadas e deepfakes https://bmcnews.com.br/2025/04/23/como-evitar-cair-em-golpes-com-vozes-clonadas-e-deepfakes/

  10. CISO Advisor – Ferramenta da Microsoft revela pistas de deep fake em vídeos e fotografias https://www.cisoadvisor.com.br/ferramenta-da-microsoft-revela-pistas-de-deep-fake-em-videos-e-fotografias/

  11. Intel – Trusted Media Deepfake Detection https://www.intel.com/content/www/us/en/research/trusted-media-deepfake-detection.html

  12. Sensity AI – Plataforma de detecção de deepfakes https://sensity.ai

  13. Deepware AI – Scan & Detect Deepfake Videos https://scanner.deepware.ai/

  14. GlobeNewswire – DeepBrain AI introduces advanced deepfake detection solution in collaboration with Korean National Police Agency https://www.globenewswire.com/news-release/2024/08/20/2932948/0/en/DeepBrain-AI-Introduces-Advanced-Deepfake-Detection-Solution-in-Collaboration-with-Korean-National-Police-Agency.html