Deepfakes em Ascensão: os golpes com vozes e rostos falsos que estão assustando o mundo
Os deepfakes deixaram de ser apenas uma curiosidade tecnológica para se tornarem uma ameaça real no Brasil. Golpes sofisticados com áudios e vídeos falsificados já vêm sendo usados em contextos financeiros e políticos, explorando a confiança de executivos, colaboradores e até familiares. Neste artigo, mostramos como funcionam os ataques com deepfakes, quais são os principais exemplos de fraudes em ascensão no país, os riscos para empresas e cidadãos e, principalmente, como investigações cibernéticas podem ajudar a identificar, rastrear e combater esse tipo de crime digital. Palavras-chave: Deepfakes no Brasil, Golpes financeiros com deepfake, Fraudes digitais com áudio e vídeo falsos, Cibercrimes sofisticados, Investigação cibernética deepfake
CIBERCRIMESTENDÊNCIASDIREITO DIGITALCIBERSEGURANÇA
Ricardo Gonçalves
10/4/20257 min read


Você já recebeu uma ligação com uma voz conhecida pedindo algo urgente? E se essa voz fosse de verdade… mas não fosse?
Hoje isso é possível. Com poucos segundos de áudio, programas de inteligência artificial conseguem criar cópias perfeitas de qualquer voz. É o mesmo com vídeos: rostos são clonados, expressões são recriadas e até discursos inteiros são inventados. Essa tecnologia chama‑se deepfake, e está transformando a ideia do que é real na internet.
Por muito tempo parecia coisa de filme de ficção científica. Só que já está acontecendo, inclusive no Brasil. Golpes financeiros com vozes clonadas e vídeos políticos falsos começam a surgir. E às vésperas das eleições de 2026, a preocupação cresce: será que ainda podemos acreditar no que vemos e ouvimos?
1. O que é um deepfake
Deepfake é o nome dado a qualquer áudio, imagem ou vídeo criado com inteligência artificial para imitar uma pessoa de verdade. O termo vem de “deep learning” (aprendizado profundo, o tipo de IA que aprende com exemplos) e “fake” (falso). Juntos, significam algo como “falso criado por aprendizado profundo”.
Lá em 2017, um usuário do fórum Reddit usou essa técnica para trocar o rosto de celebridades em vídeos. Era uma curiosidade tecnológica. Só que em poucos anos surgiram aplicativos que fazem o mesmo trabalho em minutos e sem exigir conhecimento técnico. Basta fazer upload de fotos ou gravações, e pronto: nasce um rosto ou uma voz artificial.
A tecnologia ficou tão simples que qualquer pessoa pode criar um deepfake pelo celular. E, como costuma acontecer, uma parte das pessoas usa para diversão… e outra, para enganar.
2. Quando a brincadeira vira golpe
Deepfakes se tornaram o ingrediente principal de um novo tipo de fraude digital. Criminosos descobriram que clonar uma voz é mais convincente do que mandar um e‑mail de “phishing”. E que se apresentar com um rosto conhecido numa chamada de vídeo abre portas muito mais rápido.
Um dos casos mais conhecidos aconteceu em 2019, no Reino Unido. Um diretor financeiro recebeu um telefonema do CEO pedindo uma transferência urgente. A voz era idêntica – sotaque, forma de falar, tudo. Era falsa. O golpe levou mais de duzentos mil euros. O mesmo tipo de fraude já foi tentado no Brasil e, em 2024, uma empresa de Hong Kong perdeu mais de vinte e cinco milhões de dólares depois de participar de uma videoconferência falsa feita com deepfakes de vários executivos.
É assustador porque parece impossível duvidar. A voz é real, o vídeo é real… o contexto é convincente. A combinação perfeita de tecnologia e engenharia social.
3. Como esses golpes funcionam
A parte técnica é a menor. Para clonar uma voz, bastam alguns segundos de gravação retirados de redes sociais, entrevistas ou mensagens. Um programa especializado analisa o som e gera uma “voz sintética” capaz de repetir qualquer frase.
Nos vídeos, o processo é parecido: a IA aprende os movimentos do rosto e depois “cola” essa imagem sobre outra pessoa. Mas a tecnologia sozinha não engana ninguém. Os criminosos completam o golpe com manipulação psicológica:
criam urgência (“precisa ser agora”);
usam autoridade (“é o chefe falando”);
exploram informações reais sobre a vítima, coletadas na internet.
Quando a pessoa está sob pressão, tende a agir antes de pensar. É aí que a fraude se concretiza.
4. Casos reais e tendências
Os deepfakes já aparecem em três grandes frentes:
Empresas
Vozes clonadas de executivos pedindo transferências, videoconferências falsas e contratos autorizados por “cheques” digitais falsos. Muitos casos não vêm a público por medo de dano à imagem.
Política
Em vários países, deepfakes foram usados para criar discursos falsos de candidatos. Na Índia, clipes mostravam políticos falando idiomas que nunca aprenderam. Nos Estados Unidos, áudios e vídeos fabricados circularam em redes sociais durante campanhas. A Argentina também enfrentou ondas de desinformação com vídeos manipulados.
Brasil em alerta
Aqui, o Tribunal Superior Eleitoral e especialistas em segurança digital já se preparam. A preocupação é que, nas eleições de 2026, vídeos e áudios falsos possam ser usados para confundir o eleitor. A tecnologia estará madura, barata e acessível a qualquer grupo com más intenções. Abordaremos este tema com mais detalhes mais à frente.
5. Por que essas fraudes dão certo
Tudo se resume a um traço humano: nós acreditamos nos nossos sentidos.
Quando vemos um vídeo ou ouvimos uma voz, o cérebro entende que aquilo é verdade. Um golpe de texto desperta desconfiança; um vídeo ou áudio, não.
Além disso, o contexto ajuda. Uma ligação “urgente” do diretor, um vídeo “vazado” cheio de emoção, uma mensagem compartilhada por amigos — tudo cria um ambiente de confiança. E, na pressa, poucas pessoas param para checar.
6. A importância da investigação cibernética
Quando ocorre um golpe desse tipo, a investigação digital é o que pode ajudar a identificar a origem.
Os especialistas analisam cada detalhe do arquivo: variações de luz, piscadas fora de ritmo, padrões de voz artificiais, metadados escondidos. Eles também rastreiam os caminhos usados para espalhar o material e preservam as evidências.
Para que isso funcione, a vítima não pode apagar nada. É preciso guardar áudios, vídeos, e‑mails e prints. Mesmo um pequeno detalhe pode indicar o software utilizado ou o país de onde partiu a fraude.
Mas há desafios. Deepfakes se espalham rápido, muitas vezes em plataformas criptografadas. E os criminosos podem estar em outro país, o que torna a cooperação internacional indispensável.
7. Como se proteger
Não existe blindagem perfeita, mas há atitudes simples que diminuem o risco.
Nas empresas
Crie protocolos de confirmação antes de autorizar pagamentos. Nenhuma decisão crítica deve ser tomada apenas com base em um vídeo ou ligação.
Treine o time: todos precisam saber que deepfakes existem e como identificar sinais suspeitos.
Adote autenticação multifatorial e revise processos de aprovação.
Registre e monitore comunicações importantes.
No dia a dia
Desconfie de pedidos urgentes vindos por mensagem, áudio ou vídeo, mesmo se a voz parecer familiar.
Confirme por outro canal antes de agir.
Antes de compartilhar conteúdos chocantes, procure a fonte original.
Observe detalhes: movimentos estranhos, qualidade do som, sombras inconsistentes são alertas.
Para figuras públicas
Estas são vítimas preferenciais deste tipo de golpe, sendo sua imagem e voz utilizadas para fins ilícitos.
Monitore constantemente o que é publicado em seu nome.
Use marcas d’água ou assinaturas digitais em conteúdos oficiais.
Tenha planos de resposta rápida para desmentir falsificações.
A regra é resumida em uma palavra: verificar.
8. Deepfakes e eleições 2026: um desafio para a democracia
Nas próximas eleições brasileiras, a desinformação pode ganhar uma nova cara — literalmente. Um vídeo falso de um candidato circulando um dia antes da votação pode ser suficiente para influenciar milhões de pessoas. Mesmo que o conteúdo seja desmentido depois, o dano já está feito.
O TSE estuda medidas legais e tecnológicas para combater esse tipo de fraude. Entre as ideias estão:
leis específicas contra deepfakes eleitorais;
cooperação com plataformas como Meta, Google e X para retirada rápida de conteúdos falsos;
certificação digital de materiais oficiais.
A maior defesa, porém, é a consciência das pessoas. Saber que deepfakes existem e podem ser usados para manipular opiniões é o primeiro passo para não ser enganado.
No fim das contas, a ameaça dos deepfakes não é apenas tecnológica — é social. Eles minam o que sustenta a democracia: a confiança coletiva nas informações.
9. O outro lado da moeda
Nem tudo em deepfake é negativo. A mesma tecnologia tem usos legítimos e até emocionantes:
recriar vozes para quem perdeu a fala;
dublar filmes e vídeos educacionais;
preservar imagens de figuras históricas;
produzir conteúdo artístico.
O problema não está na ferramenta, e sim em como ela é usada. Enquanto pesquisadores criam deepfakes para ensino e cultura, golpistas usam para enganar. É uma corrida entre quem constrói e quem destrói — entre os que geram e os que detectam.
10. E agora, em quem confiar?
A era digital transformou tudo o que sabíamos sobre verdade e mentira. Deepfakes escancararam uma nova realidade: “ver para crer” já não basta. Mas isso não significa viver em paranoia. Significa adotar um olhar mais crítico sobre o que circula nas telas.
Empresas podem se proteger com protocolos, governos com leis, mas o elemento mais importante continua sendo o usuário consciente. Quando cada pessoa se pergunta “será que isso é real?” antes de compartilhar ou agir, o poder do golpe diminui.
Conclusão
Deepfakes são talvez a maior revolução — e o maior risco — da era da inteligência artificial. Combinam alta tecnologia com manipulação psicológica para enganar pessoas, roubar dinheiro e distorcer informações.
Para empresas, representam prejuízo financeiro. Para a política, uma ameaça à confiança pública. Para todos nós, um alerta: não dá mais para acreditar em tudo que vemos na internet.
A boa notícia é que o conhecimento e a cautela funcionam.
Treinar equipes, checar fontes, buscar profissionais de investigação cibernética e falar abertamente sobre o assunto são passos que fazem diferença.
Quanto mais informados estivermos, menor será o espaço para golpes.
A RG Cibersegurança acompanha essa evolução de perto e ajuda pessoas e organizações a entenderem e enfrentarem essas novas fraudes digitais. Porque a tecnologia muda o tempo todo — e a melhor defesa continua sendo estar um passo à frente.
Referências
Casos de fraudes corporativas e deepfakes
Forbes. A Voice Deepfake Was Used To Scam A CEO Out Of $243,000. Disponível em: https://www.forbes.com/sites/jessedamiani/2019/09/03/a-voice-deepfake-was-used-to-scam-a-ceo-out-of-243000/. Acesso em: 04 out. 2025.
The Wall Street Journal. Fraudsters Used AI to Mimic CEO’s Voice in Unusual Cybercrime Case. Disponível em: https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402. Acesso em: 04 out. 2025.
The Guardian. UK engineering firm Arup falls victim to £20m deepfake scam. Disponível em: https://www.theguardian.com/technology/article/2024/may/17/uk-engineering-arup-deepfake-scam-hong-kong-ai-video. Acesso em: 04 out. 2025.
World Economic Forum. Cybercrime: Lessons learned from a $25m deepfake attack. Disponível em: https://www.weforum.org/stories/2025/02/deepfake-ai-cybercrime-arup/. Acesso em: 04 out. 2025.
Deepfakes e eleições
JOTA Info. Da urna ao algoritmo: lições de 2024 para enfrentar as deepfakes em 2026. Disponível em: https://www.jota.info/opiniao-e-analise/artigos/da-urna-ao-algoritmo-licoes-de-2024-para-enfrentar-as-deepfakes-em-2026. Acesso em: 04 out. 2025.
Folha de S.Paulo. Deepfakes provocam controvérsia na Justiça Eleitoral e são risco para 2026. Disponível em: https://www1.folha.uol.com.br/poder/2024/12/deepfakes-provocam-controversia-na-justica-eleitoral-e-sao-risco-para-2026.shtml. Acesso em: 04 out. 2025.
BBC. AI and deepfakes blur reality in India elections. Disponível em: https://www.bbc.co.uk/news/world-asia-india-68918330. Acesso em: 04 out. 2025.
NPR. How AI deepfakes polluted elections in 2024. Disponível em: https://www.npr.org/2024/12/21/nx-s1-5220301/deepfakes-memes-artificial-intelligence-elections. Acesso em: 04 out. 2025.
World Economic Forum. Year of elections: Lessons from India’s fight against AI misinformation. Disponível em: https://www.weforum.org/stories/2024/08/deepfakes-india-tackling-ai-generated-misinformation-elections/. Acesso em: 04 out. 2025.
Global Network on Extremism and Technology (GNET). Deep Fakes, Deeper Impacts: AI’s Role in the 2024 Indian General Election and Beyond. Disponível em: https://gnet-research.org/2024/09/11/deep-fakes-deeper-impacts-ais-role-in-the-2024-indian-general-election-and-beyond/. Acesso em: 04 out. 2025.
Entre em contato
+5531986992842
© 2024. Todos os direitos reservados
Deixe sua mensagem para que possamos entender a sua necessidade