IA generativa e cibercrime: como hackers estão usando ferramentas de IA para automatizar ataques

ATUALIZAÇÕESNOTÍCIASTENDÊNCIASCIBERSEGURANÇACIBERCRIMES

Ricardo Gonçalves

4/8/20254 min read

Nos últimos anos, a inteligência artificial (IA) evoluiu de forma impressionante. Ferramentas como o ChatGPT, DALL·E e outros modelos de linguagem e imagem conquistaram o público por sua capacidade de gerar conteúdos realistas, responder perguntas e até escrever códigos. No entanto, essa tecnologia também caiu nas mãos erradas: cibercriminosos têm explorado o poder da IA generativa para automatizar ataques, criar conteúdos maliciosos e enganar vítimas com uma precisão assustadora.

Neste artigo, vamos entender melhor como a IA está sendo usada no cibercrime, quais os principais riscos e, claro, o que você pode fazer para se proteger.

O que é IA generativa?

IA generativa é um tipo de inteligência artificial que aprende com grandes volumes de dados e é capaz de criar novos conteúdos com base nesse aprendizado. Isso inclui textos, imagens, áudios, vídeos e até códigos.

As ferramentas mais conhecidas nesse campo são os modelos de linguagem (LLMs), como o ChatGPT, Bard, Claude e Gemini, e os geradores de imagens como Midjourney e DALL·E.

Essas ferramentas têm aplicações legítimas e extremamente úteis — mas também são facilmente exploradas por atores maliciosos.

Como hackers estão usando IA generativa?
1. Engenharia social mais convincente

A engenharia social é uma técnica usada por cibercriminosos para manipular pessoas e induzi-las a tomar ações prejudiciais, como clicar em links maliciosos, fornecer senhas ou transferir dinheiro.

Com IA generativa, os golpistas conseguem:

  • Redigir e-mails de phishing com aparência muito mais legítima.

  • Criar mensagens personalizadas, com tom adequado à vítima.

  • Simular conversas em tempo real com robôs que se passam por pessoas reais.

Exemplo: Em 2023, um funcionário de uma empresa em Hong Kong transferiu o equivalente a R$ 125 milhões após participar de uma videoconferência com “colegas” que, na verdade, eram deepfakes gerados por IA. O golpe envolveu voz, imagem e conversas em tempo real, tudo gerado por inteligência artificial.

2. Deepfakes e identidade falsa

Deepfakes são vídeos ou áudios falsos gerados por IA, capazes de imitar a aparência e a voz de qualquer pessoa.

Esses recursos estão sendo usados para:

  • Criar vídeos falsos de executivos solicitando transferências bancárias.

  • Divulgar conteúdos difamatórios ou manipuladores em redes sociais.

  • Falsificar provas em investigações e processos judiciais.

A facilidade de criar conteúdo falso levanta uma nova categoria de ameaças: a desinformação automatizada.

3. Criação de malwares automatizados

Modelos de linguagem são capazes de gerar trechos de código em diversas linguagens de programação. Cibercriminosos têm usado isso para:

  • Criar malwares e scripts de automação.

  • Identificar falhas conhecidas em sites e sistemas.

  • Montar kits prontos de phishing e ransomware.

Embora as plataformas responsáveis por essas IAs implementem filtros e detectores de uso malicioso, golpistas conseguem burlar essas proteções com manipulações simples de linguagem.

4. Ataques direcionados (spear phishing) com personalização automática

Com o uso de IA, os criminosos conseguem vasculhar redes sociais e outras fontes públicas de dados para criar e-mails personalizados com base em informações reais da vítima.

Um ataque de spear phishing é muito mais eficaz do que um e-mail genérico, porque passa a impressão de que foi escrito por alguém de confiança.

Crime como serviço: IA alimentando o mercado de CaaS

A IA generativa também alimenta o modelo de Crime-as-a-Service (CaaS). Nesse sistema, qualquer pessoa pode contratar kits prontos para aplicar golpes, mesmo sem conhecimento técnico.

Esses kits agora incluem:

  • Scripts gerados por IA.

  • E-mails prontos para campanhas de phishing.

  • Bots que conduzem conversas falsas.

  • Modelos de deepfake para manipular vídeos ou chamadas.

Esse modelo de “serviço” torna o crime cibernético mais acessível, barato e difícil de rastrear.

Quais são os riscos para empresas e usuários?
Para empresas:
  • Roubo de dados sigilosos.

  • Fraudes financeiras causadas por manipulação de funcionários.

  • Vazamento de informações estratégicas.

  • Danos à reputação causados por fake news ou deepfakes.

  • Perda de controle sobre identidade digital (contas corporativas invadidas e usadas para espalhar malware).

Para usuários:
  • Golpes financeiros.

  • Invasão de contas pessoais (redes sociais, e-mails, bancos).

  • Extorsão com base em conteúdos manipulados.

  • Roubo de identidade.

  • Uso indevido de imagens e vídeos em montagens falsas.

Como se proteger dessas ameaças?
1. Educação e conscientização

A primeira linha de defesa continua sendo o conhecimento. Funcionários e usuários precisam saber identificar e-mails suspeitos, links maliciosos e abordagens manipuladoras.

2. Autenticação em dois fatores (2FA)

Sempre que possível, ative a autenticação em dois fatores nas suas contas. Isso reduz drasticamente o risco de invasões, mesmo que a senha seja comprometida.

3. Ferramentas de segurança atualizadas

Utilize antivírus e firewalls confiáveis. Muitas soluções atuais já incorporam mecanismos de detecção com IA para identificar padrões suspeitos.

4. Análise de comportamento (UEBA)

Empresas podem usar sistemas de análise de comportamento para identificar acessos fora do padrão, ações automatizadas e tentativas de invasão.

5. Verificação de identidade

No caso de empresas, sempre verifique transferências ou decisões importantes por mais de um canal. Nunca confie apenas em uma mensagem, mesmo que pareça vir de um superior.

O papel da regulação e da ética

A crescente sofisticação das ferramentas de IA também tem mobilizado autoridades em todo o mundo. Projetos de lei e regulamentações estão sendo propostos para controlar o uso de IA em ambientes críticos e punir o uso malicioso da tecnologia.

Além disso, as próprias plataformas que desenvolvem IA generativa estão ampliando os filtros, criando sistemas de detecção de uso indevido e promovendo iniciativas de ética em IA.

Mas, como sempre, a tecnologia avança mais rápido do que a regulação — por isso, o cuidado individual e corporativo continua sendo essencial.

Conclusão

A inteligência artificial generativa é uma das tecnologias mais transformadoras da atualidade — mas, como qualquer ferramenta poderosa, ela pode ser usada tanto para o bem quanto para o mal.

Cibercriminosos estão se aproveitando das capacidades dessas IAs para criar golpes mais convincentes, automatizar ataques e aumentar o alcance de suas ações. O que antes exigia conhecimento técnico agora pode ser feito com poucos cliques.

Proteger-se nesse novo cenário exige mais do que ferramentas: é preciso informação, vigilância e preparação constante. Compreender como esses ataques funcionam é o primeiro passo para não ser vítima deles.

Fontes e referências
  • Europol – Innovation Lab Report: ChatGPT and the Impact of LLMs on Law Enforcement

  • MIT Technology Review – How AI is changing cybercrime

  • Trend Micro – Crime-as-a-Service and the role of AI

  • The Hacker News – AI-generated phishing emails are becoming alarmingly convincing

  • Kaspersky – Deepfake scams on the rise in 2023

  • Check Point – Cybersecurity Predictions for 2024

  • Wired – How hackers are abusing generative AI