A Ameaça da Desinformação Gerada por IA: Um Risco Global Emergente

TENDÊNCIASCIBERSEGURANÇA

Ricardo Gonçalves

1/7/20253 min read

O Relatório de Riscos Globais 2024 (Fórum Econômico Mundial) destaca a desinformação e a má informação gerada por Inteligência Artificial (IA) como um dos principais riscos globais que exigem atenção urgente. Este relatório, baseado em dados do Global Risks Perception Survey (GRPS) de 2023-2024, analisa os riscos globais em três horizontes temporais para apoiar os decisores no equilíbrio entre as crises atuais e as prioridades a longo prazo.

A desinformação e a má informação, impulsionadas pela acessibilidade crescente a ferramentas de IA, tornaram-se uma ameaça global que pode afetar os processos eleitorais, polarizar sociedades, e escalar conflitos. A facilidade com que conteúdos sintéticos falsificados podem ser criados, incluindo deepfakes sofisticados, torna difícil a distinção entre conteúdo real e fabricado.

  • Tecnologia acessível: As interfaces de fácil utilização para modelos de IA em larga escala permitiram uma explosão de informações falsificadas.

  • Conteúdo Sintético: A capacidade de criar conteúdos sintéticos, como vídeos e áudios falsos, aumentou drasticamente, dificultando a verificação da veracidade da informação.

  • Amplificação da Desconfiança: A desconfiança crescente nas fontes de informação tradicionais, como a mídia e os governos, amplifica o impacto da desinformação e da má informação.

O relatório alerta para a capacidade da desinformação e da má informação de manipular indivíduos, prejudicar economias e fraturar sociedades. Este tipo de conteúdo pode ser utilizado para fins diversos, desde o ativismo climático até à escalada de conflitos.

  • Perturbação de processos eleitorais: A desinformação e a má informação podem ser usadas para minar a legitimidade das eleições em várias economias, o que pode resultar em agitação social.

  • Polarização social: A desinformação e a má informação são vistas como os riscos mais fortemente interligados na rede de riscos, com o maior potencial de se amplificarem mutuamente. Sociedades polarizadas são mais propensas a confiar em informações (verdadeiras ou falsas) que confirmam suas crenças.

  • Novos tipos de crimes: A criação de deepfakes de pornografia não consensual e a manipulação de mercados financeiros são exemplos de novos tipos de crimes que podem proliferar com a desinformação.

  • Erosão dos direitos humanos: A tentativa de combater a desinformação por parte dos governos pode levar à repressão e à erosão dos direitos humanos.

A regulamentação da IA generativa e da desinformação está em estágios embrionários, mas a velocidade e a eficácia das medidas regulamentares são lentas, não acompanhando o ritmo acelerado de desenvolvimento tecnológico.

  • Regulamentação em evolução: Os governos estão começando a implementar regulamentações para combater a disseminação de desinformação e conteúdo ilegal online.

  • Desafios na detecção: A diferença entre o conteúdo gerado por IA e o conteúdo gerado por humanos está tornando-se mais difícil de detetar, mesmo para os mecanismos de detecção.

  • Subfinanciamento da inovação: A área de inovação relacionada com a detecção de desinformação está subfinanciada em comparação com a tecnologia subjacente.

A IA, em especial a IA generativa, está transformando a forma como a desinformação é criada e disseminada.

  • Personalização da desinformação: A IA pode personalizar a desinformação para grupos específicos, como minorias, e distribuí-la através de plataformas de mensagens menos responsivas às regulamentações.

  • Dificuldade na identificação: A IA torna difícil identificar a origem da desinformação, e mesmo que o conteúdo sintético seja rotulado, esses rótulos podem não ser visíveis aos consumidores.

  • Amplificação da desinformação: A IA pode aumentar o alcance e a eficácia da desinformação, tornando mais difícil controlar o seu fluxo.

O relatório propõe várias medidas para combater a desinformação e a má informação:

  • Educação e Conscientização Pública: A inclusão da literacia em IA nos sistemas de educação e o treino de jornalistas e decisores são essenciais.

  • Regulamentação Nacional e Local: Estabelecer padrões robustos e flexíveis para garantir que o desenvolvimento e a implantação da tecnologia estejam alinhados com as necessidades sociais.

  • Tratados e Acordos Globais: A cooperação entre as potências mundiais é essencial para controlar a proliferação de tecnologias de alto impacto e a escalada inadvertida na IA militar.

  • Engajamento Multi-stakeholder: A colaboração entre diversos setores, incluindo governo, setor privado, academia e sociedade civil, é essencial para enfrentar esse desafio complexo.

A desinformação e a má informação gerada por IA representam um risco significativo para o futuro, com o potencial de desestabilizar sociedades e minar a confiança nas instituições. A adoção de medidas proativas e colaborativas é crucial para mitigar os impactos negativos e garantir que a tecnologia seja utilizada para o bem comum. O Relatório de Riscos Globais 2024 serve como um alerta, destacando a necessidade urgente de ação para proteger as sociedades das ameaças da desinformação e da má informação gerada por IA.

https://www3.weforum.org/docs/WEF_The_Global_Risks_Report_2024.pdf