IA amplia riscos de desinformação em ano eleitoral e exige atenção

Desafios

IA amplia riscos de desinformação em ano eleitoral e exige atenção

Especialistas alertam para conteúdos cada vez mais realistas e reforçam a importância da verificação antes do compartilhamento

Por

IA amplia riscos de desinformação em ano eleitoral e exige atenção
Ferramentas de IA estão substituindo os mecanismos de pesquisa. (Foto: Divulgação)

O tradicional 1º de abril, conhecido como o “dia da mentira”, ganha um novo significado em 2026. Em um ano eleitoral, o avanço da inteligência artificial tem ampliado os riscos de desinformação, com conteúdos cada vez mais sofisticados e difíceis de identificar.

Para a professora de Jornalismo da Universidade Federal de Pelotas (UFPel), Silvia Meirelles, doutora em informática na educação e pós-doutora em jornalismo, a principal mudança está na forma como as pessoas acessam e validam informações. Segundo ela, ferramentas de inteligência artificial generativa estão se tornando referência para muitos usuários, substituindo mecanismos tradicionais de busca. “Hoje, muitos estudantes já não pesquisam mais no Google, mas diretamente em ferramentas de inteligência artificial generativa, como ChatGPT ou Gemini. É preocupante usar bases de conhecimento que não citam as fontes e podem gerar respostas distorcidas”, afirma.

A professora alerta para o risco de decisões serem tomadas com base em informações incorretas. “A inteligência artificial quer te dar uma resposta, mesmo quando não tem certeza. Isso pode levar as pessoas a acreditar em conteúdos que já foram desmentidos por fontes confiáveis”, explica.

Dificuldade de identificar conteúdos manipulados

O principal desafio está na identificação de conteúdos falsos. Com a evolução das ferramentas, imagens, vídeos e áudios manipulados se tornaram mais realistas. “Antes a IA não conseguia fazer mão, cabelo e movimento da boca. Com a revolução do ano passado, se produz imagem e vídeo com muita perfeição. É muito difícil identificar. Se a pele está muito perfeita, por exemplo, tem grandes chances de ser IA”, destaca. Ainda segundo ela, a forma mais confiável de identificar a manipulação são com agência especializadas em checagem e nos próprios veículos de comunicação.

A capacidade de enganar, inclusive, não está restrita a públicos desatentos. De acordo com a professora, o nível técnico das produções tem aumentado significativamente. “Os conteúdos estão muito bem feitos. Por isso, mais do que olhar a imagem, é preciso interpretar o contexto e buscar confirmação em fontes confiáveis, como o jornalismo e agências de checagem”, orienta.

Conteúdos falsos podem ter efeitos irreversíveis

O cenário se torna ainda mais sensível em períodos eleitorais, quando conteúdos manipulados podem influenciar diretamente a opinião pública. “A desinformação tem um alcance muito grande. Hoje é possível criar vídeos e áudios falsos de candidatos com muita facilidade. A manipulação é muito perigosa. A gente pode desacreditar ou creditar pessoas com mentiras que podem definir uma eleição”, alerta.

Desinformação vai além da tecnologia

Para o professor Marcus Spohr, dos cursos de Comunicação da Universidade Católica de Pelotas (UCPel), o fenômeno da desinformação vai além da tecnologia e envolve também comportamento e funcionamento cognitivo. Segundo ele, conteúdos falsos se espalham porque exploram emoções e atalhos mentais. “A desinformação opera na lógica da velocidade e do impacto. Ela simplifica realidades complexas e reforça crenças já existentes, o que aumenta o engajamento”, explica.

Spohr destaca que o cérebro humano tende a aceitar informações que confirmam opiniões prévias, o chamado viés de confirmação. Além disso, conteúdos que despertam medo, indignação ou raiva têm maior potencial de circulação. “Não se trata apenas de falta de informação, mas de como o nosso cérebro responde a esses estímulos. Por isso, o combate à desinformação não é só tecnológico, mas também educativo”, completa.

Acompanhe
nossas
redes sociais