CAPACrédito e Cobrança

A Era da Incerteza: Como a Inteligência Artificial Ameaça a Verdade nas Eleições

Deepfakes, desinformação e o impacto da IA generativa na integridade democrática e no futuro das eleições no Brasil e no mundo

Vivemos em uma era de avanços tecnológicos sem precedentes, onde a inteligência artificial (IA) generativa redefine os limites da criação de conteúdo. Ferramentas como o Sora da OpenAI e o Veo 3 do Google agora podem gerar vídeos de um realismo impressionante a partir de simples comandos de texto (1 2) . O que antes era domínio de

estúdios de Hollywood, hoje está ao alcance de qualquer pessoa com um computador. Essa democratização da tecnologia, no entanto, traz consigo uma ameaça iminente e profunda à nossa democracia: a proliferação de deepfakes e a crescente dificuldade em distinguir o que é real do que é fabricado.

Um exemplo recente que viralizou nas redes sociais brasileiras, acumulando mais de quatro milhões de visualizações, mostra o presidente Lula e o ex-presidente Jair Bolsonaro com gestos e expressões faciais idênticos e sincronizados, uma criação digital que serve como um alerta contundente para as eleições de 2026 (3) . A mensagem do criador do vídeo é clara: “Cuidado com o que você irá assistir e ouvir. Nem tudo que você verá será real”.

Essa preocupação não é infundada. O uso de vídeos e áudios manipulados para fins maliciosos já é uma realidade em processos eleitorais ao redor do mundo. Em janeiro de 2024, nos Estados Unidos, um deepfake da voz do presidente Joe Biden foi utilizado para desencorajar eleitores a participar das primárias em New Hampshire (4). Na Indonésia, um partido político usou IA para “ressuscitar” o ditador Suharto em um vídeo de campanha. Na Índia, memes gerados por IA foram amplamente utilizados para ridicularizar oponentes políticos (4) .

No Brasil, as eleições municipais de 2024 já nos deram um vislumbre do que está por vir. Vimos um aumento expressivo no número de processos na Justiça Eleitoral relacionados a deepfakes, que saltaram de apenas 3 em 2022 para 109 em 2024 (3) . Os casos variam desde a criação de conteúdo de teor sexual para atacar candidatas até a manipulação de vídeos para simular o apoio de figuras políticas já falecidas (3).

Especialistas alertam para o que chamam de “morte por mil cortes”. Não se trata apenas de um único vídeo falso que pode decidir uma eleição, mas da poluição constante do ecossistema de informação, que leva ao ceticismo generalizado e à erosão da confiança nas instituições e na própria realidade. Como aponta Zeve Sanderson, pesquisador da Universidade de Nova York, a IA é usada não apenas para enganar, mas para criar narrativas que reforçam bolhas e vieses, fazendo um candidato parecer mais patriótico e seu oponente, mais nefasto (4).

Diante deste cenário, a reação das autoridades tem sido crucial. O Tribunal Superior Eleitoral (TSE) no Brasil se antecipou e, por meio da Resolução nº 23.732/2024, proibiu o uso de deepfakes em propagandas eleitorais, estabelecendo penas que podem chegar à cassação do registro ou do mandato (3). A resolução também obriga a sinalização de conteúdo gerado por IA e responsabiliza as grandes plataformas de tecnologia pela remoção de desinformação (3).

Contudo, a regulamentação por si só não é suficiente. A batalha contra a desinformação na era da IA exige uma sociedade mais crítica e educada digitalmente. É imperativo que cada cidadão desenvolva o hábito de questionar, verificar as fontes e desconfiar de conteúdos que parecem “bons demais” ou “ruins demais” para ser verdade. A vigilância coletiva, aliada ao trabalho incansável do jornalismo profissional e das agências de checagem, será nossa principal linha de defesa.

As eleições de 2026 serão um teste de fogo para a nossa democracia. A linha entre a verdade e a ficção nunca foi tão tênue. Em um mundo onde “ver para crer” já não é mais uma garantia, a responsabilidade de proteger a integridade do debate público recai sobre todos nós. A era da incerteza exige uma era de ceticismo saudável e de compromisso renovado com a verdade.

Referências

  1. OpenAI. (2025). Sora 2 is here. Recuperado de
  2. G1. (2025 ). Veo 3: IA de vídeos realistas do Google bomba nas redes. Recuperado de
  3. Estado de Minas. (2025 ). Proliferação de deepfakes com IA exige cautela redobrada em ano de eleição. Recuperado de
  4. NPR. (2024 ). How AI deepfakes polluted elections in 2024.

Diego Dalledone

Diego é Diretor Geral na Trabbe, com mais de 20 anos de experiência em atendimento ao cliente e paixão por tecnologia. Ele passou por empresas como Carsystem e Callflex, aprimorando suas habilidades em soluções digitais. Com formação em Administração e pós-graduação, destaca-se por sua visão estratégica, expertise em IA, e liderança de equipe. Diego possui vasta experiência na implementação de soluções digitais e estratégias para melhorar a satisfação e fidelização de clientes. Seu objetivo é usar a tecnologia para otimizar a experiência do cliente e impulsionar o sucesso das empresas no ambiente digital.

Artigos relacionados