Inteligência artificial e eleições: deepfakes acendem alerta para 2026

Da Redação
[email protected]
O uso da inteligência artificial (IA) nas redes sociais tem gerado preocupação crescente entre especialistas e autoridades, principalmente por conta do potencial de manipulação de informações em ano eleitoral. A prática, que já chamou a atenção da Justiça Eleitoral nas eleições passadas, deve se intensificar ainda mais em 2026, com o avanço dos chamados vídeos deepfake — conteúdos ultrarrealistas que utilizam voz e imagem manipuladas de figuras públicas para espalhar desinformação.
O alerta vem do aumento expressivo de processos envolvendo conteúdos falsos gerados por IA. Em 2022, apenas três ações foram registradas na Justiça Eleitoral. Em 2024, esse número saltou para 109. Só neste ano, já são 51 casos em tramitação, de acordo com dados do Diário Eletrônico da Justiça. A tendência, segundo especialistas, é que esses números se multipliquem no próximo ciclo eleitoral.
Para a professora da USP e pesquisadora Pollyana Ferreira, o cenário é consequência direta da popularização de ferramentas de IA generativa, como o ChatGPT, lançado em 2022. “Antes, para manipular um conteúdo, era necessário muito dinheiro e profissionais especializados. Hoje, qualquer pessoa pode criar um vídeo falso com poucos cliques e quase nenhum custo”, explica.
Casos recentes mostram o quanto os vídeos deepfake podem ser perigosos. Um deles envolveu o presidente Lula, alvo de conteúdos manipulados que o colocavam como responsável por um suposto “quarto secreto” para guardar dinheiro roubado do INSS. Outro vídeo circulava anunciando um benefício do Bolsa Família para mães de bebês reborn, gerado a partir de uma entrevista real do presidente em 2021. Ambos foram desmentidos por órgãos oficiais.
O ministro Fernando Haddad também precisou reagir a um vídeo falso em que ele anunciava um imposto sobre “cachorrinhos de estimação e grávidas”. A gravação foi alterada por IA e chegou a ser compartilhada por políticos, como o deputado federal Osmar Terra. Em resposta, a Advocacia-Geral da União (AGU) solicitou a remoção do conteúdo das redes sociais, com parte dos pedidos sendo atendida.
Em meio a esse cenário, o Supremo Tribunal Federal (STF) decidiu recentemente que as plataformas digitais podem ser responsabilizadas por conteúdos ilegais, mesmo sem decisão judicial. A medida aumenta a pressão sobre as redes sociais, que agora precisam agir com mais rapidez para evitar a disseminação de falsificações.
No Tribunal Superior Eleitoral (TSE), a regra atual libera o uso de IA apenas quando há identificação explícita de que o conteúdo foi gerado artificialmente. Deepfakes, por sua vez, continuam proibidas. Ainda assim, denúncias envolvendo adulterações de imagens e áudios já chegaram à polícia e ao Judiciário em diversos estados.
A preocupação não se limita ao Brasil. Em países como Argentina, Estados Unidos e França, conteúdos manipulados já interferiram em processos eleitorais recentes. Em Buenos Aires, um vídeo mostrava falsamente o ex-presidente Mauricio Macri pedindo votos para o rival Javier Milei. Nos EUA, um áudio alterado do presidente Joe Biden tentava desestimular eleitores às vésperas de uma primária. E na França, perfis falsos no TikTok usaram personagens de IA se passando por parentes da candidata Marine Le Pen.
Para o cientista político Murilo Medeiros, da Universidade de Brasília (UnB), o uso irresponsável dessas tecnologias pode minar a confiança nas eleições. “A manipulação digital pode induzir o eleitor ao erro e enfraquecer a democracia. É um risco que precisa ser combatido com urgência”, conclui.
Enquanto isso, no Congresso, seguem parados os projetos que visam regulamentar o uso de IA no país. Com o crescimento dessa ameaça, a pressão por soluções legislativas e técnicas tende a aumentar nos próximos meses.