IA nas Eleições 2026: a tecnologia que pode destruir reputações, fabricar mentiras e responsabilizar candidatos

Como a IA virou arma eleitoral e por que a perícia digital se tornou indispensável em 2026

1. “IA, quem é o melhor candidato?”

Imagine um eleitor indeciso às vésperas do pleito. Ele abre um chatbot de inteligência artificial (pode ser o ChatGPT, o Gemini, o Copilot ou o Claude) e digita uma pergunta direta: “IA, quem é o melhor candidato?” Essa cena concentra em si mesma o núcleo do desafio democrático que a IA impõe à política contemporânea.

O problema não está apenas na resposta que o sistema poderia dar. Está na percepção de neutralidade que o eleitor atribui à tecnologia. Na política, jornais e influenciadores são reconhecidos como tendo inclinações, mais à esquerda ou à direita. Chatbots, ao contrário, parecem processadores frios de informação objetiva. O risco é exatamente esse: eleitores que tratam como verdade imparcial o que é, na verdade, resultado de probabilidades estatísticas construídas sobre dados que podem conter erros e vieses.

Levantamento da Agência Lupa apontou que a proporção de conteúdos de desinformação produzidos com apoio de IA no Brasil saltou de 4,65% em 2024 para 25,77% em 2025, com quase 45% desses materiais apresentando viés político.

Entre dezembro de 2025 e fevereiro de 2026, dois em cada três conteúdos políticos gerados por inteligência artificial circularam nas redes sem qualquer identificação de sua natureza sintética. O Brasil chega a outubro com 155 milhões de eleitores aptos a votar e com um ecossistema digital em que IA barata, acessível e anônima pode moldar preferências sem que o cidadão sequer perceba.

2. A democratização que também ameaça

Há um argumento legítimo a favor da IA nas campanhas: ela democratiza o acesso à comunicação política. Candidatos a cargos proporcionais, como vereadores, deputados estaduais e federais, que historicamente disputam com poucos recursos, agora podem produzir texto, arte gráfica e vídeo a uma fração do custo anterior. O que antes exigia uma agência de publicidade e um orçamento robusto hoje pode ser feito com um prompt bem formulado.

Esse é o lado luminoso. O lado sombrio é que a mesma facilidade se aplica à desinformação. Perfis falsos alimentados por IA, avatares gerados com ferramentas como Gemini e Flow com milhares de seguidores, vídeos com vozes e rostos sintéticos de candidatos reais: tudo isso opera numa escala que seria impossível sem a tecnologia. E o faz, muitas vezes, sem que haja qualquer identificação de que se trata de conteúdo artificial.

A ausência de rotulagem é o agravante decisivo. Sem ela, a propaganda sintética e a orgânica se misturam no feed do eleitor de forma indistinguível. Avatares de IA que criticam adversários ganham engajamento como se fossem pessoas reais.

Quando o conteúdo beneficia um candidato, mesmo que ele não o tenha criado diretamente, a Justiça Eleitoral pode responsabilizá-lo, a depender de certas circunstâncias a serem constatadas. O próprio TSE estabelece que o descumprimento das regras sobre IA na propaganda pode configurar abuso do poder político e uso indevido dos meios de comunicação social, com consequência possível de cassação do registro de candidatura ou do mandato eleitoral. A jurisprudência do TSE é consolidada no sentido de que a responsabilidade do beneficiário pode ser reconhecida por indícios, sem necessidade de prova direta de participação.

3. O que o TSE construiu: As Novas Regras para 2026

O Tribunal Superior Eleitoral aprovou para as eleições de 2026 um total de 14 resoluções que cobrem o conjunto do processo eleitoral: calendário, registro de candidatura, financiamento, pesquisas eleitorais, ilícitos, propaganda digital e uso de inteligência artificial. Não são 14 resoluções sobre IA, mas a IA aparece de forma transversal em várias delas, com destaque para a Resolução n.º 23.748, aprovada por unanimidade em 2 de março de 2026, relatada pelo ministro Nunes Marques, que modificou e aprofundou a Resolução TSE n.º 23.610/2019 sobre propaganda eleitoral. Especialistas apontam que o conjunto representa a abordagem regulatória mais abrangente já estruturada pelo TSE sobre inteligência artificial no processo eleitoral.

3.1 A “Lei Seca” Digital

A medida de maior impacto prático é o que se convencionou chamar de “lei seca da IA”. Pelas novas regras, é proibida a publicação, republicação ou impulsionamento de conteúdos gerados ou manipulados por inteligência artificial que usem imagem ou voz de candidatos e figuras públicas no período compreendido entre 72 horas antes do pleito e 24 horas após a votação. Quem descumprir fica sujeito à remoção imediata do conteúdo pelas plataformas digitais.

A fundamentação para a janela de restrição é o chamado “efeito calúnia de véspera”: conteúdos sintéticos publicados às vésperas da eleição, quando não há mais tempo para refutação, causam dano eleitoral desproporcional e irreparável.

3.2 Rotulagem obrigatória

Todo conteúdo de propaganda eleitoral criado ou alterado por IA deve exibir um aviso claro, visível e de fácil compreensão. O objetivo é garantir que o eleitor saiba o que está consumindo. A regra alcança chatbots como ChatGPT, Gemini e Grok e levanta questões práticas sobre como empresas que operam globalmente adaptarão seus produtos ao período eleitoral brasileiro.

3.3 Proibição de recomendar candidatos

Provedores que oferecem sistemas de inteligência artificial estão expressamente proibidos de ranquear, recomendar ou favorecer candidatos e partidos. A vedação visa a impedir a interferência desses sistemas na decisão de voto. O descumprimento pode ensejar remoção imediata do conteúdo e multa de R$ 5 mil a R$ 30 mil, nos termos do art. 57-D da Lei n.º 9.504/1997, sendo que a remoção não impede a aplicação da penalidade.

3.4 Vedação expressa a deepfakes e deepnudes

A resolução proíbe de forma específica a criação e circulação de deepfakes eleitorais, ou seja, conteúdos que reproduzam sinteticamente a imagem ou a voz de candidatos em situações que não ocorreram. A vedação expressa a deepnudes, motivada pela controvérsia envolvendo o Grok no início de 2026, fecha uma frente que a regulação anterior não cobria de forma específica, com proteção reforçada para candidatas mulheres.

3.5 Responsabilidade solidária das plataformas

A Justiça Eleitoral conta com a responsabilidade solidária das big techs que controlam redes sociais e desenvolvem sistemas de IA, entre elas Google, Meta, TikTok, Microsoft, OpenAI e X. Isso significa que as plataformas não podem se eximir alegando que o conteúdo foi produzido por terceiros. Pela norma, o provedor que detectar ou for informado sobre a veiculação de conteúdo ilícito deve adotar providências imediatas para cessar o impulsionamento, a monetização e o acesso ao conteúdo.

O art. 9º-E da Resolução n.º 23.610 já autorizava, desde 2024, a remoção de conteúdo equivalente ao já derrubado sem nova ordem judicial. A Resolução n.º 23.755, de 2 de março de 2026, reforçou e ampliou esse mecanismo, que até agora não havia sido verdadeiramente testado em escala. Outubro de 2026 será o seu primeiro grande exame:

Art. 9º-E. Os provedores de aplicação serão solidariamente responsáveis, civil e administrativamente, quando não promoverem a indisponibilização imediata de conteúdos e contas, durante o período eleitoral, nos seguintes casos de risco: (Incluído pela Resolução nº 23.732/2024)

VI – de publicações que reproduzam, no todo ou em parte, conteúdo idêntico ou substancialmente equivalente àquele que já tenha sido objeto de ordem de indisponibilização pela Justiça Eleitoral, no exercício do poder de polícia ou no âmbito de ações eleitorais, quando os provedores de aplicação, cientes da decisão, deixarem de promover sua indisponibilização imediata, independentemente de nova ordem judicial específica.

Durante o período eleitoral, a Resolução TSE nº 23.732/2024 (que alterou a Res. 23.610/2019) passou a prever, no art. 9º-E, a responsabilidade civil e administrativa solidária dos provedores de aplicação que não promoverem a indisponibilização imediata de conteúdos irregulares, como desinformação, deepfakes sem rotulagem ou material que comprometa a integridade do pleito.

Essa responsabilização não cria uma pena própria na resolução, mas atrai para as plataformas o regime sancionatório já existente na Lei nº 9.504/1997, especialmente o art. 57-D, que autoriza a aplicação de multa por veiculação ou manutenção de propaganda eleitoral irregular na internet, além da possibilidade de a Justiça Eleitoral impor obrigações de veiculação de conteúdo corretivo, ordens judiciais específicas e demais medidas coercitivas. Assim, se a plataforma deixa de agir, ela pode ser multada, compelida judicialmente e ainda responder civilmente por danos decorrentes da omissão, ao lado do autor do conteúdo.

3.6 Inversão do ônus da prova

Uma inovação processual relevante perpassa todo o regime: a Resolução n.º 23.748 admite a inversão do ônus da prova em processos que discutam manipulação digital, nos casos em que a comprovação da irregularidade se mostrar excessivamente onerosa para o autor da ação. Nesses casos, caberá ao responsável pela propaganda demonstrar como a tecnologia foi aplicada e comprovar a veracidade das informações. Isso altera fundamentalmente a dinâmica dos litígios eleitorais envolvendo conteúdo sintético.

3.7 Parcerias para Perícia Técnica em IA

Reconhecendo que a Justiça Eleitoral não tem condições de enfrentar sozinha o ciclo de novidades tecnológicas, os Tribunais Eleitorais poderão firmar acordos com universidades e órgãos especializados para perícia em IA. Esse reconhecimento vai além da estrutura judiciária: ele abre espaço para que peritos especializados atuem como parte essencial da estratégia de defesa e proteção de campanhas.

Para candidatos e partidos, a perícia técnica tem duas faces. A face ofensiva é a denúncia: produzir laudo que demonstre que um conteúdo foi gerado ou manipulado por IA pode ser o elemento que sustenta uma representação por propaganda ilícita contra o adversário. A face defensiva é igualmente relevante: quando a campanha for acusada de usar conteúdo sintético indevidamente, o laudo pericial pode comprovar a licitude do material ou demonstrar que a manipulação partiu de terceiros, afastando a responsabilidade do candidato. Sem esse suporte técnico especializado, a campanha fica vulnerável tanto a ataques quanto a acusações infundadas.

3.8 O Canal de denúncia: SIADE

Para fechar o ciclo, o TSE mantém o Sistema de Alertas de Desinformação Eleitoral (SIADE), pelo qual qualquer cidadão pode enviar conteúdos falsos ou fora de contexto que possam causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral.

4. As lacunas que ficaram em aberto

As regras do TSE representam um avanço significativo, mas deixam questões práticas e jurídicas relevantes sem resposta definitiva.

4.1 Qual é o crime de quem contorna a proibição?

A pergunta que juristas e operadores políticos fazem é direta: o que acontece com quem deliberadamente instrui um sistema de IA a indicar candidatos, burlando os filtros? As sanções eleitorais (multa de R$ 5 mil a R$ 30 mil) são proporcionais ao dano potencial? A resposta honesta é que o arcabouço penal ainda não deu resposta específica a esse tipo de contorno. A penalidade pode ser insuficiente para atores com recursos financeiros robustos e interesse estratégico no resultado eleitoral.

4.2 A Responsabilidade civil e a invisibilidade do autor

A inteligência artificial cria um problema estrutural de responsabilização: sem identificar a pessoa por trás do conteúdo, a denúncia perde peso e a vítima perde acesso à reparação civil. Perfis falsos, avatares de IA e aliases operam numa zona cinzenta em que a autoria real é difícil de rastrear. Isso diminui o custo efetivo da desinformação. Quem produz conteúdo falso com IA tem muito menos a perder do que quem assina uma mentira com o próprio nome.

É exatamente nesse ponto que a atuação de peritos especializados se torna indispensável. Identificar a origem técnica de um conteúdo sintético, rastrear metadados, correlacionar padrões de publicação e construir a cadeia de indícios necessária para uma representação eleitoral sólida são tarefas que estão fora do alcance das campanhas sem apoio especializado. O campo jurídico ainda está sendo construído, e quem atua nele agora ajuda a definir os precedentes.

4.3 O TSE está preparado para reagir em tempo real?

A velocidade de produção e disseminação de conteúdo sintético é incompatível com os ritos tradicionais da Justiça Eleitoral. Um deepfake viral na véspera de eleição pode circular por horas antes de ser derrubado e nesse intervalo já causou seu dano.

As resoluções de 2026 avançaram ao impor às plataformas remoção imediata mediante notificação, seja do TSE, de candidatos ou por iniciativa do próprio provedor. Uma vez removido um conteúdo, os equivalentes que surgirem na sequência devem ser derrubados automaticamente, sem necessidade de nova ordem judicial.

Na prática, isso significa que a velocidade de resposta depende de quem detecta o conteúdo, com que rapidez aciona e com que qualidade técnica documenta a irregularidade. Campanhas sem estrutura de monitoramento e sem suporte jurídico especializado chegam tarde, com prova fraca ou sem ela.

4.4 A Fiscalização de regras locais sobre atores globais

Há uma tensão estrutural entre o alcance territorial da regulação brasileira e a natureza global dos sistemas de IA. O Brasil está entre os pioneiros mundiais na regulação específica de IA em eleições, enquanto países como os da União Europeia ainda dependem de normas gerais como o AI Act para tentar cobrir o ambiente eleitoral. Mesmo assim, exigir que ChatGPT, Gemini e Grok modifiquem seu comportamento durante o período eleitoral brasileiro é juridicamente complexo. A capacidade de enforcement do TSE sobre empresas com sede nos Estados Unidos depende, em grande medida, da cooperação voluntária das próprias plataformas.

5. A questão que permanece

O Brasil está entre os primeiros países do mundo a realizar eleições gerais sob um conjunto de regras que tentam enfrentar a IA de forma sistêmica. A Resolução n.º 23.748/2026 é descrita por especialistas como a abordagem regulatória mais abrangente já estruturada pelo TSE sobre o tema. Isso é motivo de reconhecimento: o Tribunal agiu antes que a omissão se tornasse irreparável.

Mas as regras, por mais bem construídas que sejam, são apenas um elo da corrente. A eficácia depende de fiscalização veloz, cooperação das plataformas, capacidade técnica dos tribunais e, talvez o mais difícil, de um eleitor informado sobre os riscos que corre ao confiar em chatbots para orientar sua escolha política.

A inteligência artificial pode ser aliada: democratiza a comunicação, dá voz a candidatos pequenos, torna a informação mais acessível. Mas pode ser adversária quando usada para fabricar realidades, simular consensos e construir reputações sem substância. A diferença está em quem controla o quê e com que transparência.

O campo de jogo foi nivelado pela tecnologia, mas em todas as direções. Candidatos menores ganharam voz. Mentiras ficaram mais baratas. E o eleitor, no meio disso tudo, ainda precisa decidir em quem confiar.

O que definirá o resultado não será a tecnologia em si, mas a capacidade de cada campanha de utilizá-la dentro dos limites legais e, sobretudo, de responder com rapidez técnica e provas concretas quando for alvo de usos ilícitos por terceiros. Em 2026, compliance eleitoral e perícia digital deixaram de ser diferenciais estratégicos, mas passaram a ser condições básicas de sobrevivência jurídica e reputacional no ambiente eleitoral digital.

6. Proteja sua campanha antes que a IA seja usada contra você

As regras do TSE criaram um ambiente mais exigente, mas também mais arriscado para candidatos desprevenidos. Conteúdo sintético circula rápido. Responsabilização vem depois. Sem suporte técnico e jurídico especializado, uma campanha pode ser vítima de deepfakes que destroem reputações em horas, sofrer acusações de uso indevido de IA sem meios de se defender com evidências, perder o registro ou o mandato por conteúdo que terceiros produziram em seu nome, e não saber como documentar e reportar ao TSE uma irregularidade cometida pelo adversário.

Atuamos na intersecção entre direito digital eleitoral e perícia técnica para oferecer a campanhas e candidatos:

  • Análise e laudo pericial de conteúdos suspeitos de manipulação por IA
  • Assessoria preventiva sobre conformidade com as Resoluções TSE n.º 23.748 e 23.755/2026
  • Estratégia de resposta rápida em casos de deepfake ou desinformação contra a campanha
  • Representações eleitorais fundamentadas em prova técnica contra o uso ilícito de IA por adversários
  • Atuação na construção da prova digital: perícia em conteúdo sintético, documentação certificada de respostas de sistemas de IA e suporte a pedidos de registros de acesso junto a provedores, no âmbito de representações eleitorais.
  • Treinamento de equipes de campanha para identificar e documentar conteúdo sintético

Eleições se ganham e se perdem em horas, fique atento!

Referências Normativas

• Resolução TSE n.º 23.748, de 2 de março de 2026 — regulamentação do uso de IA na propaganda eleitoral

• Resolução TSE n.º 23.755, de 2 de março de 2026 — alterações à Resolução n.º 23.610/2019

• Resolução TSE n.º 23.610, de 18 de dezembro de 2019 — desinformação na propaganda eleitoral (texto base)

• Lei n.º 9.504/1997, art. 57-D — sanções para descumprimento de regras sobre propaganda digital

• TSE — Sistema de Alertas de Desinformação Eleitoral (SIADE)

• TSE — Eleições 2026: conjunto de 14 resoluções aprovadas em sessão administrativa de 2 a 4 de março de 2026