Migalhas de Peso

Deepfake e inteligência artificial generativa - desafios regulatórios para as eleições de 2026

Avanço da IA nas campanhas expõe falhas na regulação eleitoral e reacende debate sobre deepfakes desinformação e atualização das regras do TSE.

27/2/2026
Publicidade
Expandir publicidade

A resolução TSE 23.610/19, que disciplina a propaganda eleitoral, ao tratar de deepfake e de inteligência artificial traz, nos atuais termos, uma séria controvérsia pois acaba por dar tratamento incongruente a situações similares. Isso porque, a IA generativa passou a realizar, sem vídeo base, o que antes era típico das deepfakes tornando insuficiente a dicotomia atual.

Este artigo propõe, de maneira sucinta, esclarecer essa complexa temática bem como sugerir um regramento mais alinhado com os avanços tecnológicos contemporâneos. O artigo é também resultado de estudo mais aprofundado apresentado no 14º Ciclo de Debates da ABRADEP - Academia Brasileira de Direito Eleitoral, que ocorreu em outubro de 2025, em Belo Horizonte/MG.

As sugestões normativas resultantes do referido trabalho foram aprovadas em janeiro de 2026 por corpo técnico da ABRADEP, e posteriormente encaminhadas ao TSE como contribuição por ocasião da realização das audiências públicas sobre regras das eleições 2026, que ocorreram de 3 a 5 de fevereiro do corrente.

1. Introdução - Exposição da controvérsia

A tecnologia está tão incorporada ao cotidiano das pessoas que, na atualidade, o senso comum considera “mais fácil imaginar um mundo sem democracia do que um sem internet” (ZIELONKA, 2023).

Tão espantosa quanto essa afirmação é a verificação da alta velocidade com que as transformações tecnológicas ocorrem, de modo que, frequentemente, uma realidade anteriormente posta deixa de ter sustentação de existência em pouco espaço de tempo. Essa situação é especialmente observada em relação à IA - Inteligência Artificial que vivencia um momento de ápice - ou hype, na gíria de quem trabalha e estuda tecnologia.

No âmbito eleitoral verificou-se o fenômeno da digitalização das campanhas, de tal forma que é possível se falar que a nova arena política são as redes sociais (NUNES; PAULA, 2025). E nesse agressivo terreno de disputas a secular prática de hostilização de adversários políticos ganhou uma ferramenta tecnológica de peso: a utilização de mídias sintéticas que se popularizaram com o nome de deepfake.

O termo deepfake surgiu em 2017 envolto em controvérsia, pois associado a comunidades de pornografia no Reddit - rotulando vídeos em que rostos eram trocados por meio de redes neurais para simular cenas explícitas com pessoas famosas (COURA, 2025). Esse rótulo, por carregar esse contexto de exploração nefasta, é desaconselhável como categoria jurídica ampla, haja vista que “além da carga semântica problemática, ele passou a ser usado, de forma atécnica, como [conceito] guarda-chuva para qualquer mídia sintética, confundindo manipulações sobre material pré-existente com criações inéditas de IA generativa” (COURA, 2025). Por conseguinte, “essa imprecisão gera insegurança na aplicação de regras eleitorais [levando a um estado de confusão sobre] o que deve ser proibido de maneira absoluta e o que pode ser permitido com transparência”. (COURA, 2025).

Na realidade, deepfake é uma ferramenta de IA. Ou seja, é uma espécie de um gênero maior que pode ser chamado de ferramentas tecnológicas de produção de mídias sintéticas. Nesse ponto, duas observações são importantes. 

Primeiro, enquanto ferramenta tecnológica, as deepfakes, assim como todas as demais IAs, são ambivalentes. Em outras palavras, a ferramenta em si não é boa ou má - o direcionamento de seu uso é que pode trazer consequências benéficas ou maléficas. Nesse sentido, e embora sem o mesmo destaque, enquadram-se as denominadas “deepfakes do bem”, por exemplo, que possibilitam uma série de benefícios dentre os quais, na seara eleitoral, os de maior e melhor acessibilidade a informações pelo eleitorado, o barateamento de custos de campanhas políticas etc. (ALMEIDA, 2025).

Segundo, em vista do grande avanço tecnológico ocorrido, notadamente pela disponibilização da IA generativa ao público em geral, os pleitos eleitorais passaram a ter um contorno mais controverso quanto à aplicação de dispositivos normativos que anteriormente se mostravam ajustados à realidade. Com a evolução da tecnologia novas formas de produzir conteúdo sintético tornaram-se disponíveis gerando, como acima dito, uma confusão terminológica entre inteligência artificial generativa e deepfakes. Esse entrelaçamento quanto ao resultado no uso dessas tecnologias faz surgir a necessidade de se aprimorar a resolução do TSE que dispõe sobre propaganda eleitoral (resolução TSE 23.610/19, alterada pela resolução 23.732/24), de forma a tornar mais taxativos os comportamentos a serem sindicados.

O quadro situacional acima descrito motivou integrantes da ABRADEP - Academia Brasileira de Direito Eleitoral e Político a participar de um grupo trabalho que, após estudos, fez a propositura da revisão dos arts. 9º-B, 9º-C e 10, §1º-A, da resolução TSE 23.610/19, de modo a sanar uma séria incongruência que se verifica, que é resultante da evolução e popularização das tecnologias acima mencionadas. Explicitando: o referido regramento foi adequado para determinado período de realidade no qual, em suma, as deepfakes eram o recurso tecnológico mais acessível e que lamentavelmente foi utilizado para potencializar ataques de toda ordem nas disputas eleitorais. Não obstante, o passar do tempo e a evolução progressiva da tecnologia fez com que, na atualidade, a utilização de recursos de IA generativa seja muito mais frequente e consideravelmente mais vantajosa para os mesmos fins deletérios. Isto é, estamos diante de mesmas ferramentas tecnológicas, com potencial danoso idêntico, mas que possuem regras diversas.

Isso restou claro ao referido grupo de trabalho quando da discussão de decisões judiciais significativas nesta matéria, a saber: do TRE/SP, do Juízo da 002ª Zona Eleitoral, (1) a Representação por propaganda eleitoral negativa 0600053-54.2024.6.26.0002 (Caso Tábata Amaral); ainda na mesma jurisdição, do Juízo da 278ª Zona Eleitoral de Guarulhos, (2) a Representação eleitoral com pedido de liminar 0600012-35.2024.6.26.0278 (Caso Guarulhos); e do TRE/RJ, do Juízo da 172ª Zona Eleitoral de Armação dos Búzios, (3) a Representação por propaganda eleitoral 0600082-74.2024.6.19.01222 (Caso Região dos Lagos).

Este artigo, portanto, mesmo que de modo mais conciso, buscará alargar a compreensão de uma problemática juridicamente bastante interessante.

2. Análise da problemática

Do exame dos julgados acima citados e de referenciais técnicos acerca dessa temática, constatou-se que os termos do regramento promovido pela resolução TSE 23.610/19 foram apropriados para um estado da arte que não mais encontra referencial no cotidiano atual de quem faz uso dessas tecnologias avançadas. Consequentemente, uma revisão sistêmica e apurada com a realidade contemporânea se mostra necessária, especialmente quando se verifica o teor dos arts. 9º-B e 9º-C e 10, §1º-A, com a redação dada pela resolução TSE 23.732/24.

Os argumentos centrais que apontam para a necessidade de uma revisão sistêmica dos dispositivos acima mencionados podem ser condensados em cinco itens de ponderação, que a seguir são explicitados.

2.1. Mesma tecnologia, regras diversas

Do lado da IA generativa, as ferramentas atuais (texto-para-imagem, texto-para-vídeo e clonagem de voz) conseguem produzir conteúdo totalmente novos sem depender de um vídeo base. Tecnicamente diferem dos “deepfakes” clássicos de face swap treinados sobre acervos da pessoa-alvo, ou seja, dependentes de vídeo base. Porém, como o vocabulário regulatório deu nomes diversos a conteúdos que podem ser gerados a partir da mesma tecnologia, bem como misturou “fabricado” e “manipulado” para designar tanto desinformação quanto usos lícitos com transparência, o Direito ficou com categorias confusas: o mesmo termo ora descreve fraude, ora descreve criação legítima assistida por IA, mas no fundo, atualmente tudo isso pode ser feito a partir da mesma tecnologia, o que exige atualização da legislação e das resoluções eleitorais.

2.2. Questões pontuais que devem ser aprimoradas

O art. 9º-B da resolução TSE 23.610/19 permite o uso de IA para criar, substituir, mesclar, omitir ou sobrepor imagens e sons na propaganda, exigindo aviso “explícito, destacado e acessível que o conteúdo foi fabricado ou manipulado e a tecnologia utilizada.” 

Os principais problemas neste ponto são: (i) terminologia confusa - ao exigir que se informe que o conteúdo foi “fabricado ou manipulado”, a redação associa usos legítimos às mesmas palavras consagradas internacionalmente para desinformação; (ii) delimitação técnica imprecisa - o dispositivo se aplica apenas quando há IA generativa, deixando fora intervenções tradicionais, como edição 3D e pós-produção sem IA, que podem produzir efeitos persuasivos semelhantes; (iii) ônus probatório prático - disputas processuais tenderão a girar sobre “houve IA ou não?”, deslocando o foco do impacto e da veracidade para a ferramenta; (iv) incidência temporal nebulosa - como a resolução estende deveres de transparência também à pré-campanha, art. 3º-C, falta um marco objetivo para definir quando começam as obrigações, o que amplifica o risco de decisões casuísticas.

2.3. Mesmos verbos, mesma tecnologia, consequências e usos distintos

O art. 9º-C, da mesma resolução, por sua vez, veda conteúdos “fabricados ou manipulados” com potencial de dano ao equilíbrio do pleito ou à integridade do processo e, no §1º, proíbe de modo absoluto o uso de “deepfakes” para criar, substituir ou alterar imagem/voz - inclusive com autorização e até quando a pessoa for fictícia.

Os principais pontos críticos nesse tocante são: (i) critério de gravidade subjetivo - “potencial para causar danos” carece de indicadores objetivos (alcance, métricas de difusão, contexto) e convida a decisões divergentes; (ii) redundância conceitual - a redação mistura “conteúdo sintético”, “gerado ou manipulado digitalmente” e “deepfake”, sem critérios técnicos para separar manipulação desinformativa de criação transparente; (iii) choque com o art. 9º-B - os mesmos verbos (criar, substituir, alterar) aparecem como permitidos com transparência (9º-B) e proibidos (9º-C §1º) quando classificados como “deepfake”, mas a norma não oferece um teste operacional para distingui-los; (iv) abrangência excessiva - a proibição vale “ainda que mediante autorização”, o que alcança avatares, dublagens e clones de candidatos usados para reduzir custos e ampliar acessibilidade, mesmo sem intuito enganoso.

2.4. Regulação confusa - duplipensar

O resultado prático dessa dupla engrenagem é um trilema regulatório: a) o 9º-B autoriza IA com transparência; b) o 9º-C caput proíbe desinformação “fabricada ou manipulada” pela gravidade do efeito; c) o 9º-C, §1º proíbe, por si só, “deepfake”, sem um critério técnico verificável - por exemplo, “partiu de material pré-existente identificável para simular identidade alheia” (deepfake clássico) versus “sintetizou conteúdo inédito sem copiar identidade específica” (IA generativa) -, a aplicação oscila e desencoraja usos lícitos que poderiam democratizar a comunicação política, ao mesmo tempo em que nem sempre atinge com precisão as falsificações nocivas.

Em suma, de um lado pode-se tudo, desde que haja transparência e esteja ausente qualquer desinformação. De outro, tudo é proibido, ainda que para o bem, ainda que com autorização dos envolvidos. Contudo, trata-se da mesma tecnologia, conforme dito enfaticamente, o que abre espaço para que em qualquer caso, a depender dos interesses de cada lado, seja feito como que um self-service de dispositivos na defesa de sua tese.

2.5. A busca por uma saída interpretativa segura

A ponderação de todos os elementos acima expostos permite o alinhamento, de algumas conclusões preliminares, no sentido de uma saída interpretativa minimamente segura quanto aos dispositivos normativos mencionados, a saber:

(1) classificar como inteligência artificial proibida (9º-C §1º) a manipulação que reutiliza material pré-existente identificável para simular identidade/voz de pessoa real para o bem ou para o mal, ainda que sob outra denominação. Isso porque, o próprio autor que aparece em um vídeo produzido anteriormente não precisa se valer de qualquer tecnologia para alterar características de conteúdo anterior, bastando gravar novo vídeo. Terceiros não devem, para o bem ou para o mal, ter o direito de alterar vídeo existente do qual não fazem parte, modificando a realidade dos fatos, em nenhuma hipótese;

(2) tratar como IA generativa permitida com transparência (9º-B) a criação inédita que não se ancora em material pessoal prévio nem simula identidade específica. O sujeito detentor dos direitos sobre sua própria imagem, pode usar IA generativa para produzir os mais variados materiais de campanha, desde que respeitem a regra sobre “não desinformar com intuito de obter benefícios eleitorais”;

(3) enquadrar como desinformação vedada (9º-C caput) qualquer uso, com ou sem IA, que produza fato falso ou gravemente descontextualizado com relevância eleitoral mensurável. Isso aproximaria a norma de critérios objetivos (fonte de dados, processo de criação, finalidade e impacto), reduziria litígios sobre a “ferramenta” e recolocaria o foco em veracidade, contexto e gravidade.

Em suma, mostra-se indispensável atualizar a redação dos dispositivos supramencionados para refletir a evolução tecnológica: a IA generativa passou a realizar, sem vídeo base, o que antes era típico das deepfakes tornando insuficiente a dicotomia atual. Ajustes terminológicos (substituir “fabricado/manipulado” por “criado/editado com IA” quando lícito), critérios técnicos de distinção e indicadores objetivos de dano podem preservar a integridade do pleito sem sufocar inovações legítimas, garantindo previsibilidade para candidatos, partidos, plataformas e Judiciário.

Como dito acima, essas conclusões preliminares, bem como o estudo que as embasou, foram levadas para apresentação e discussão plenária no mencionado 14º Ciclo de Debates da ABRADEP. A condução final desse trabalho e suas contribuições são a seguir explicitadas

3. Construindo consensos possíveis

Ante todo o exposto, é possível fazer o alinhamento dos seguintes possíveis pontos de consenso:

(1) é necessário, na prática, a vivência ética humana da utilização cotidiana das múltiplas ferramentas tecnológicas atualmente disponíveis, de tal forma que elas venham ao encontro, de fato, do fortalecimento da democracia e dos valores democráticos. Como toda obra humana, as ferramentas tecnológicas são ambivalentes. Logo, é o emprego ético ou não dessas ferramentas que determina o resultado produzido na esfera de atuação humana, incluindo a eleitoral;

(2) não é mais possível falar de Direito Eleitoral sem que se fale também de tecnologia. Na atualidade, ela permeia todas as fases das campanhas políticas e especialmente as eleitorais. Não obstante, há uma acentuada deficiência de conhecimentos e prática por parte de considerável parcela dos operadores do Direito (integrantes da magistratura, do Ministério Público Eleitoral, serventuários, advocacia etc.)  sobre o uso e consequências de ferramentas tecnológicas, especialmente a IA, o que gera problemas de ineficácia de medidas tanto no âmbito judicial como fora dele. A sofisticação tecnológica não apenas altera o volume de conteúdos, mas exige uma compreensão interdisciplinar: psicologia das emoções, ciência da computação e teoria política. O problema reside tanto na quantidade quanto na complexidade técnica, impondo ao Direito Eleitoral um desafio de adaptação conceptual e probatória (COURA, 2025).

(3) na esfera judicial, o número de casos controversos dessa natureza cresce consistentemente a cada eleição. No que se refere ao uso desvirtuado da IA, um dos primeiros casos notórios foi o que envolveu a então candidata à Prefeitura de São Paulo, Tábata Amaral. Neste caso, num primeiro momento houve o uso de deepfake pela campanha da candidata, que após substituiu a peça de propaganda por outra na qual era empregada uma técnica diversa de manipulação de imagem, porém, não vedada pela Justiça Eleitoral. Houve certa inabilidade por parte dos advogados na condução da exposição na inicial, bem como na análise judicial do caso, resultando em inexitosa a medida judicial então pleiteada. Em linha bastante semelhante foram também os denominados “Caso Guarulhos” e o “Caso Calabreso Búzios”;

(4) a tecnologia para produção de mídias sintéticas evoluiu tanto que na atualidade é possível gerar com facilidade imagens extremamente similares, contudo, produzidas por deepfake e por IA generativa, sem que se perceba alguma diferença significativa que possa identificá-las quanto à ferramenta que efetivamente as produziu. Isso demonstra não apenas o avanço tecnológico em si alcançado, mas a atual inadequação do regramento fixado pela resolução TSE 23.610/19. Isso porque, mantidas as regras vigentes, art. 9º-B e art. 9º-C, § 1º, da mencionada Resolução, ferramentas tecnológicas distintas, mas que produzem mesmo resultado danoso terão injustificadamente tratamentos e consequências jurídicas díspares. Por isso a imprescindibilidade da atualização da resolução TSE 23.610/19, para que se tenha ao menos uma cobertura mínima no aspecto regulatório. Porquanto, lamentavelmente, não se teve o estabelecimento de regras mais aprofundadas via novo Código Eleitoral.

Leia o artigo na íntegra.

Autores

Alexandre Basílio Coura Professor de Direito Digital e Direito Eleitoral, Servidor Público Federal, graduado em Direito, Ciência Política e Redes de Computadores. Mestrando em Ciência Política e Graduando em Engenharia de Computadores.

Karine Borges de Liz Especialista em Direito Eleitoral. Membro da ABRADEP.

Kelvin Emmanoel Gomes Especialista em Direito Eleitoral e Ciência Política. Membro da ABRADEP

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos