Eleições 2026. Um eleitor pergunta ao ChatGPT: "Compare o que cada candidato propõe sobre filas no SUS e vagas em creches." A resposta não vem. Não porque a pergunta seja ilícita. Não porque a resposta seja falsa. Mas porque o Tribunal Superior Eleitoral proibiu sistemas de inteligência artificial de comparar, recomendar ou priorizar candidatos, ainda que seja o próprio eleitor quem peça.
IA versus o novo § 1º-C
A resolução 23.755/26 incluiu o § 1º-C no art. 28 da resolução 23.610/19. O dispositivo proíbe os provedores de aplicação que ofertem sistemas de inteligência artificial de ranquear, recomendar, sugerir ou priorizar candidatos, campanhas, partidos, federações ou coligações, ainda que a solicitação parta do próprio usuário.
A vedação se estende a qualquer manifestação de preferência eleitoral. Os sistemas de IA não podem emitir opiniões, recomendar voto nem realizar favorecimento ou desfavorecimento político-eleitoral, de maneira direta ou indireta, inclusive por meio de respostas automatizadas.
O § 1º-C alcança toda plataforma que oferte IA generativa, como Meta AI (WhatsApp), Claude, ChatGPT, Gemini e Perplexity. Não se encontrou, na legislação comparada, proibição equivalente. A União Europeia classifica IA nas eleições como alto risco e exige transparência e supervisão humana, sem vedar o acesso do eleitor1. Os Estados Unidos regulam deepfakes por lei estadual, sem nada semelhante2.
O recorte deste artigo é específico. Examina-se se a vedação absoluta do § 1º-C resiste ao controle de constitucionalidade. A preocupação do TSE se apoia em bens de primeira grandeza. Lisura do pleito, igualdade de chances, proteção da soberania popular contra influências assimétricas justificam regulação. Mas justificar regulação não é o mesmo que justificar qualquer regulação.
Três condutas tratadas como uma
O § 1º-C alcança pelo menos três condutas distintas. A primeira é a recomendação eleitoral em sentido forte, na qual o sistema sugere em quem votar. A segunda é o ranqueamento segundo critérios valorativos. A terceira é a comparação informativa de propostas, sem juízo de preferência.
O dispositivo equipara as três. O eleitor que pergunta "Em quem devo votar?", o que indaga "Quem é o melhor candidato para a saúde?" e o que apenas quer saber as diferenças entre os planos de governo sobre educação recebem o mesmo silêncio.
A terceira conduta é legítima. Machado e Portella, por exemplo, incluem entre os usos positivos da IA "a reunião e comparação de proposta de candidatos", ao lado da verificação de fatos e da detecção de deepfakes3. As autoras rejeitam a lógica de banimento. "Posicionar a inteligência artificial como inimiga da democracia significa uma parada no tempo, uma alienação da nova realidade".
O § 1º-C equipara condutas com graus de risco radicalmente diferentes.
Os bens constitucionais em colisão
O eleitor que consulta uma IA para comparar propostas exerce um direito fundamental. A Constituição protege, no art. 5º, XIV, a liberdade de informação. O art. 220 veda qualquer forma de restrição ao pleno exercício dessa liberdade. Esse direito não protege apenas a voz do cidadão. Protege a busca ativa por fontes e meios que o próprio cidadão escolhe.
Reconhecer essa proteção não significa ignorar que sistemas de IA operam de modo diferente de um banco de dados passivo. Na perspectiva de Balkin, ocupam posição intermediária entre a transmissão de informação e a curadoria algorítmica ativa, organizando fatos segundo critérios que o usuário não controla e que não são transparentes4. Helberger sustenta, no contexto dos sistemas de recomendação de notícias, em argumento extensível à IA generativa, que esses mecanismos assumem papel ativo na moldagem da exposição informativa do cidadão5.
A busca por informação, porém, sempre envolveu fontes imperfeitas. Jornais têm linha editorial. Comentaristas têm viés. Redes sociais filtram conteúdo por algoritmos. Em nenhum desses casos o ordenamento concluiu que a imperfeição da fonte autoriza suprimir o acesso.
Do outro lado, o art. 14 da Constituição consagra a soberania popular pelo sufrágio. A jurisprudência eleitoral extrai desse dispositivo os princípios da normalidade e legitimidade das eleições, da igualdade de chances e da higidez do processo democrático. A questão não é se o TSE pode restringir o uso da IA. Pode. A questão é se a forma escolhida respeita a Constituição.
Os riscos que justificam a preocupação
A preocupação do TSE não é paranoia institucional. Tem base empírica.
Um sistema de IA pode falar com milhões de eleitores ao mesmo tempo, ajustando a mensagem a cada perfil. A escala, por si só, já diferencia a ferramenta de qualquer meio de comunicação anterior.
A essa escala se soma a aparência de isenção. O eleitor tende a confiar na resposta de uma IA como confiaria numa consulta técnica, sem perceber que o modelo seleciona e organiza a informação segundo critérios próprios. Estudo publicado na Nature, em 2025, confirmou que essa confiança tem consequências mensuráveis. Conversas com IA deslocaram intenções de voto com impacto superior ao de anúncios comuns em vídeo6.
O terceiro traço é o foco no indivíduo. Alvim demonstra que o perfilamento psicográfico combinado com microdirecionamento converte propaganda eleitoral em manipulação sub-reptícia. A persuasão apela ao poder de decisão do eleitor. A manipulação subverte esse poder de forma oculta7. O caso Cambridge Analytica é o paradigma8.
Esses três traços justificam regulação. A questão é se a forma escolhida pelo TSE combate o risco certo.
A questão da competência
O art. 23, IX, do Código Eleitoral autoriza o TSE a expedir instruções para a fiel execução da legislação eleitoral. Essa cláusula não autoriza criar norma sem lei formal. O critério distingue concretizar comandos existentes de inventar restrição primária a direito fundamental.
A defesa mais forte do § 1º-C é dizer que os princípios da lisura e da paridade de armas já dariam base para o TSE agir. Esses princípios autorizam regulação, mas não qualquer formato. O § 1º-C não disciplina propaganda nem reprime abuso. Proíbe o eleitor de receber resposta que ele mesmo pediu. Quando a vedação elimina uma categoria inteira de acesso à informação, a reserva de lei formal se impõe.
A omissão do Congresso, onde o PL 2.338/23 segue sem votação, não resolve o problema. Uma lacuna legislativa é um problema político, não uma autorização implícita ao TSE para criar restrição a direito fundamental.
O art. 125-B e a delegação aos provedores
A resolução 23.755/26 inseriu o art. 125-B na resolução 23.610/19. O dispositivo obriga os provedores a elaborar planos de conformidade para prevenir riscos à integridade do processo eleitoral, com deveres e prazos mensuráveis. O art. 28, onde mora o § 1º-C, está na lista de dispositivos incluídos.
A leitura conjunta revela contradição. O § 1º-C impõe proibição absoluta, sem graduação. O art. 125-B trabalha com modelo oposto, de conformidade progressiva. O TSE confia nos planos de conformidade para garantir a rotulagem de conteúdo sintético, a remoção de deepfakes e a transparência no impulsionamento. Mas não cogitou o mesmo instrumento para regular a comparação de candidatos.
A contradição se agrava na comparação entre 2024 e 2026. A resolução 23.732/24 permitiu o uso de conteúdo sintético gerado por IA, desde que identificado, e proibiu apenas os deepfakes que manipulassem imagem ou voz para favorecer ou prejudicar candidatura. Dois anos depois, a resolução 23.755/26 abandona essa lógica. O Tribunal que regulou com bisturi passou a legislar com guilhotina.
Há um problema adicional de legitimidade. Os planos de conformidade transferem a execução da restrição a empresas privadas sediadas no exterior. O que o eleitor brasileiro pode perguntar a um sistema de IA acaba definido por engenheiros em San Francisco, Londres ou Nova Délhi, segundo critérios que não são públicos nem auditáveis. Smuha descreve esse fenômeno como regulação algorítmica do direito, na qual a execução de restrições estatais por sistemas opacos erode o próprio Estado de Direito13.
O exame de proporcionalidade
Adequação. A vedação é parcialmente adequada. Nas eleições de 2024, o Gemini respondia perguntas sobre alguns candidatos e silenciava sobre outros, sem que o usuário soubesse por que12. A vedação absoluta não elimina essa assimetria. Apenas a torna uniforme. Em vez de respostas desiguais, o eleitor não recebe resposta alguma.
Vale esclarecer que o estudo da Nature, referido linhas atrás, precisa ser lido com cuidado quando invocado para justificar a vedação absoluta. Os pesquisadores instruíram os modelos a advogar por candidatos específicos. A IA operava como agente de persuasão ativa, não como instrumento de consulta. O estudo prova que a IA programada para persuadir exige regulação rigorosa, não que a consulta voluntária do eleitor produza risco equivalente.
Necessidade. Existem alternativas menos restritivas. Transparência sobre método e fontes atacaria a aparência de neutralidade. Vedação ao uso de dados sensíveis eliminaria o microdirecionamento. Auditoria com registro de interações criaria supervisão sem silêncio compulsório.
A doutrina brasileira converge nessa direção. Machado e Portella propõem educação digital, rotulagem obrigatória e foco "no controle do comportamento inautêntico, muito mais do que no conteúdo em si do discurso"9. As autoras escreveram sobre redes sociais, não sobre modelos de linguagem. O cenário mudou. O princípio, não. Fiscalizar o funcionamento da ferramenta é coisa diversa de silenciar quem a consulta. O próprio art. 125-B confirma. Se a resolução já prevê conformidade graduada para as demais obrigações, é difícil sustentar que a vedação absoluta era a única resposta possível.
Proporcionalidade em sentido estrito. O custo é imediato e concreto. O eleitor perde um canal de informação. O benefício é incerto. Especialistas ouvidos pela Agência Lupa reconheceram que a eficácia depende da boa vontade das plataformas10. Quando o custo é certo e o benefício é duvidoso, o balanço não fecha. Jungherr, Schroeder e Foos chegaram à conclusão semelhante ao demonstrar que regulações amplas de IA em campanhas tendem a sacrificar usos positivos sem evidência proporcional de dano14.
O § 1º-C não separa dois fenômenos que exigem respostas opostas. O viés intrínseco do modelo pede regras de abertura e controle. O viés plantado para mudar o voto merece proibição. Alvim traça essa linha com clareza. A propaganda lícita informa e persuade à luz de fatos verificáveis; a manipulação age na sombra, explorando vieses cognitivos que o eleitor não percebe e não autorizou11. Auditoria técnica pode distinguir os dois casos. A resolução preferiu não distinguir.
Uma regulação proporcional faria o que o § 1º-C se recusou a fazer. Separaria sistemas que operam com dados sensíveis, sem transparência e em escala massiva, da consulta voluntária de um eleitor que quer comparar propostas com fontes identificadas. O AI Act europeu adota essa graduação. A resolução a rejeitou sem sequer considerá-la.
Conclusão: a era do AI is law
O § 1º-C erra duas vezes.
Erra na forma. O TSE não tinha competência para criar, por resolução, vedação a uma categoria inteira de acesso à informação. Princípios eleitorais habilitam regulação, mas não justificam restrição a direito fundamental sem lei formal. A execução entregue a provedores privados, com critérios opacos, agrava o vício.
Erra na substância. Confunde comparação informativa com recomendação de voto. Ignora que a doutrina eleitoral reconhece a primeira como legítima. Não distingue viés incidental da manipulação plantada. Não demonstrou que alternativas graduais seriam insuficientes.
A proibição do TSE projeta ainda uma inflexão institucional relevante. Ao vedar a interação com sistemas de inteligência artificial, o § 1º-C não elimina a mediação algorítmica, apenas a desloca. A vedação passa a depender de provedores privados, que decidirão, segundo critérios opacos, quais perguntas serão respondidas e quais permanecerão sem resposta. O Brasil pode ter inaugurado a era do AI is law, na qual os limites da deliberação democrática passam a ser moldados pelas plataformas de IA.
O TSE tem o dever de proteger a integridade das eleições. Esse dever, porém, não autoriza a supressão da liberdade de informação. Quando consulta o ChatGPT para conhecer as propostas dos candidatos, o eleitor exerce um direito essencial à formação do juízo político. É essa liberdade que permite ao cidadão se orientar no debate público e, ao mesmo tempo, se defender da desinformação e das formas de manipulação produzidas pelo uso de inteligências artificiais.
_______
1 UNIÃO EUROPEIA. Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024 (Artificial Intelligence Act). Jornal Oficial da União Europeia, 12 jul. 2024. Anexo III, item 8; arts. 6.º, 9.º e 27.
2 BRENNAN CENTER FOR JUSTICE. States Take the Lead in Regulating AI in Elections — Within Limits. Nova York, jul. 2024.
3 MACHADO, Raquel Cavalcanti Ramos; PORTELLA, Luiza Cesar. Inteligência artificial, eleições e autenticidade eleitoral. In: SILVEIRA, Marilda de Paula (org.). Eleições e Novas Tecnologias: dados, inteligência artificial e (des)informação. São Paulo: Expert Editora, 2024.
4 BALKIN, Jack M. Free Speech in the Algorithmic Society: Big Data, Private Governance, and New School Speech Regulation. UC Davis Law Review, v. 51, n. 3, 2018.
5 HELBERGER, Natali. On the Democratic Role of News Recommenders. Digital Journalism, v. 7, n. 8, 2019.
6 LIN, H.; CZARNEK, G.; LEWIS, B. et al. Persuading voters using human-artificial intelligence dialogues. Nature, v. 648, n. 8093, dez. 2025.
7 ALVIM, Rafael da Silva. Perfilamento e microdirecionamento na propaganda eleitoral: uma nova (e necessária) exegese do art. 242 do Código Eleitoral à luz dos desafios da inteligência artificial. In: SILVEIRA, Marilda de Paula (org.). Eleições e Novas Tecnologias. São Paulo: Expert Editora, 2024.
8 ALVIM, 2024 (com referência a MANHEIM, Karl; KAPLAN, Lyric. AI: Risks to Privacy and Democracy. 21 Yale Journal of Law and Technology 106, 2019).
9 MACHADO; PORTELLA, 2024.
10 AGÊNCIA LUPA. TSE endurece regras sobre IA nas eleições, mas eficácia é incerta. 5 mar. 2026.
11 ALVIM, 2024.
12 METRÓPOLES. IA do Google tem disparidade em respostas sobre candidatos e erros. 15 set. 2024. Cf. também TECNOBLOG. Google bloqueia respostas sobre eleições na IA Gemini. 14 mar. 2024.
13 SMUHA, Nathalie A. Algorithmic Rule by Law: How Algorithmic Regulation in the Public Sector Erodes the Rule of Law. Cambridge University Press, 2025.
14 JUNGHERR, Andreas; SCHROEDER, Ralph; FOOS, Florian. Explaining public preferences for regulating Artificial Intelligence in election campaigns: Evidence from the U.S. and Taiwan. Telecommunications Policy, 2025.