O “prompt” no voto: O alerta sobre IA sem transparência no Judiciário
Uso de IA em decisões exige transparência e controle, para evitar vieses, falhas na análise e riscos à fundamentação e à segurança jurídica.
sexta-feira, 20 de março de 2026
Atualizado em 19 de março de 2026 15:05
Em fevereiro de 2026, um caso de grande repercussão ganhou notoriedade ao se divulgar que um voto do TJ/MG foi publicado contendo trecho típico de “prompt” (comando) de ferramenta de IA no texto final. O detalhe pode parecer pequeno; a mensagem institucional, porém, é enorme.1
As decisões judiciais possuem impactos sociais e diretos na vida das pessoas. Por isso, o mínimo que se espera é que o processo decisório seja auditável, inclusive quanto ao uso de IA e, principalmente, até onde ela foi utilizada.2
Fundamentação não é estética. É garantia constitucional. É o que permite ao jurisdicionado compreender as razões do resultado e ao sistema recursal controlar coerência, racionalidade e aderência a precedentes.
Se a IA foi utilizada apenas para revisão gramatical e organização textual, que se declare expressamente. Se, porém, a ferramenta é acionada antes da decisão humana, por exemplo, para resumir fatos, selecionar pontos relevantes ou sugerir o caminho do julgamento, a exigência de transparência é outra. O que precisa ser auditável não é só a presença da IA, mas o comando e a função que ela desempenhou: a IA foi provocada a apreciar o caso e decidir, ou foi usada depois que o julgador decidiu, apenas para ajudar a estruturar a linha argumentativa?
Há, ainda, limitações técnicas frequentemente ignoradas: modelos generalistas mais comuns (a exemplo do Chat GPT), em especial, não interpretam com confiabilidade imagens e elementos gráficos (tabelas em imagem, anexos escaneados, prints, laudos com marcações, fluxogramas). Se a leitura do sistema não alcança integralmente esses componentes, existe risco real de uma compreensão incompleta das provas dos autos, o que, em ambiente jurisdicional, é inaceitável.
Nas últimas semanas, um exemplo simples voltou a circular e ajuda o debate: o chamado “car wash test” (“dilema do lava-rápido”). Diante do enunciado “quero lavar o carro; o lava-rápido fica a 50/100 metros; vou a pé ou de carro?”, muitos modelos respondem “a pé”, com justificativas bem construídas sobre economia, saúde e sustentabilidade. O problema é que a resposta ignora algo que para nós, humanos, é básico: o carro precisa chegar ao local para ser lavado.
Esse mesmo mecanismo apareceu no nosso teste em contencioso de consumo. Submetemos cópias integrais, sem a sentença, de dez ações que foram julgadas improcedentes. Em todos os casos, um modelo generalista concluiu pela condenação, com fundamentações que seguem uma tendência pró-consumidor em absoluto, mesmo onde o Judiciário, ao final, julgou improcedente. O ponto não é discutir “acerto” ou “erro” da ferramenta, mas evidenciar o risco: sem transparência sobre qual modelo foi usado e qual foi seu papel na redação, atalhos estatísticos, vieses de alinhamento e respostas plausíveis podem contaminar, sem aviso, o núcleo argumentativo de um voto, especialmente em instância revisora. Corremos o risco de ver carros indo a pé e decisões judiciais no “piloto automático”.7
Essa distinção não é meramente formal. O próprio CNJ já editou atos normativos sobre ética, transparência e governança de IA no Judiciário, além de diretrizes específicas para IA generativa, com ênfase em transparência, supervisão e intervenção humana na produção de decisões.4
Tribunais precisam informar, com objetividade, que tipo de IA utilizam e para qual finalidade. A intenção não é proibir tecnologia, mas fixar um padrão mínimo de transparência e governança que permita contestação, auditoria e responsabilização.
E, se o tribunal utiliza modelo fechado, há outra pergunta que precisa ser respondida: quais fontes do direito alimentam esse modelo. Um sistema treinado ou ajustado apenas com a letra da lei tende a ignorar, por construção, jurisprudência, doutrina, práticas locais e a dinâmica do caso concreto. Se a IA participa de qualquer etapa que influencia o convencimento, é essencial saber o que ela enxerga e, principalmente, o que ela não enxerga.
Um ponto que costuma ser tratado como detalhe e não é, é o contexto cultural e regional. Modelos generalistas são treinados com grande volume de conteúdo em inglês e com referências de cultura estrangeira. Isso pode interferir quando a ferramenta é usada para interpretar condutas, padrões de consumo, costumes locais e linguagem cotidiana.
A decisão judicial também exige percepção de nuances humanas que não cabem em um resumo. A validade de uma assinatura em um documento, por exemplo, não se lê do mesmo modo quando quem assinou é um advogado ou uma pessoa semialfabetizada. Esse tipo de elemento altera o sentido do caso. É a diferença entre ler o processo e enxergar o direito.
Experiências internacionais demonstram que o problema não é local. Há decisões judiciais no exterior em que o uso de ChatGPT foi assumido publicamente e incorporado ao debate institucional, precisamente porque a transparência foi tratada como parte da solução, não como detalhe lateral.5 Não se trata de auditar a cabeça do juiz, mas de tornar auditável o comando utilizado, a função acionada e a etapa que a IA participou.
Se há IA no fluxo de elaboração da decisão, o tribunal precisa dizer de forma clara até onde ela foi utilizada, qual função desempenhou e se houve atuação sobre fatos, provas ou apenas sobre a redação. E antes que isso seja descoberto por acidente.
Este texto foi revisado com utilização de IA generalista.
_______
1 Correio Braziliense / Estado de Minas. “Desembargador que absolveu estuprador deixou comando de IA no voto”. Publicado em 25/02/2026. Disponível em: https://www.em.com.br/gerais/2026/02/7362161-desembargador-que-absolveu-estuprador-deixou-comando-de-ia-no-voto.html (acesso em 27/02/2026).
2 TecMundo. “Juiz do TJMG esquece prompt de IA em decisão sobre caso de estupro de vulnerável”. Publicado em 24/02/2026 (atualizado em 25/02/2026). Disponível em: https://www.tecmundo.com.br/software/411083-juiz-do-tjmg-esquece-prompt-de-ia-em-decisao-sobre-caso-de-estupro-de-vulneravel.htm (acesso em 27/02/2026).
3 CNJ. Resolução nº 615, de 11 de março de 2025 (diretrizes para uso de inteligência artificial generativa no Poder Judiciário). Disponível em: https://atos.cnj.jus.br/files/original1555302025031467d4517244566.pdf (acesso em 27/02/2026).
4 CNJ. Resolução nº 332, de 21 de agosto de 2020 (ética, transparência e governança de IA no Poder Judiciário). Disponível em: https://atos.cnj.jus.br/files/original191707202008255f4563b35f8e8.pdf (acesso em 27/02/2026).
5 El Tiempo (Colômbia). “Juez de Cartagena usó ChatGPT en sentencia de tutela”. Publicado em 03/02/2023. Disponível em: https://www.eltiempo.com/justicia/servicios/juez-de-cartagena-uso-chatgpt-en-sentencia-de-tutela-739042 (acesso em 27/02/2026).
6 U.S. District Court (S.D.N.Y.). Mata v. Avianca, Inc. (ordem com crítica ao uso de IA e dever de verificação). Texto em base pública: https://caselaw.findlaw.com/court/us-dis-crt-sd-new-yor/2335142.html (acesso em 27/02/2026).
7 Opper.ai. “Car Wash Test on 53 leading AI models: ‘I want to wash my car… Should I walk or drive?’”. 19 fev. 2026. Disponível em: https://opper.ai/blog/car-wash-test (acesso em 02/03/2026).
Mirella Brandão
Advogada do Queiroz Cavalcanti Advocacia.
Manoel Paulino da Silva Neto
Sócio do escritório Queiroz Cavalcanti Advocacia.
Diogo Furtado
Sócio-gestor do escritório Queiroz Cavalcanti Advocacia.



