A questão jurídica central já não é saber se a IA entrará na Justiça, mas sob quais limites constitucionais, processuais e éticos ela poderá ser admitida sem corroer a motivação das decisões, o contraditório e a responsabilidade humana.
A discussão séria sobre inteligência artificial na Justiça começa, a meu ver, por uma depuração conceitual. O problema não é a mera presença de tecnologia no ecossistema jurisdicional. O Poder Judiciário sempre incorporou instrumentos técnicos para ampliar escala, reduzir assimetrias informacionais, organizar dados, localizar precedentes e racionalizar rotinas. O problema jurídico real começa quando a mediação tecnológica deixa de ser apenas instrumental e passa, ainda que silenciosamente, a interferir na formação do juízo, na seleção do que será visto, no modo como as razões são estruturadas e, em última análise, na própria inteligibilidade da decisão. O ponto, portanto, não é “usar ou não usar IA”, mas definir em que condições o uso permanece compatível com a Constituição, com o processo justo e com a ética pública da jurisdição.
Esse deslocamento é decisivo porque evita duas caricaturas igualmente pobres. A primeira é a tecnofobia simplista, segundo a qual toda IA seria, por definição, incompatível com a atividade jurisdicional. A segunda é o solucionismo, segundo o qual eficiência operacional bastaria para legitimar qualquer delegação tecnológica. Nenhuma das duas posições resiste a exame mais rigoroso. O Direito brasileiro não trabalha com fetiches, nem analógicos nem digitais. Trabalha com garantias, competências, responsabilidades e limites. A pergunta juridicamente relevante não é se a máquina "ajuda"; é se a ajuda preserva a estrutura normativa do ato estatal, sobretudo quando esse ato interfere em liberdade, patrimônio, honra, capacidade civil, saúde, prova ou igualdade processual.
A moldura constitucional é mais exigente do que parte do debate público reconhece. O devido processo legal, o contraditório, a ampla defesa, a motivação das decisões e a publicidade responsável da atuação estatal não são adereços formais de um modelo antigo; são as cláusulas de legitimidade sem as quais a jurisdição perde autoridade racional. A Constituição exige processo devido e decisão fundamentada; o CPC, por sua vez, não apenas consagra a apreciação motivada da prova, como também descreve, em seu regime de fundamentação, o que não se considera decisão adequadamente motivada. Em matéria pericial, exige-se método, análise técnica e resposta conclusiva. Em termos materiais, isso significa algo muito claro: nenhuma tecnologia pode funcionar como atalho para uma decisão cuja racionalidade não possa ser reconstruída, contestada e atribuída a um responsável humano identificável.
É precisamente nesse ponto que a resolução CNJ 615/25 deve ser lida. Seu valor não está em slogans, mas em arquitetura institucional. A norma não "proíbe a IA", nem a transforma em oráculo autorizado. Ela estabelece diretrizes para desenvolvimento, utilização e governança de soluções de IA no Poder Judiciário, ancorando o sistema em fundamentos como centralidade da pessoa humana, supervisão humana em todas as etapas, rastreabilidade, auditabilidade e proteção de direitos fundamentais. Também explicita princípios como transparência, explicabilidade, contestabilidade, confiabilidade e prestação de contas. A mensagem normativa é inequívoca: a inovação somente é admissível sob um regime denso de responsabilidade e controle.
Esse desenho ganha importância adicional quando se observa o momento histórico da adoção tecnológica. Levantamento do Programa Justiça 4.0 indicou, em 2025, que 45,8% dos tribunais e conselhos já utilizavam IA generativa, sobretudo em tarefas textuais, e que a expansão do uso tende a continuar. Em outras palavras: o debate sobre ética da IA no Judiciário brasileiro já não pertence ao domínio da especulação acadêmica. Ele pertence ao domínio da governança concreta de sistemas em uso ou em processo de adoção institucional. Isso muda a qualidade da responsabilidade dos juristas. Não estamos mais discutindo o futuro remoto; estamos discutindo a legitimidade presente.
A partir daí, é preciso dizer algo que às vezes incomoda, mas é indispensável: o uso ético da IA na Justiça não se satisfaz com a fórmula genérica "há supervisão humana". Supervisão humana é conceito juridicamente relevante, mas pode ser vazio se não vier acompanhado de condições reais de revisão crítica, de tempo institucional para dissentir da máquina, de compreensão mínima sobre o que o sistema fez e de preservação da autoridade intelectual do julgador ou do agente público. Um humano que apenas "confirma" o que não compreende, sob pressão de produtividade e sem trilha de auditoria, não supervisiona; apenas homologa. E homologação acrítica de saídas algorítmicas não é compatível com a ideia constitucional de motivação nem com a responsabilidade funcional de quem decide.
Esse é o ponto em que o debate ético encontra o núcleo do devido processo. Se a IA participa da triagem de casos, da identificação de padrões decisórios, da sugestão de minutas, da priorização de provas, da redação de relatórios ou da organização de fundamentos, ela pode influenciar o resultado antes mesmo da assinatura final. Essa influência pode ser legítima, desde que permaneça dentro de limites transparentes e auditáveis. O que não é admissível é a formação de uma "caixa-preta jurisdicional": um ambiente em que a decisão continue formalmente humana, mas o itinerário cognitivo relevante esteja oculto em ferramentas cujos vieses, critérios de seleção, dados de treinamento, falhas e limites não sejam inteligíveis ou passíveis de contestação qualificada. A forma humana com substância opaca não satisfaz o constitucionalismo processual.
A resolução 615/25, corretamente interpretada, já aponta nessa direção. Ela veda soluções que impeçam revisão humana ou gerem dependência absoluta; exige auditorias regulares e monitoramento contínuo para aplicações de alto risco; prevê avaliação de impacto algorítmico; institui o Comitê Nacional de Inteligência Artificial do Judiciário; e determina protocolo de auditoria e monitoramento para modelos e soluções em uso. Além disso, impõe indicação dos modelos utilizados nos sistemas, suas versões e registros, bem como prestação de informações claras aos usuários externos sobre o emprego de IA nos serviços prestados. Há, portanto, um movimento explícito do CNJ no sentido de deslocar a discussão de mera utilidade para governança, risco, explicabilidade e accountability.
Esse ponto é importante por outra razão. O Brasil ainda não possui, em março de 2026, uma lei geral de IA em vigor com força transversal equivalente à do que a União Europeia fez com o AI act. O que se observa, por ora, é uma regulação fragmentária, porém crescente: atos setoriais e institucionais avançam enquanto o marco geral permanece em transição legislativa. O Senado aprovou o PL 2338/23 em dezembro de 2024, a matéria seguiu à Câmara, e o Executivo encaminhou, em dezembro de 2025, proposta complementar de governança para corrigir vício de iniciativa e estruturar o sistema regulatório nacional. Isso significa que, na prática, o sistema jurídico brasileiro já começou a construir sua disciplina de IA "de baixo para cima", por setores e autoridades competentes, antes mesmo da consolidação legislativa geral.
Em perspectiva comparada, esse caminho não é aberrante. Ele converge com um consenso internacional que tem se consolidado em torno de alguns eixos normativos. A Recomendação da Unesco sobre a Ética da Inteligência Artificial, aplicável aos 194 Estados-membros, parte da dignidade humana, da proteção de direitos e da importância da supervisão humana. Os princípios de IA da OCDE, atualizados em 2024, insistem em IA confiável, respeitosa de direitos humanos e valores democráticos. A Cepej, no âmbito do Conselho da Europa, já havia afirmado que o uso de IA em sistemas judiciais deve melhorar eficiência e qualidade sem se apartar de direitos fundamentais, do direito a um recurso efetivo e do julgamento justo. E o AI act europeu consolidou, em chave regulatória mais dura, a lógica de abordagem baseada em risco. O ponto comum de todas essas fontes é eloquente: a ética da IA aplicada à justiça não é ornamento moral; é técnica institucional de contenção do arbítrio tecnológico.
Mas há um aspecto ainda pouco trabalhado no debate jurídico brasileiro: a ética da IA na Justiça não é apenas questão de decisão final; é também questão de proveniência intelectual do ato. À medida que sistemas generativos passam a interferir em pesquisa, organização de argumentos, síntese de autos, elaboração de minutas e revisão textual, cresce a relevância de distinguir apoio instrumental legítimo de substituição encoberta do labor intelectual exigido do agente público ou do profissional do Direito. O problema não está em usar tecnologia para ampliar capacidade cognitiva institucional; está em dissolver, sem transparência, a autoria responsável do raciocínio jurídico. Uma decisão pode até ser formalmente assinada por um magistrado e, ainda assim, padecer de déficit ético se o itinerário argumentativo decisivo tiver sido terceirizado a sistemas cujo funcionamento concreto não possa ser reconstruído criticamente.
Por isso sustento que a categoria decisiva para os próximos anos será a de delegação limitada. A IA pode auxiliar, mas não pode substituir o núcleo indelegável do ato jurisdicional. Esse núcleo inclui, ao menos, cinco dimensões: a definição do problema jurídico relevante; a seleção crítica do material normativo e probatório pertinente; a fundamentação compreensível e não estereotipada; o juízo sobre a suficiência das razões; e a assunção pessoal da responsabilidade pela conclusão. A máquina pode colaborar em tarefas ancilares, desde que o humano permaneça efetivamente no comando da valoração, da motivação e da resposta institucional. Se esse centro é abandonado, não há apenas risco tecnológico; há erosão da própria forma jurídica da jurisdição.
Essa tese ganha ainda mais força quando observamos a regulação ética da IA em outra atividade profissional de alta sensibilidade: a medicina. A resolução CFM 2.454/26 admite a IA como ferramenta de apoio, mas preserva a autoridade final do médico, exige julgamento crítico, registro do uso em prontuário, informação clara ao paciente quando a tecnologia tiver papel relevante e proíbe delegar à máquina a comunicação de diagnóstico, prognóstico ou decisão terapêutica. Há aqui uma analogia importante para a Justiça: sistemas inteligentes podem ser auxiliares valiosos em contextos complexos, mas seu uso só é ético quando a autoridade profissional permanece humana, identificável, crítica e juridicamente responsável. O ponto de contato entre medicina e jurisdição é justamente este: em ambos os campos, a tecnologia não pode destruir a imputabilidade racional do ato.
Outra ilusão que precisa ser enfrentada é a da "prova mágica" sobre uso ou não uso de IA. Parte do mercado vem vendendo detectores de texto, estilometria forense e promessas de certificação negativa como se o problema estivesse tecnicamente resolvido. Não está. A própria OpenAI retirou de circulação seu classificador de texto por baixa acurácia, e os esforços mais promissores em transparência caminham menos pela pretensão de “adivinhar” autoria apenas pelo estilo e mais pela construção de trilhas de proveniência, metadados e credenciais de conteúdo, como no padrão C2PA. Isso é valioso, mas tem limites óbvios: proveniência técnica ajuda a reconstruir histórico e autenticidade de conteúdo, sobretudo em mídia, mas não substitui governança jurídica, logs institucionais, regras de disclosure, cadeias de custódia informacional e responsabilidade funcional. No contexto da Justiça, ética séria não se fará com fetiche de detector, e sim com desenho institucional verificável.
Daí decorre uma consequência prática de grande relevo: o uso ético da IA na Justiça exige menos uma teoria abstrata da "máquina justa" e mais uma dogmática da trilha auditável. Em termos concretos, isso significa políticas institucionais claras sobre ferramentas autorizadas; distinção entre usos de baixo e de alto risco; vedação de contas pessoais e fluxos informais para dados sensíveis; registro técnico do emprego de modelos; critérios para revisão humana obrigatória; possibilidade de contestação pelas partes quando o uso tiver relevância material; avaliação contínua de viés, erro e desempenho; e prestação de contas em linguagem acessível. A resolução 615/25 já abriu esse caminho. O próximo passo, a meu ver, é preenchê-lo com densidade operacional e cultura institucional, e não com mera retórica de inovação.
No plano doutrinário, a conclusão pode ser sintetizada em uma fórmula simples: a Justiça pode usar IA, mas não pode terceirizar a juridicidade de seus atos à opacidade algorítmica. A ética da IA na jurisdição não se resume à ausência de dano estatístico ou ao aumento de produtividade. Ela exige compatibilidade estrutural com a Constituição do processo. Isso envolve motivação real, supervisão humana não decorativa, contestabilidade efetiva, tratamento não discriminatório, proteção de dados, rastreabilidade e preservação da autoria responsável do juízo. Fora desse quadro, a tecnologia deixa de ser instrumento da jurisdição e passa a disputar, subterraneamente, o lugar da própria razão pública.
Em tempos de sedução tecnocrática, talvez a exigência mais importante seja precisamente esta: lembrar que a Justiça não é apenas um sistema de outputs eficientes. Ela é, antes de tudo, um sistema de razões, garantias e responsabilidades. A IA pode e deve servir a esse sistema. O que não pode é reconfigurá-lo silenciosamente a ponto de tornar o poder decisório mais rápido, porém menos inteligível; mais escalável, porém menos imputável; mais moderno na aparência, porém mais pobre em legitimidade.
É nessa linha que entendo o uso ético da inteligência artificial na Justiça: inovação sob reserva constitucional, eficiência sob controle epistêmico e tecnológico, e sempre com irrenunciável primazia da responsabilidade humana.