Explorando as possibilidades de uso da IA para o apoio à decisão no Direito
O uso da IA no Direito exige letramento técnico e responsabilidade. Zhang propõe um modelo que apoia, mas não substitui, o julgamento humano.
segunda-feira, 2 de junho de 2025
Atualizado às 13:45
A crescente utilização de sistemas de IA Gen - inteligência artificial generativa em atividades jurídicas levanta um conjunto de questões fundamentais sobre como decisões complexas devem ser tomadas com segurança, legitimidade e responsabilidade.
Como venho pontuando1 é essencial o letramento para o uso de IA na área jurídica.
No entanto, creio que seja necessário aprofundar um pouco mais a reflexão do uso por advogados e juízes na medida em que vem se tornando recorrente o emprego das aplicações de IA (Claude, ChatGPT, NotebookLm etc.) para a entrega final de um produto (decisão ou petição) com base no uso de comandos (prompts) e assistentes de IA.2
Há uma utilização recorrente de prompts de prateleira,3 ofertados por outros profissionais, que prometem a redução massiva do tempo de elaboração da atividade-fim das profissões jurídicas, mas que podem comprometer a densidade e importância do processo decisório para que se atenda aos ditames normativos de nosso modelo constitucional de processo e da própria legislação processual (art. 489, §1º, CPC).
Com o propósito de se buscar alguma melhoria ao debate, me valerei do teor da tese de Zelun Tony Zhang,4 na qual propõe uma mudança paradigmática na forma como sistemas de IA devem apoiar decisões humanas, especialmente em contextos de alto risco. Apesar do foco do trabalho não serem as decisões jurídicas, reputo que as discussões do trabalho sobre uso da IA como suporte à decisão permitam insights importantes para aplicação no Direito.
Em vez de concentrar o papel das aplicações e modelos de IA na emissão de recomendações finais, Zhang defende que o suporte oferecido pelas máquinas deve se voltar ao processo decisório humano, auxiliando-o de maneira progressiva, contextual e explicável. Essa proposta, chamada de modelo de "suporte à decisão orientado ao processo" ("process-oriented decision support") tem aplicações promissoras no campo jurídico, especialmente na atuação de advogados e magistrados.
Ordinariamente, os sistemas de IA aplicados ao Direito buscaram prever resultados de processos, sugerir decisões ou mesmo gerar peças processuais completas. Essa abordagem, centrada na entrega de respostas finais por parte da IA, é classificada por Zhang como "centrado em recomendações" ("recommendation-centric").5
Contudo, tal modelo apresenta riscos importantes. Quando um advogado recebe de um sistema uma petição já pronta, com argumentos e estrutura definidos, pode confiar excessivamente nessa produção, negligenciando a crítica e a personalização do conteúdo. Essa situação vem conduzindo aos escândalos que se tornam cada vez mais comuns de uso de julgados inventados pela máquina.6
O mesmo ocorre quando um juiz recebe uma decisão automatizada sugerindo uma solução com base em decisões passadas: há o risco de adesão acrítica,7 ou, no sentido inverso, de desconfiança automática, sem analisar os elementos que levaram àquela sugestão. Esse duplo risco - confiar demais ou confiar de menos - mina a autonomia e a qualidade da decisão. Sem esquecer que, sem direcionamento, a resposta da máquina é ofertada em verdadeira roleta russa algorítmica: pode ser de qualquer teor.
Zhang parte de uma constatação empírica para fundamentar sua proposta: mesmo quando os sistemas de IA são imperfeitos, sua utilidade pode ser elevada se forem estruturados de modo a engajar o usuário no raciocínio.
Para ilustrar essa ideia, o autor apresenta um estudo de caso no campo da aviação comercial. Em situações de emergência, como mudanças climáticas súbitas ou falhas técnicas, pilotos precisam tomar decisões rápidas e de alto impacto. Zhang testou diferentes modelos de suporte por IA em simulações com pilotos experientes. O modelo que fornecia diretamente uma recomendação de rota alternativa mostrou-se ineficaz: os pilotos, sob pressão, ou seguiam a sugestão sem verificar, ou a rejeitavam por falta de clareza.
Já o modelo orientado ao processo, que apresentava informações parciais, destacava riscos e vantagens de trajetórias possíveis e permitia ao piloto construir sua escolha, mostrou-se mais eficaz. Decisões foram tomadas mais rapidamente, com maior segurança e com maior confiança subjetiva por parte dos pilotos.8
Essa analogia é extremamente útil para pensar o Direito. O piloto é como o juiz ou o advogado: possui conhecimento especializado, é responsável pela decisão final e opera sob pressão e incerteza. As aplicações de IA, nesse contexto, não devem indicar qual decisão tomar, mas ajudar o profissional a organizar os dados, explorar hipóteses, identificar riscos e avaliar opções.
Considere-se o caso de um juiz que aprecia uma ação de indenização por danos morais decorrentes de publicações difamatórias em redes sociais. Um sistema de IA poderia colaborar identificando jurisprudência recente sobre limites da liberdade de expressão, aplicação do art. 19 do MCI, destacando trechos doutrinários relevantes e sugerindo critérios consolidados para responsabilização e quantificação do dano. Poderia ainda sinalizar elementos probatórios frequentemente valorados, como a extensão da divulgação e o contexto em que se deu a manifestação. Ainda assim, a decisão - que exige sensibilidade jurídica, aplicação de direitos fundamentais e adequada valoração do caso concreto - é prerrogativa intransferível do julgador. Ademais, a boa prática judicial recomendaria que o magistrado indicasse de forma transparente os usos e comandos (prompts) utilizados e os limites da intervenção algorítmica no processo decisório, reforçando a legitimidade e o controle de sua fundamentação.
No campo da advocacia, o modelo orientado ao processo pode ser aplicado desde o início da construção da tese jurídica. Um sistema pode ajudar o advogado a mapear as alternativas de enquadramento jurídico de um caso, indicar os argumentos que costumam ser aceitos em Tribunais Superiores (até com análises jurimétricas) e, sobretudo, alertar para falhas internas na consistência argumentativa. Assim, o profissional se mantém no centro da formulação jurídica, mas com apoio técnico-informacional que qualifica sua atuação.
Ao invés de delegar juízos de valor à máquina, a proposta centra-se em oferecer auxílio instrumental ao profissional do Direito, fornecendo informações estratégicas durante as etapas da tomada de decisão. A IA, nesse modelo, funciona como um assistente capaz de localizar documentos em autos extensos, destacar trechos relevantes em perícias, identificar padrões ou inconsistências e apontar conexões úteis entre fatos e argumentos. Esses elementos, denominados "pistas locais" (local hints), são incorporados pelo profissional em sua reflexão, sem que a IA formule ou imponha uma conclusão final.9
Os princípios fundamentais do modelo de suporte orientado a processos,10 se propõe a identificar os principais pontos de dificuldade enfrentados pelo usuário - no caso do direito, como a análise de documentos, a formulação de hipóteses ou a avaliação de riscos - e oferecer suporte direcionado a esses momentos específicos.
Em segundo lugar, esse suporte deve ser detalhado e adaptável, permitindo ao profissional escolher, conforme sua intenção e necessidade, qual tipo de ajuda utilizar em cada momento da tarefa.11 Essa flexibilidade é essencial para que a IA funcione como um instrumento subordinado à estratégia e ao método do jurista. Além disso, o modelo defende que o sistema seja personalizável - ou seja, que o usuário possa incorporá-lo ao seu próprio estilo de trabalho. Isso exige que a ferramenta ofereça mecanismos de controle para que o profissional ajuste ou redirecione o sistema, conforme sua finalidade interpretativa.12
Neste modelo caso a IA falhe, o impacto sobre o trabalho do usuário deve ser mínimo, e o custo de ignorar ou corrigir a sugestão da máquina deve ser baixo. Trata-se, portanto, de um modelo de inteligência artificial juridicamente seguro, humanamente assistido e normativamente responsável.
Esse modelo apresenta especial utilidade em cenários de alta complexidade e sobrecarga, típicos de nosso sistema processual com mais de 80 milhões de processos. A IA pode atuar, por exemplo, no suporte à formulação de teses jurídicas, na sistematização de precedentes relevantes e na preparação para audiências. Ainda que ofereça sugestões detalhadas - como relatórios, ementas, sínteses fáticas ou verificação de citações - a decisão final permanece sob controle humano, respeitando os limites de responsabilidade jurídica. Essa atuação evita o problema das "caixas-pretas decisórias" típicas dos modelos de IA embasados em deep learning, nas quais o profissional apenas revisa uma recomendação automática, muitas vezes opaca e inapropriada ao caso concreto.13
Para além dos ganhos operacionais, essa metodologia exige o aprofundamento do conhecimento sobre os modos de decisão específicos dos juristas. O estudo acaba por nos indicar que a identificação dos pontos críticos de decisão, bem como o estudo dos erros e vieses cognitivos mais comuns no direito,14 são elementos centrais para o desenvolvimento de ferramentas realmente eficazes. A proposta desloca o foco da automação da resposta para a ampliação da capacidade humana, respeitando a complexidade do raciocínio jurídico e a responsabilidade envolvida em decisões judiciais.
Zhang também aponta que o modelo orientado ao processo contribui para a redução dos vieses e da opacidade, características criticadas nos modelos tradicionais de IA. Quando o sistema apresenta os caminhos possíveis, e não uma única saída, a transparência é aumentada.15 A responsabilidade é compartilhada, mas não diluída: cabe ao humano decidir, e ao sistema apoiar. A explicabilidade, portanto, deixa de ser meramente técnica (explicar como o modelo chegou àquela conclusão) e passa a ser instrumental (ajudar o usuário a compreender as alternativas e consequências).
Essa abordagem se alinharia aos princípios comumente estruturados para fornecimento de uma inteligência artificial confiável e responsável: supervisão humana contínua, robustez técnica, transparência e responsabilidade. No campo jurídico brasileiro, ela dialoga com os fundamentos do devido processo legal e da fundamentação das decisões judiciais.
Adotar o modelo de Zhang no Direito não significa abandonar a automação de tarefas repetitivas ou o uso de IA para apoio, cada vez mais comum entre nós. Significa reconhecer que, nas decisões verdadeiramente complexas - aquelas que afetam direitos, pessoas e instituições -, a IA deve ser estruturada para fortalecer o humano, e não para substituí-lo. Um sistema jurídico que valoriza a argumentação e o contraditório não pode terceirizar suas decisões a sistemas opacos e autônomos. Precisa, ao contrário, desenvolver ferramentas que ajudem os profissionais do Direito a raciocinar melhor, com mais dados, mais consciência e mais responsabilidade. Um sistema jurídico data-driven.16
A tese de Zhang nos lembra que a imperfeição da IA não é um obstáculo intransponível, mas um convite à criatividade no design institucional e técnico. O futuro da IA no Direito pode - e deve - ser um futuro de cooperação processual entre máquinas e humanos, com protagonismo dos advogados e juízes e com sistemas desenhados para fomentar o julgamento crítico e em conformidade com o processo democrático.
Tal proposta metodológica pode inibir a já diagnosticada perda da capacidade crítica pelo uso da IA17 e fomentar um uso mais virtuoso que amplie as capacidades humanas de resolução de problemas.
________________
1 https://www.conjur.com.br/2025-mai-24/precisamos-falar-do-treinamento-para-o-uso-de-inteligencia-artificial-no-direito/
2 https://www.instagram.com/p/DKMluPrtv7Y/?igsh=a2N6ZDF4c3B5eTg0
3 Como explica Tavares: "O prompt elaborado por alguém (outro juiz, um técnico ou um tribunal), é uma lente de grau específico, particular, que permite ver certas coisas e deixar de lado outras. Portanto, se houver a adoção generalizada de prompts de prateleira (padronizados ou compartilhados), o pensamento jurídico tende à homogeneização, afastando-se da diversidade interpretativa, indispensável para o avanço do Direito e da Justiça. A pluralidade é um valor que precisa ser cultivado na base do sistema. As uniformizações precisam ser feitas por humanos, dentro da institucionalidade sistêmica, para ser legítima Uma consciência jurídica homogeneizada, entregue às ferramentas promotoras dessa homogeneização, não é o efeito que se pretende com o uso das tecnologias no processo." TAVARES-PEREIRA, S. Prompts de prateleira na decisão judicial: solução ou armadilha? Texto inédito cedido para consulta pelo autor em 28.05.25 no Instituto de Direito e Inteligência Artificial (IDEIA)
4 ZHANG, Zelun Tony. Using Imperfect AI to Support High-Stakes Decisions. Universidade Ludwig-Maximilians de Munique, 2025. Tese (Doutorado). Disponível em: https://edoc.ub.uni-muenchen.de/35308/
5 Onde o sistema oferece uma recomendação final e fechada para a decisão. Cit., p. 6.
6 Como já comentei aqui: https://www.conjur.com.br/2025-mai-24/precisamos-falar-do-treinamento-para-o-uso-de-inteligencia-artificial-no-direito/
7 Pontue-se que, segundo o pesquisador, os resultados experimentais indicam que os humanos são suscetíveis a confiar excessivamente (overreliance) em recomendações da IA, especialmente em decisões difíceis ou após interações repetidas. Cit. p. 7 e 11. Já tive oportunidade de comentar o fenômeno aqui anteriormente. https://www.conjur.com.br/2021-jun-25/nunes-supervisao-humana-decisoes-ia-reduz-riscos/ e https://www.conjur.com.br/2025-mar-10/ia-generativa-no-judiciario-brasileiro-realidade-e-alguns-desafios/
8 Cit., p. 16 -21.
9 Cit. p. 16-21.
10 Cit., p. 20- 26.
11 Cit. p. 21.
12 Cit. p. 21.
13 Cit. p. V e 6.
14 Cit., p. 26.
15 Cit. p. 25.
16 Nunes, Dierle. IA, tecnologias e devido processo: por uma Justiça 5.0 centrado nas pessoas através de uma abordagem orientado por dados. Repro. vol. 356. 2024. https://www.academia.edu/124442567/IA_TECNOLOGIAS_E_DEVIDO_PROCESSO_POR_UMA_JUSTI%C3%87A_5_0_CENTRADA_NAS_PESSOAS_MEDIANTE_UMA_ABORDAGEM_DATA_DRIVEN
18 LEE, Hao-Ping et al. The impact of generative ai on critical thinking: self-reported reductions in cognitive effort and confidence effects from a survey of knowledgeworkers. In: CHI Conference on Human Factors in Computing Systems (CHI '25). 2025. The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers
Dierle José Coelho Nunes
Sócio do escritório do Camara, Rodrigues, Oliveira & Nunes Advocacia (CRON Advocacia), doutor em Direito Processual, professor na PUC Minas e UFMG, membro da Comissão de Juristas que elaborou o anteprojeto de reforma do Código Civil e que assessorou na elaboração do Código de Processo Civil de 2015. Coordenador do Núcleo de Estudos de Inteligência Artificial no Direito da OAB/MG.


