O avanço da inteligência artificial no Poder Judiciário brasileiro tem sido apresentado como resposta institucional a um cenário de sobrecarga estrutural e litigiosidade em massa. Dados recentes do CNJ revelam que, ao final de 2024, o Judiciário acumulava aproximadamente 80,6 milhões de processos pendentes, dos quais 62,9 milhões encontravam-se em efetiva tramitação, tendo ingressado, apenas naquele ano, 39,4 milhões de novas ações. Esses números evidenciam a magnitude do problema e explicam por que a tecnologia passou a ocupar lugar central no discurso de modernização da justiça brasileira.
Nesse contexto, a inteligência artificial vem sendo difundida como instrumento capaz de promover maior eficiência, padronização e previsibilidade decisória. A promessa subjacente é a de que algoritmos poderiam reduzir subjetividades, minimizar divergências interpretativas e conferir neutralidade às decisões judiciais. Contudo, essa narrativa tecnocrática repousa sobre um pressuposto altamente problemático: a ideia de que a decisão judicial pode ser automatizada sem perda de seu caráter normativo, interpretativo e democrático.
A própria experiência empírica do Judiciário brasileiro revela a profundidade desse deslocamento. Segundo a Pesquisa sobre Uso de Inteligência Artificial no Poder Judiciário, conduzida pelo CNJ, 35,8% das aplicações de IA já se relacionam diretamente ao apoio à decisão judicial, enquanto 42,6% dos entrevistados apontam a melhoria da tomada de decisões como principal motivação para adoção dessas ferramentas. Além disso, 84,2% indicam a eficiência e a agilidade como fatores determinantes para o desenvolvimento de projetos de IA. Esses dados demonstram que a inteligência artificial não se limita mais a funções administrativas, mas avança progressivamente sobre o núcleo sensível da jurisdição: o espaço da decisão
É precisamente nesse ponto que emerge o problema da neutralidade algorítmica. A crença de que algoritmos seriam capazes de produzir decisões juridicamente neutras ignora que toda decisão judicial envolve, necessariamente, um processo interpretativo situado, condicionado pela linguagem, pela historicidade e pela normatividade constitucional. A decisão não é um ato técnico, mas uma prática de atribuição de sentido, inseparável do compromisso com a Constituição. Assim, o problema da automação decisória não é meramente tecnológico, mas essencialmente hermenêutico.
A Crítica Hermenêutica do Direito fornece um marco teórico adequado para enfrentar essa questão. Ao denunciar tanto o decisionismo judicial quanto o formalismo tecnicista, essa abordagem sustenta que o sentido jurídico não é produto da vontade do intérprete nem resultado de cálculos estatísticos, mas decorre de um processo interpretativo constitucionalmente comprometido. Não existe grau zero de sentido, nem ponto neutro de observação a partir do qual o Direito possa ser aplicado de forma objetiva. A Constituição opera como limite da interpretação, e não como um repositório flexível de soluções pragmáticas.
Nesse cenário, a automação decisória tende a produzir uma reedição contemporânea do decisionismo, agora deslocado da subjetividade do juiz para a opacidade dos sistemas algorítmicos. Os algoritmos não eliminam a discricionariedade; apenas a ocultam. As escolhas incorporadas nos modelos computacionais - seleção de dados, critérios de treinamento, parâmetros estatísticos - são decisões humanas prévias, apresentadas sob o discurso da neutralidade técnica. O resultado é a transferência da decisão para mecanismos cujo funcionamento permanece inacessível às partes, fragilizando o controle democrático da jurisdição.
A doutrina tem identificado diferentes níveis de uso da inteligência artificial no Judiciário, que variam conforme o grau de interferência no processo decisório. Sistemas de classificação e organização de documentos ou de apoio à elaboração de minutas podem desempenhar funções legítimas, desde que preservada a autonomia interpretativa do magistrado. O problema surge quando se avança para modelos que atribuem ao algoritmo o status de decisão judicial, especialmente em demandas repetitivas. Nessa configuração, o juiz atua apenas como revisor posterior, esvaziando sua responsabilidade interpretativa e deslocando o núcleo decisório para estruturas técnicas opacas.
Esse deslocamento produz efeitos diretos sobre garantias constitucionais centrais. A fundamentação das decisões judiciais, consagrada como dever constitucional, não se satisfaz com respostas padronizadas, probabilísticas ou baseadas em correlações estatísticas. A decisão judicial é um ato de justificação pública, que exige razões compreensíveis, auditáveis e constitucionalmente orientadas. Além disso, o contraditório pressupõe o conhecimento dos fundamentos que orientam a decisão, o que se torna inviável quando o processo decisório é mediado por algoritmos não transparentes.
A distinção frequentemente utilizada para legitimar a automação decisória, entre casos simples e casos complexos, tampouco se sustenta à luz da hermenêutica filosófica. A complexidade não é atributo prévio do caso, mas emerge no próprio processo interpretativo. Todo chamado “caso fácil” é apenas um caso que já foi compreendido. A tentativa de automatizar decisões sob o rótulo de easy cases tende a reforçar práticas decisionistas e a reduzir o Direito a uma lógica de subsunção mecânica, incompatível com a integridade do sistema jurídico.
Nada disso implica rejeitar a inteligência artificial no Poder Judiciário. Ferramentas tecnológicas podem contribuir significativamente para a racionalização administrativa, a organização de dados e o apoio a atividades repetitivas. O que se revela incompatível com o Estado Constitucional de Direito é a substituição da interpretação jurídica por modelos algorítmicos. A figura do robô-julgador fragiliza a responsabilidade democrática do julgador, compromete garantias processuais e ameaça reduzir a decisão judicial a um produto técnico.
Superar a ilusão da neutralidade algorítmica exige reconhecer que a tecnologia deve permanecer subordinada ao controle hermenêutico rigoroso. A decisão judicial não é - e não pode ser - produto de cálculo, previsão ou automação. Ela permanece um ato de responsabilidade interpretativa, inseparável da Constituição, da democracia e da integridade do Direito.
_______
Referências
CONSELHO NACIONAL DE JUSTIÇA. Justiça em Números 2024. Brasília: CNJ, 2024.
CONSELHO NACIONAL DE JUSTIÇA. Pesquisa Uso de Inteligência Artificial no Poder Judiciário 2024 – Resumo Executivo. Brasília: CNJ, 2025.
BOEING, Daniel Henrique Arruda; ROSA, Alexandre Morais da. Ensinando um robô a julgar. Florianópolis: Emais Academia, 2020.
DWORKIN, Ronald. O império do direito. São Paulo: Martins Fontes, 2003.
NUNES, Dierle; MARQUES, Ana Luiza Pinto Coelho. Inteligência artificial e direito processual: vieses algorítmicos e os riscos da função decisória automatizada. Revista de Processo, v. 285, 2018.
STRECK, Lenio Luiz. Verdade e consenso. 6. ed. São Paulo: Saraiva, 2017.
STRECK, Lenio Luiz; JUNG, Luã Nogueira. Hermenêutica e inteligência artificial. Revista de Direito Público, v. 21, n. 110, 2024.
TARUFFO, Michele. Uma simples verdade: o juiz e a construção dos fatos. São Paulo: Marcial Pons, 2012.