MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Do cogito ao código: A dúvida como lastro da IA Jurídica

Do cogito ao código: A dúvida como lastro da IA Jurídica

O cogito cartesiano - "penso, logo existo" - não é apenas o marco zero da modernidade; é o fundamento da responsabilidade epistêmica.

quarta-feira, 13 de maio de 2026

Atualizado às 16:07

O cogito cartesiano - "penso, logo existo" - não é apenas o marco zero da modernidade; é o fundamento da responsabilidade epistêmica. No Direito, essa premissa ganha contornos de urgência diante da integração da IA. A tese central é clara e não tenho receio de abordá-la com coragem e frontalidade. A automação não possui a faculdade da dúvida e, por isso, o Direito não pode prescindir do "human-in-the-epistemic-loop". O ato de julgar e de peticionar exige uma supervisão que transcende a técnica, ancorando-se na competência dupla: jurídica e algorítmica.

Volto aqui umas casas antes de adentrar no tema em questão. A vontade primeira era a de caminhar para a filosofia - entre dúvidas, vocações e o fim do secundário, a sensação de um rumo pensado. Mas o Direito, suave e insistente, cochichou no meu ouvido promessas de combates, de sentido prático, de amores racionais. Não, não abandonei a filosofia, de jeito nenhum, porque ela permaneceu em cadeiras, em leituras vorazes, no modo como indago o mundo. E assim, num gesto que é herança e escolha, meu caçula decidiu seguir meus passos profissionais, trazendo consigo a mesma inclinação reflexiva: a filosofia a sustentar o ofício, o Direito a dar-lhe forma no conflito. A partir daí, revivendo descartes e seu impulso pelo duvidar metódico, abriu-se para mim também a frente da IA e do Direito. Duas ordens do saber que se interrogam mutuamente. Nasceu assim uma relação de questionamento entre ciências. A filosofia alimentando a dúvida, o Direito traduzindo princípios, e a inteligência artificial testando os limites do que entendemos por razão e responsabilidade.

É preciso compreender que a IA jurídica assemelha-se a um aplicativo de navegação: o sistema é extremamente útil para otimizar rotas, mas um condutor que nele confia irrestritamente pode ser levado a áreas inadequadas, como ruas sem saída, zonas de perigo ou trajetos incompatíveis com restrições legais. Do mesmo modo, um sistema de IA pode oferecer uma "rota" estatisticamente plausível para a decisão processual, mas só o operador humano, munido de um conhecimento mínimo do caminho ou do senso crítico da própria inteligência, evita desfechos juridicamente inadequados. A tecnologia mapeia possibilidades, mas o senso de direção - o julgamento sobre a viabilidade e a segurança do destino - pertence ao condutor.

Essa lógica aplica-se igualmente à aviação moderna: aviões sofisticados voam quase inteiramente por instrumentos e sistemas automatizados, mas o piloto humano é indispensável para assumir o manche quando os sensores falham ou quando o imprevisto exige uma decisão que a programação não previu. No Direito, o jurista é esse piloto; a IA pode manter a altitude e a velocidade, mas a aterrissagem segura em solo ético e fático exige mãos humanas.

A tese da insuficiência probabilística

A primeira tese deste artigo sustenta que existe uma incompatibilidade ontológica entre a natureza da IA e a natureza do Direito. Enquanto os modelos de machine learning operam sob uma lógica indutiva-estatística (buscando padrões de probabilidade em dados do passado), o Direito opera sob uma lógica normativo-prescritiva (buscando o dever-ser e a justiça no caso concreto). A IA não "compreende" o significado de uma norma; ela prevê a próxima palavra ou o resultado mais provável com base em frequências. Sem a dúvida metódica do jurista, o Direito corre o risco de sofrer uma "estatisticalização da justiça", onde o precedente histórico, por mais enviesado que seja, torna-se um destino algorítmico inescapável.

A opacidade e o dever de explicabilidade (XAI)

O "duvidar" cartesiano, quando aplicado aos sistemas de deep learning, revela o problema dos modelos opacos. Aqui, emerge a tese da Transparência Substancial. Não basta que o algoritmo forneça um resultado; o devido processo legal exige que o caminho lógico seja auditável. A supervisão especializada é a única capaz de exigir e interpretar a IA Explicável (XAI). Sem um operador que compreenda conceitos como overfitting (ajuste excessivo) ou a deriva de dados (data drift), a fundamentação das decisões judiciais torna-se uma "fundamentação por autoridade técnica", o que fere frontalmente o art. 93, IX, da Constituição Federal. A dúvida especializada é o que impede que a técnica se torne um dogma inquestionável.

A hermenêutica vs. O processamento de linguagem natural: O risco da alucinação indetectável

Uma tese fundamental aqui é a da irredutibilidade hermenêutica. O Direito é linguagem carregada de princípios, texturas abertas e conceitos indeterminados. Modelos de linguagem (LLMs) são excelentes em sintaxe, mas nulos em semântica profunda. Onde o jurista busca o sentido, a máquina busca a probabilidade. É neste hiato que nasce o perigo das alucinações: a geração de precedentes inexistentes ou interpretações absurdas apresentadas com tom de autoridade.

O risco maior é a falsa verossimilhança.

Para um operador sem o domínio da técnica jurídica, a alucinação da IA aparece como uma verdade estatisticamente elegante. Sem a supervisão especializada, o Direito deixa de ser aplicação da norma para se tornar refém de algoritmos que ignoram a teleologia das leis. A supervisão é o tradutor que impede que a automação substitua a justiça por uma simulação convincente, porém juridicamente oca.

O jurista como auditor de vieses e a imperiosidade da análise crítica

A supervisão não deve ser apenas técnica, mas sociotécnica. A IA tende a reproduzir e amplificar preconceitos estruturais contidos nas bases de dados. A tese aqui é que o jurista moderno assume o papel de auditor de equidade (fairness). A negligência na supervisão de um sistema discriminatório não é apenas uma falha de TI, mas uma infração ética e um ilícito civil/administrativo. O "Jurista-Algorítmico" deve possuir o que chamamos de "Literacia Crítica de Dados", sendo capaz de questionar a integridade das amostras que alimentam as decisões automatizadas. E esse é o ponto. A IA vai entregar o que você quiser, da forma como você quiser, mas sem reconhecer padrões do comportamento humano contido dentro de um território factual jurídico.

A percepção natural é diferente da artificial no elemento da sensibilidade. A IA é uma ferramenta instrumental poderosa - capaz de produzir, com precisão estilística e velocidade, o que se lhe ordenar - mas epistemologicamente distinta da percepção humana, sobretudo no reconhecimento de padrões comportamentais que se manifestam num território factual jurídico.

Sistemas de IA operam por correlações estatísticas e processamento de sinais; não detêm compreensão subjetiva, experiências vivenciais ou sensibilidade (qualia) que informam inferências sobre intenções, motivações, credibilidade e contextos culturais idiossincráticos. Assim, embora úteis para compilação documental, identificação de padrões quantitativos, simulações e geração de rascunhos argumentativos, os modelos podem omitir ou deturpar nuances comportamentais não representadas nos dados de treino, gerando risco de conclusões tecnicamente coerentes, porém desalinhadas com a dinâmica fática e estratégica do caso. No âmbito forense isso implica risco de desumanização das peças e perda de legitimidade das teses, razão pela qual a IA deve ser empregada como suporte, oferecendo hipóteses de trabalho e insumos analíticos, enquanto a apreciação sensível, a valoração normativa e a decisão final permanecem sob a responsabilidade humana.

Recomenda-se, portanto: explicitar premissas e limites das inferências automatizadas; submeter todas as saídas a revisão crítica por profissional qualificado; complementar análises por investigação empírica e entrevistas; e documentar a origem das inferências para efeito de auditoria.

Essa integração humano-máquina preserva a sensibilidade jurídica necessária à correta identificação de padrões comportamentais e maximiza o potencial estratégico da tecnologia sem abdicar da responsabilidade ética e técnica.

Conclusão: A primazia da consciência

O duvidar cartesiano não é um obstáculo à inovação, mas sua condição de legitimidade. A eficiência tecnológica deve estar a serviço da segurança jurídica, e não o contrário. Somente através de uma supervisão qualificada, armada com a dúvida metodológica e o rigor técnico, garantiremos que o código seja um instrumento de justiça, e não uma ferramenta de arbitrariedade invisível. O futuro do Direito não pertence às máquinas, mas aos humanos que saberão interrogá-las.

____________

 Kleinberg, J.; Lakkaraju, H.; Leskovec, J.; Ludwig, J.; Mullainathan, S. (2017). “Human Decisions and Machine Predictions.” Quarterly Journal of Economics, 133(1), 237–293. https://doi.org/10.1093/qje/qjx032

constituição da República Federativa do Brasil de 1988 — art. 93, IX. http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm

oshi-Velez, F. & Kim, B. (2017). “Towards A Rigorous Science of Interpretable Machine Learning.” arXiv:1702.08608. https://arxiv.org/abs/1702.08608

Rudin, C. (2019). “Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead.” Nature Machine Intelligence, 1, 206–215. https://doi.org/10.1038/s42256-019-0048-x

Guidotti, R. et al. (2018). “A Survey of Methods for Explaining Black Box Models.” ACM Computing Surveys. https://arxiv.org/abs/1802.01933

Miller, T. (2019). “Explanation in Artificial Intelligence: Insights from the Social Sciences.” Artificial Intelligence, 267, 1–38. https://doi.org/10.1016/j.artint.2018.07.007

Trabalhos e críticas sobre alucinações e limitações de LLMs — ver literatura recente em conferências ACL/EMNLP e notas técnicas de fornecedores e pesquisadores (ex.: papers arXiv sobre factuality e hallucination). O'Neil, C. (2016). Weapons of Math Destruction. Crown.

European Commission. (2021). Proposal for a Regulation on Artificial Intelligence (AI Act). https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

OECD. (2019). “OECD Principles on Artificial Intelligence.” https://www.oecd.org/going-digital/ai/principles/

AI Now Institute. Annual reports. https://ainowinstitute.org/reports.html

Partnership on AI. Best practices and governance guidelines. https://www.partnershiponai.org

Márcio Aguiar

VIP Márcio Aguiar

Sócio Fundador da Corbo, Aguiar & Waise Advogados. Especialista em Direito Empresarial e Internacional. Colunista. Ex-Diretor Jurídico da Câmara de Comércio Luso Brasileira. Co-Autor da EDD.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca