O direito, enquanto “ciência” social aplicada1 , é fruto do seu tempo, uma vez que o passado do direito não é mais “direito”, mas “história do direito” e, por isso, o direito (esse vigente) não pode ficar alheio as influências que a sociedade exercer, por meio do modelo de vida contemporâneo.
Assim, em cada um dos momentos históricos houve as suas respectivas discussões jurídicas, uma vez que já se discutiu desde a “abolição da escravatura versus direito de propriedade”, até a “proteção de dados” (o novo petróleo - de fato), passando pelos “direitos das mulheres ao voto”.
Atualmente, a discussão que mais nos conduz a reflexão diz respeito a inteligência artificial generativa.
E um grande ponto nevrálgico da discussão sobre o ainda atual estado da inteligência artificial é sobre seu uso pelo Poder Judiciário e suas implicações, inclusive e sobretudo pela terceirização que muitas vezes se faz na atividade fim jurídica (em todas as carreiras, públicas ou privadas).
Afinal, é fato inconteste, inclusive porque lícito, que as autoridades jurisdicionais se utilizam, no seu dia-a-dia, da inteligência artificial para confecção de sentenças e decisões.
O problema, contudo, não reside no uso das tecnologias generativas em si, mas, sim, na inversão da ordem decisória, já que, por vezes, um mesmo processo pode ser julgado de modo diametralmente oposto por alterações de “prompt”.
Sobre o assunto, STRECK já tem se manifestado:
Um causídico ingressou com duas ações, versando sobre o mesmo “evento danoso”. Pensem em uma enchente ou um desmoronamento (portanto, um evento com danos). No primeiro, o causídico pediu danos morais. No outro, danos materiais. Para a mesma vítima! É estranho que o advogado faça isso – mas consta que isso virou praxe. Deve ser coisa da IA. E aqui entra o bizarro:
(i) as decisões foram emitidas concomitantemente.
(ii) no primeiro, a vítima recebeu os danos morais;
(iii) no segundo, foram-lhe negados os danos materiais;
(iv) o busílis está na decisão do magistrado: no primeiro pedido (danos morais), houve o deferimento porque considerou-se provado o referido evento danoso – uma vez que o poder público agiu de modo X; no segundo pedido, danos materiais, o mesmo magistrado não considerou provado o mesmo evento anterior, por considerar que o poder público agiu de modo Y. Quer dizer, o poder público agiu e não agiu para evitar o evento! Bingo!
(v) isto é, o mesmo evento gera duas decisões - antitéticas.
Provavelmente cada um dos estagiários ou assessor tenham posto prompts diferentes. E deu nisso. O que diz sobre isso a comunidade jurídica? Muito pouco. A maioria está embriagada com o “novo normal” (há até um livro que anuncia o “novo normal”).
(STRECK, Lênio Luiz. Na mesma hora, robô faz duas decisões antagônicas sobre o mesmo tema).
Assim, é certo que tanto é possível que tenhamos uma resposta válida - já que o raciocínio, em regra será sempre dotado de lógica interna - para ambos os lados a partir dos comandos “julgue procedente” ou “julgue improcedente”, como também é possível que meios mais sutis de alterações de análise de “prompts” modifiquem a cognição, chegando a resultados diametralmente opostos.
Nesse sentido, a mera lógica interna - via discurso de fundamentação racional contido na decisão - não basta, por si só, ao dever de motivação das decisões, que, em razão da necessidade de legitimação e accountability, exigem saber como se chegou, efetivamente, à decisão prolatada, consoante dispõe o art. 93, inciso IX, da CRFB/88.
Sobre o assunto, inclusive, destaca-se que o dever de motivação “reveste-se de particular importância para as partes, na relação jurídico-processual e, também, para sociedade” (FACHIN, Zulmar. Curso de Direito Constitucional. 5.ª edição. Rio de Janeiro: Forense, 2012, p. 494).
Desse modo, se o juízo, no caso concreto, se utilizou de uma ferramenta de inteligência generativa é imperioso, em razão do dever de fundamentação, e dos princípios de legitimação e accountability que se extraem dessa norma, que seja consignado na sentença “quais ferramentas foram utilizadas”; “se estas são abertas ou fechadas”; “qual a fonte de alimentação de dados”; principalmente, “quais os prompts foram utilizados”, sob pena de funcionar a fundamentação racional lançada como mero simulacro de fundamentação, ao arrepio do que previu e impôs o constituinte.
Ou seja, nesses novos tempos que se avizinham, discutir a inteligência artificial, e o seu uso no direito implica em (re)pensar os direitos vigentes, e pensar para onde vamos, e o dever de fundamentação das decisões se encontra, exatamente, em um dos diversos pontos dessas novas discussões.
Observação: Esse artigo não conta com a indicação de prompt, pois não se utilizou, para sua confecção, de inteligência artificial.
_______________
FACHIN, Zulmar. Curso de Direito Constitucional. 5.ª edição. Rio de Janeiro: Forense, 2012, p. 494
STRECK, Lênio Luiz. Na mesma hora, robô faz duas decisões antagônicas sobre o mesmo tema. Disponível em Acesso em 03.03.2026
_________
1 Utilizo entre aspas, pois, a par de opiniões em contrário, me filio a corrente de que não considero o direito uma ciência, mas, sim, uma tecnologia social, de convivência e estruturação de poder e das relações sociais.