COLUNAS

  1. Home >
  2. Colunas >
  3. Dados Públicos >
  4. A utilização de IA generativa pelo Judiciário brasileiro: a crônica de uma tragédia anunciada do julgador que objetivou a celeridade e feriu uma garantia fundamental

A utilização de IA generativa pelo Judiciário brasileiro: a crônica de uma tragédia anunciada do julgador que objetivou a celeridade e feriu uma garantia fundamental

segunda-feira, 27 de novembro de 2023

Atualizado às 10:41

O potencial de Inteligências Artificiais (IAs) generativas de texto e imagem está no centro dos debates no mundo após a abertura de acesso ao ChatGPT pela OpenAI em 2022. A China já buscou medidas de regulação em abril de 20231, a Casa Branca dos Estados Unidos da América emitiu uma Ordem Executiva que aborda questões sobre essas tecnologias2, a União Europeia ainda discute o seu texto do seu AI Act com previsões sobre o tema e o Brasil em breve terá um relatório do Senador Eduardo Gomes no PL 2338/23, após audiências públicas realizadas no Senado Federal.

Nesse contexto de tentativas regulatórias, no dia 12 de novembro do presente ano, uma matéria tomou os jornais do Brasil: um juiz federal do TRF-1 utilizou o ChatGPT para gerar uma decisão que continha jurisprudência do Superior Tribunal de Justiça inexistente3.

De um lado, o fato gera escândalo devido à falta de cuidado do juiz em verificar o conteúdo gerado pela ferramenta, de outro, proporciona a oportunidade de discutir a adoção dessas tecnologias pelo Poder Judiciário. Isso é especialmente relevante considerando as declarações do Ministro Roberto Barroso, durante à sua primeira sessão como Presidente do Conselho Nacional de Justiça, ao mencionar um plano de pedir às big techs norte-americanas a criação de uma ferramenta específica para o Judiciário brasileiro4.

É nesta conjuntura que o presente artigo irá abordar um ponto específico desse complexo problema: como o Conselho Nacional de Justiça está conduzindo o desenvolvimento e a adoção de inteligências artificiais e a preponderância da visão de eficiência produtiva nesse cenário.

Inicialmente faz-se importante pontuar que as possibilidades de utilização das tecnologias de inteligência artificial no direito são várias. Tainá Aguiar Junquilho sistematiza em: modelos preditivos, organização de documentos, busca textual, automação de documentos e decisões automatizadas5.

A categorização mencionada baseia-se no papel que a inteligência artificial pode desempenhar nos tribunais, abrangendo desde a inferência de informações em documentos específicos até a análise preditiva para possíveis decisões. No contexto do Poder Judiciário, todas essas capacidades podem prejudicar o devido processo legal, especialmente na falta de transparência quanto à participação das IAs e à relação do ser humano quando apoiado conscientemente por algoritmos.

Um exemplo ilustrativo é a possível classificação incorreta de um caso em uma categoria de processos, acarretando consequências adversas para uma das partes. Embora seja responsabilidade de servidores ou juízes validar os efeitos jurídicos da referida seleção, é amplamente reconhecido que o vasto número de processos pode resultar na ausência de uma análise crítica humana sobre a sugestão da tecnologia, validando, assim, implicações que infringem os direitos das partes.

Outro exemplo relevante a se mencionar são os buscadores de textos, que podem ser empregados para embasar as decisões dos magistrados. Isso porque, dependendo de como os critérios de treinamento foram aplicados, esses buscadores podem acabar favorecendo decisões que reforçam uma determinada posição jurisprudencial, o que nem sempre se adequa ao caso concreto.

A intensificação de questões controversas na jurisdição brasileira pode resultar da simples reprodução dos resultados fornecidos por algoritmos, sem que o julgador analise necessariamente os possíveis erros e omissões dentro do contexto processual. Vale destacar que essa situação, infelizmente, já é comum mesmo na ausência de tecnologias, e ela se baseia em uma concepção psicológica de que os sistemas tecnológicos desempenham atividades com maior assertividade do que os humanos. A exemplo disto, temos o recente caso do juiz do Tribunal Regional Federal da 1ª região comprova essa tendência.

Com a ampliação do uso de IAs como política institucional do CNJ, em agosto de 2020 o órgão elaborou a Resolução 3326, que cria regras para o desenvolvimento dessas tecnologias pelos Tribunais. O art. 2° estabelece os objetivos das IAs: "A Inteligência Artificial, no âmbito do Poder Judiciário, visa promover o bem-estar dos jurisdicionados e a prestação equitativa da jurisdição, bem como descobrir métodos e práticas que possibilitem a consecução desses objetivos".

Além disso, o Capítulo VII estabelece mecanismos de controle para os usuários, sendo categorizados como usuários internos (Artigo 17) ou usuários externos (Artigo 18). Especificamente em relação aos usuários externos, que incluem advogados e partes (Artigo 3, Inciso VI), há uma disposição explícita sobre a obrigação de informar o uso de inteligências artificiais, indicando que o sistema apenas auxilia na tomada de decisões, que é submetida à autoridade competente.

Dois aspectos merecem destaque em relação à Resolução em questão: (i) a ausência de uma menção explícita ao respeito ao devido processo legal como guia para o desenvolvimento dessas tecnologias, bem como (ii) a falta de menção à consulta a outros agentes interessados na elaboração/implementação desses sistemas, como a Ordem dos Advogados do Brasil.

No que diz respeito ao primeiro ponto, é importante reconhecer que o princípio do devido processo legal possui diversas dimensões normativas específicas que as inteligências artificiais, incluindo aquelas mais simples para busca textual, desafiam. Por exemplo, a imparcialidade do julgador, presente em instrumentos internacionais dos quais o Brasil é signatário, pode ser comprometida pela utilização de algoritmos de busca jurisprudencial impregnados com um viés específico, resultando em decisões que favorecem uma interpretação especial, sem considerar o contexto de divergências que possam existir relativamente aum determinado tema.

Apesar de a igualdade ser mencionada na regulamentação do CNJ, não fica claro como medidas concretas devem ser adotadas para implementar o conteúdo normativo dessa proporção no momento da decisão sobre a adoção dessas tecnologias. Outra dimensão do princípio em análise, que não está claramente regulamentada, é a necessidade de motivação das decisões judiciais nos casos em que a inteligência artificial pode gerar um primeiro rascunho sobre o caso ou na substituição total do magistrado em casos pré-determinados.

Embora a indicação de um rascunho de decisão possa ser equiparada ao trabalho de um assessor, uma prática forense comum em todos os tribunais brasileiros para decisões repetitivas sujeitas à revisão e assinatura de um magistrado, a distinção reside principalmente na questão quantitativa, afinal, um dos objetivos da implementação de novas tecnologias no Poder Judiciário é se obter maior celeridade na suposta entrega da prestação jurisdicional.

Dizemos isso, pois dificilmente um magistrado examinará centenas ou milhares de rascunhos de decisões geradas por tecnologias em poucos minutos, ao passo que os assessores têm uma capacidade de produção limitada e podem identificar problemas específicos que exigem análises aprofundadas em casos inicialmente considerados simples. Aliás, esse foi o argumento utilizado pelo juiz do TRF quando confrontado sobre a jurisprudência inexistente do Superior Tribunal de Justiça, conforme noticiado acima.

Além disso, a obrigação de motivar as decisões judiciais, juntamente com o direito à ampla defesa, também pode ser violada pela opacidade dos algoritmos adotados. Estes podem não fornecer clareza sobre os elementos utilizados para chegar à decisão, levantando questionamentos sobre a legitimidade das decisões formuladas por algoritmos. Esse problema não se restringe apenas à hipótese de substituição total dos julgadores, mas persiste mesmo quando a tecnologia é empregada na elaboração da primeira versão da decisão.

Contudo, a resolução em questão não estabelece parâmetros claros e requisitos procedimentais que assegurem esses critérios, deixando a cargo dos agentes envolvidos no desenvolvimento (definidos apenas como usuários internos pelo Artigo 3º, Inciso V da Resolução, e restritos a membros, servidores ou colaboradores do Poder Judiciário) a interpretação do cumprimento desses requisitos.

Este problema está diretamente relacionado ao segundo desafio mencionado no início desta seção do trabalho: a ausência de previsão para a participação de agentes externos ao Poder Judiciário no desenvolvimento dos sistemas, como representantes da Ordem dos Advogados do Brasil. Pode-se argumentar que há uma inclinação dos algoritmos desenvolvidos sob o formato atual para realizar atividades no melhor interesse dos servidores, como a celeridade no julgamento de processos, em detrimento do melhor interesse da sociedade como parte afetada pelas decisões.

Em sede conclusiva, o recente caso do julgador do TRF-1 é o que o podemos chamar de uma "crônica do desastre anunciado", até porque muito desse artigo está explorado em peça a ser publicada no 1° Anuário das Comissões de Proteção de Dados e Direito Digital da OAB Nacional7, sob a presidência do Dr. Rodrigo Badaró e Dra. Laura Schertel Mendes, respectivamente, e que foi pensado em meados de 2023. Essa situação só reforça os problemas que havíamos antecipado e a necessidade de medidas regulatórias para a implementação de IA no Judiciário que não sejam somente focadas na eficiência produtiva, mas também na garantia de direitos fundamentais. Caso esse enfoque não seja tratado desde já, o ganho da automação será perdido pelos inúmeros recursos questionando o uso incorreto dessas tecnologias que inundarão os órgãos recursais.

____________

1 O texto foi traduzido pelo programa DigiChina da Universidade de Standford para inglês. Disponível aqui.

2 Disponível pelo site oficial. Disponível aqui.

3 CNJ vai investigar juiz que usou tese inventada pelo ChatGPT para escrever decisão. Consultor Jurídico, 12 de novembro de 2023.

4 BARROSO pede a big techs criação de "ChatGPT" para uso jurídico. Migalhas, 18 de outubro de 2023. 

5 JUNQUILHO, Tainá Aguiar. Inteligência Artificial no Direito - Limites Éticos. São Paulo: Juspodivm, 2022, p. 83-84

6 BRASIL. Conselho Nacional de Justiça. Resolução n° 332, de 21 de agosto de 2022. Dispõe sobre a sobre a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário e dá outras providências. Disponível aqui. Acesso em 11 de set de 2023.

7 Disponível aqui.