MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Inteligência artificial no STF: Inovação e transparência na justiça digital

Inteligência artificial no STF: Inovação e transparência na justiça digital

O artigo analisa a MarIA, a inteligência artificial do STF que otimiza processos e gera relatórios, abordando desafios éticos, transparência algorítmica e governança no Judiciário.

terça-feira, 4 de fevereiro de 2025

Atualizado às 11:28

1. Introdução

No dia 16/12/24, o STF inaugurou a MarIA - Módulo de Apoio para Redação com Inteligência Artificial -, uma ferramenta baseada em inteligência artificial generativa com o objetivo de otimizar a elaboração de textos processuais. Desenvolvida com apoio da empresa Elogroup Consulting Ltda., que cedeu os direitos do código-fonte e dos componentes da IA, a iniciativa representa um marco na modernização do Judiciário brasileiro. No entanto, sua implantação também levanta questões sensíveis sobre transparência, accountability e os impactos da automação no devido processo legal.

A ferramenta MarIA tem três funções principais: (i) gerar ementas automáticas a partir de votos e decisões dos ministros, (ii) elaborar relatórios processuais em REs - recursos extraordinários e AREs - recursos extraordinários com agravo e (iii) realizar uma análise inicial das reclamações que chegam ao STF, auxiliando na identificação de demandas repetitivas. O presidente do STF, ministro Luís Roberto Barroso, destacou que a iniciativa visa reduzir a sobrecarga processual e garantir maior celeridade à tramitação dos processos, considerando o acervo de mais de 83,8 milhões de ações em curso no Judiciário brasileiro.

A promissora capacidade de otimização processual da MarIA, todavia, suscita desafios relacionados à transparência dos métodos utilizados pela ferramenta e à necessidade de supervisão humana efetiva. Embora a Secretaria de Tecnologia e Inovação do STF tenha ressaltado que todas as decisões continuarão sendo revisadas por ministros e servidores, a utilização de inteligência artificial no Judiciário exige um debate aprofundado sobre suas implicações para os princípios do contraditório, da ampla defesa e da fundamentação das decisões judiciais.

Ademais, a adoção da MarIA reflete uma tendência global de incorporação de soluções tecnológicas no Direito, impulsionando mudanças estruturais na forma como o Judiciário interage com informações processuais. Tal cenário reforça a necessidade de estabelecer mecanismos de governança que garantam a equidade, a imparcialidade e o respeito aos direitos.

2. Desafios éticos e jurídicos da automação

A automatização de tarefas judiciais por meio da MarIA apresenta desafios éticos e jurídicos que vão além da mera modernização do Judiciário. Um dos principais entraves diz respeito à opacidade dos algoritmos utilizados, conhecidos como black box algorithms (algoritmos de caixa-preta). Quando um relatório ou resumo processual é gerado por um sistema cuja lógica permanece desconhecida, surge a dúvida sobre a conformidade dos critérios utilizados com os princípios constitucionais, como a transparência, a previsibilidade e o devido processo legal.

A ausência de explicabilidade nos modelos de inteligência artificial tem sido amplamente discutida em diversas áreas do Direito e da Administração Pública. Um caso emblemático ocorreu na Holanda, onde o governo utilizou um sistema automatizado, o SyRI - System Risk Indication, para detectar fraudes em benefícios sociais. O algoritmo operava sem transparência, cruzando dados de milhares de cidadãos sem que os critérios de análise fossem divulgados. Após denúncias de discriminação contra imigrantes e grupos socioeconomicamente vulneráveis, o sistema foi declarado ilegal pelo Tribunal de Haia em 2020, sob a justificativa de violar direitos fundamentais, como a privacidade e a não discriminação.

Outro exemplo relevante ocorreu no Reino Unido, com o uso de um algoritmo para definir notas de estudantes durante a pandemia de Covid-19, quando as provas presenciais foram canceladas. O sistema, desenvolvido para substituir as avaliações tradicionais, acabou prejudicando alunos de escolas públicas, reduzindo injustamente suas notas com base em padrões históricos de desempenho escolar. Após uma onda de protestos e contestação judicial, o governo britânico foi obrigado a abandonar a metodologia e reconsiderar os critérios de avaliação.

Esses exemplos demonstram que, sem mecanismos claros de auditoria e explicabilidade, algoritmos podem reforçar desigualdades e tomar decisões problemáticas sem que os afetados tenham meios eficazes de contestação. No caso da MarIA, ainda que seu objetivo seja auxiliar na sistematização de informações processuais e não substituir o julgamento humano, a opacidade de seu funcionamento pode gerar riscos semelhantes.

A neutralidade dos algoritmos também é passível de questionamento. Sem avaliações contínuas, a automação pode reproduzir ou agravar preconceitos existentes, desafiando a própria ideia de imparcialidade judicial. Por fim, torna-se essencial definir claramente a responsabilidade sobre os relatórios gerados: se uma inconsistência ou erro for identificado, qual será o nível de supervisão e correção possível? Essa questão coloca em debate os limites da autonomia técnica e ressalta a necessidade de fiscalização constante, garantindo que a tecnologia seja um instrumento de aprimoramento da justiça, e não de reforço a desigualdades estruturais.

3. Transparência algorítmica: Um imperativo democrático

A implementação da MarIA no STF representa um salto significativo na modernização do Judiciário, ao utilizar inteligência artificial generativa para auxiliar ministros e servidores na análise e síntese de informações processuais. Essa inovação, embora não detenha autonomia decisória, desempenha um papel crucial na formulação de votos, elaboração de relatórios e análise preliminar de reclamações, influenciando, de maneira direta e indireta, a interpretação dos magistrados. Diante desse cenário, a transparência algorítmica se impõe como um elemento central para garantir o uso ético da tecnologia, em estrita conformidade com os princípios do devido processo legal.

Para assegurar que a MarIA atue como uma ferramenta de apoio confiável, é imperativo que os critérios, dados e parâmetros que orientam suas respostas sejam amplamente divulgados aos operadores do Direito. Essa divulgação não exige, necessariamente, a abertura irrestrita do código-fonte, mas sim o estabelecimento de mecanismos que permitam compreender a lógica de funcionamento da ferramenta. Dessa forma, eventuais vieses poderão ser identificados e corrigidos preventivamente, evitando distorções que possam comprometer a prática judicial.

A necessidade de transparência algorítmica encontra respaldo em diversos casos reais que evidenciam os riscos de sistemas opacos. Por exemplo, investigações acadêmicas e análises de sistemas de policiamento preditivo empregados em centros urbanos dos Estados Unidos demonstraram que, quando os critérios e parâmetros não são amplamente divulgados, os algoritmos podem direcionar recursos de forma discriminatória. Tais estudos apontam para a intensificação do escrutínio sobre comunidades historicamente marginalizadas, evidenciando que a falta de transparência e auditoria pode agravar desigualdades sociais e reproduzir vieses estruturais.

Outro exemplo relevante é o episódio ocorrido no Reino Unido durante a pandemia de Covid-19, quando um algoritmo utilizado para definir as notas de estudantes afetou desproporcionalmente alunos de escolas públicas. Esse caso ilustra como a ausência de clareza nos critérios de avaliação pode prejudicar a confiança no processo decisório, limitando a possibilidade de contestação e comprometendo a justiça de maneira significativa.

A previsibilidade dos resultados gerados pela MarIA deve ser garantida por meio de auditorias constantes e de um sistema robusto de monitoramento. Somente com a fiscalização contínua será possível aprimorar os mecanismos de síntese e organização dos dados, mitigando o risco de que vieses algorítmicos passem despercebidos e influenciem de forma indevida a elaboração de peças jurídicas. Essa abordagem não só fortalece a confiabilidade da tecnologia, mas também resguarda a imparcialidade do processo judicial, assegurando que a inovação tecnológica se converta em suporte à atividade jurisdicional e não em fator de comprometimento da justiça.

Portanto, a transparência algorítmica emerge não apenas como uma exigência técnica, mas como um compromisso ético indispensável para o fortalecimento do Estado Democrático de Direito. Ao garantir que a MarIA opere de maneira clara e passível de escrutínio, o STF reafirma seu papel de protagonista na construção de um Judiciário moderno, que integra inovação e responsabilidade. Essa postura promove uma justiça digital que respeite os direitos fundamentais, inspire confiança na sociedade e se torne um verdadeiro aliado na promoção da equidade e da transparência nos processos decisórios.

4. Governança algorítmica e transparência das decisões

A introdução da MarIA no STF impõe desafios que vão além do aspecto tecnológico, exigindo a adoção de um modelo de governança algorítmica que regulamente seu uso e estabeleça diretrizes para sua supervisão. Embora a ferramenta não tome decisões judiciais, sua influência na elaboração de ementas, relatórios e análises preliminares demanda um controle rigoroso sobre sua implementação, evitando que erros ou vieses estruturais comprometam a neutralidade do sistema judicial.

A governança algorítmica da MarIA deve garantir que seu uso esteja alinhado aos princípios constitucionais e aos direitos fundamentais, assegurando que os conteúdos gerados pela IA sejam sempre revisados por magistrados e servidores antes de serem incorporados aos processos. Além disso, deve-se estabelecer um protocolo de auditoria contínua, avaliando regularmente se as informações apresentadas pela ferramenta refletem corretamente o entendimento jurisprudencial e os precedentes aplicáveis a cada caso.

A transparência na geração de conteúdo é um fator determinante para que a MarIA cumpra sua função de apoio sem comprometer a legitimidade do processo judicial. Para isso, é necessário que os parâmetros utilizados pela inteligência artificial na formulação de resumos e relatórios sejam documentados e acessíveis aos operadores do Direito, permitindo que advogados e partes envolvidas possam compreender e questionar eventuais inconsistências.

Além disso, é fundamental que a governança da MarIA seja flexível e adaptável às transformações tecnológicas e jurídicas. À medida que novos desafios surgem na aplicação da inteligência artificial no Judiciário, as normas e protocolos que regem sua utilização devem ser continuamente aprimorados para garantir que a ferramenta permaneça confiável, ética e transparente. Dessa forma, a modernização do Judiciário por meio da inteligência artificial pode ocorrer de maneira segura, garantindo que a tecnologia esteja a serviço da justiça, e não o contrário.

5. O caso COMPAS: Lições sobre transparência e discriminação algorítmica

O sistema COMPAS - Correctional Offender Management Profiling for Alternative Sanctions, desenvolvido pela empresa Northpointe (atualmente Equivant), tem sido amplamente utilizado no sistema judicial dos Estados Unidos para avaliar o risco de reincidência criminal de réus. No entanto, sua implementação levantou questões significativas sobre viés algorítmico e transparência na tomada de decisões judiciais assistidas por inteligência artificial.

O caso State v. Loomis (881 N.W.2d 749, 2016) foi um marco na discussão sobre o uso do COMPAS em sentenças judiciais. Eric Loomis foi condenado a seis anos de prisão com base, em parte, na avaliação de risco gerada pelo algoritmo. A defesa argumentou que a falta de transparência do COMPAS violava o direito ao devido processo legal, uma vez que os critérios exatos utilizados para a classificação do réu eram considerados propriedade intelectual da empresa desenvolvedora e não podiam ser contestados pela defesa. A Suprema Corte de Wisconsin decidiu contra Loomis, afirmando que o COMPAS poderia ser utilizado como uma ferramenta auxiliar na sentença, desde que não fosse o único critério determinante. Contudo, a decisão gerou preocupações generalizadas sobre a confiabilidade e imparcialidade dos algoritmos no sistema de justiça criminal.

Além do caso Loomis, um estudo de 2016 conduzido pela ProPublica1 revelou evidências de que o COMPAS apresentava um viés sistemático contra réus negros. Os jornalistas investigativos analisaram mais de 7.000 casos em Broward County, Flórida, e descobriram que o algoritmo tendia a classificar réus negros como de "alto risco" de reincidência com muito mais frequência do que réus brancos, mesmo quando o histórico criminal era semelhante.

O estudo destacou casos emblemáticos como o de Brisha Borden e Vernon Prater. Borden, uma jovem negra de 18 anos, foi classificada como de alto risco após ser presa por pegar uma bicicleta e um patinete deixados na rua, sem intenção clara de furtá-los. Já Prater, um homem branco de 41 anos, condenado por crimes mais graves, incluindo roubo à mão armada, recebeu uma classificação de baixo risco. Dois anos depois, Borden não cometeu novos crimes, enquanto Prater foi preso novamente por um assalto. Esse e outros casos demonstraram que o COMPAS errava em sua previsão de reincidência de maneira enviesada contra minorias raciais.

Além disso, a análise revelou que os réus brancos tinham maior probabilidade de serem classificados erroneamente como de "baixo risco" em comparação com os réus negros. A falta de transparência no funcionamento do algoritmo impediu que advogados de defesa e juízes compreendessem completamente como essas decisões estavam sendo tomadas, reforçando a necessidade de uma regulamentação mais rigorosa sobre o uso de IA no sistema judicial.

A investigação da ProPublica também apontou que a metodologia do COMPAS era protegida como segredo comercial pela Northpointe, dificultando a avaliação independente de seus critérios e funcionamento. Isso gerou um debate sobre a necessidade de maior transparência e auditabilidade de algoritmos utilizados em decisões judiciais, sobretudo aqueles que influenciam a privação de liberdade dos indivíduos.

A experiência com o COMPAS ilustra os riscos da opacidade algorítmica no sistema de justiça, o que levanta preocupações semelhantes quanto à implementação da MarIA pelo STF. No caso do COMPAS, a falta de transparência em seus critérios de pontuação levou a questionamentos sobre sua influência na privação de liberdade dos réus, evidenciando como a dependência de sistemas automatizados pode impactar diretamente a justiça das decisões. Embora a MarIA não tome decisões judiciais, seu papel na estruturação da pesquisa jurídica e na organização de jurisprudência pode influenciar indiretamente a fundamentação dos magistrados.

Assim como no COMPAS, a ausência de transparência na forma como os dados são processados e apresentados pode resultar em vieses que afetam a condução dos julgamentos. Se a MarIA priorizar certos precedentes em detrimento de outros ou estruturar a pesquisa jurídica de maneira seletiva, pode-se criar uma falsa impressão de consenso jurisprudencial, limitando o espectro de interpretações consideradas pelos ministros. A diferença fundamental entre os dois sistemas não elimina o risco de que a opacidade algorítmica comprometa a imparcialidade e a previsibilidade do Direito.

A correlação entre os dois casos evidencia a necessidade de mecanismos que garantam a transparência e a auditabilidade dos algoritmos utilizados no Judiciário. O COMPAS demonstrou como a confiança em modelos opacos pode levar a distorções na aplicação da justiça, e a MarIA, ainda que em um contexto distinto, também pode moldar decisões de forma indireta caso não sejam estabelecidos critérios claros sobre seu funcionamento e sua influência na interpretação do Direito. Se no COMPAS a falta de explicabilidade levantou dúvidas sobre a justiça das sentenças, na MarIA, a ausência de transparência pode comprometer a confiabilidade das informações utilizadas pelos magistrados, reforçando a necessidade de controle e escrutínio sobre sua aplicação.

Considerações finais

A MarIA representa um marco transformador na modernização do Judiciário brasileiro, trazendo a promessa de otimizar processos e aliviar a sobrecarga que há tempos desafia o sistema judicial. Contudo, essa inovação deve ser acompanhada de um compromisso firme com a transparência e a governança colaborativa. Se os algoritmos que geram ementas, relatórios e análises processuais permanecerem opacos, o risco é que a automação acabe reproduzindo vieses já existentes, comprometendo a imparcialidade e a previsibilidade das decisões judiciais. Assim, é fundamental que os critérios, dados e parâmetros que orientam a MarIA sejam divulgados de forma clara, permitindo que operadores do Direito, advogados e a sociedade possam acompanhar e questionar seu funcionamento.

Essa abertura não significa necessariamente a divulgação total do código-fonte, mas a implementação de mecanismos robustos de auditoria contínua e supervisão democrática. A criação de um ambiente onde a tecnologia se submeta a avaliações periódicas e a feedbacks constantes pode transformar a MarIA em um sistema dinâmico, capaz de se adaptar e evoluir conforme os desafios éticos e jurídicos se apresentam. A experiência com outros sistemas automatizados reforça que a ausência de transparência pode levar a injustiças e discriminações, demonstrando a importância de um controle rigoroso na aplicação de soluções tecnológicas no âmbito judicial.

Para que a MarIA cumpra seu papel de apoio sem comprometer os direitos fundamentais, é essencial que sua governança seja construída de forma colaborativa, envolvendo não apenas o Judiciário, mas também representantes do Legislativo, especialistas em inteligência artificial, ética e a sociedade civil. Essa articulação entre diversos atores é crucial para garantir que a tecnologia esteja a serviço da justiça, evitando que se torne um instrumento de exclusão ou acentuação de desigualdades. Além disso, a criação de canais de feedback que possibilitem a correção de inconsistências e a melhoria contínua da ferramenta promoverá um ambiente de constante aprendizado e aprimoramento.

Por fim, incentivar a pesquisa e o desenvolvimento de novas metodologias para aprimorar a explicabilidade dos algoritmos é vital para que o Judiciário se posicione não apenas como consumidor de tecnologia, mas como protagonista na definição de diretrizes éticas para a inteligência artificial. Dessa forma, a inovação pode caminhar lado a lado com os valores democráticos, transformando a MarIA em um símbolo de justiça digital que fortaleça a confiança da sociedade no sistema judicial e contribua para a construção de um futuro onde tecnologia e ética se entrelacem de maneira harmônica e justa.

__________

1 ANGWIN, Julia; LARSON, Jeff; MATTU, Surya; KIRCHNER, Lauren. Machine Bias: There's software used across the country to predict future criminals. And it's biased against blacks. ProPublica, 23 maio 2016. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing  . Acesso em: 02 fevereiro 2025.

2 ALMEIDA, Virgílio; et al. Algorithmic Institutionalism: the changing rules of social and political life. Cambridge: Cambridge University Press, 2023.

3 BRASIL. Constituição (1988). Constituição da República Federativa do Brasil. Brasília, DF: Senado Federal, 1988. (Referência aos princípios da publicidade dos atos judiciais e do devido processo legal: art. 5º, LX; art. 93, IX).

4 MEDINA, Damares. MarIA: tecnologia, opacidade e o futuro da jurisdição constitucional - os desafios de uma revolução algorítmica no judiciário. 23 dez. 2024.

5 STF. STF lança MarIA, ferramenta de inteligência artificial que dará mais agilidade aos serviços do Tribunal. Disponível em: https://noticias.stf.jus.br. Acesso em: 16 dez. 2024.

6 UNIÃO EUROPEIA. Artificial Intelligence Act: proposal for a regulation laying down harmonized rules on artificial intelligence. Disponível em: https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence. Acesso em: 17 dez. 2024.

Victor Habib Lantyer de Mello

VIP Victor Habib Lantyer de Mello

Advogado e Professor. Mestre em Direito pela Universidade Católica do Salvador. Autor de dezenas de livros jurídicos. Pesquisador multipremiado.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca