Racismo algoritmo: A nova face da injustiça penal
Reconhecimento facial e IA no processo penal: Quando a tecnologia, em vez de justiça, reforça o racismo estrutural com precisão matemática. Um alerta urgente à toga e ao algoritmo.
terça-feira, 6 de maio de 2025
Atualizado às 10:53
Introdução
O discurso da modernização do Judiciário brasileiro tem apostado suas fichas na incorporação de ferramentas tecnológicas capazes de acelerar a prestação jurisdicional. Inteligência artificial, automação de rotinas processuais e sistemas de apoio à decisão judicial passaram a ocupar lugar privilegiado nas pautas institucionais.
No discurso institucional, o uso de inteligência artificial no Judiciário promete decisões mais rápidas, padronizadas e "objetivas". A resolução 332/20 do CNJ, por exemplo, orienta os tribunais a desenvolverem sistemas baseados em IA para auxiliar a prestação jurisdicional. No Supremo Tribunal Federal, ocorreu o lançamento da "Maria", ferramenta de IA com o objetivo de remodelar a produção de conteúdo no Tribunal, conforme afirmou o presidente da Corte, ministro Luís Roberto Barroso, durante a cerimônia de lançamento no STF1. E, de fato, há ganhos inegáveis quando se trata de tarefas repetitivas, triagens ou organização processual.
Mas, nem toda inovação vem para corrigir os erros do passado. Sob o discurso da eficiência, da celeridade e da impessoalidade, um novo ator emerge silenciosamente nos tribunais: o algoritmo. Porém, como esperar neutralidade da máquina se ela é alimentada com dados de um sistema que historicamente criminaliza corpos negros e pobres?
De acordo com os dados do Anuário Brasileiro de Segurança Pública do ano de 2023, cerca de 70% da população carcerária é negra. Os números escancaram o racismo estrutural do sistema carcerário. É nesse contexto que ganha corpo a discussão sobre o racismo algorítmico: uma forma de discriminação produzida não mais por ações humanas diretas, mas por sistemas automatizados que aprendem, decidem e influenciam com base em dados históricos contaminados por desigualdades estruturais. O risco, no Brasil, é ainda mais grave. Se o Judiciário já opera em um ambiente permeado por seletividade penal e vulnerabilidade racial, a introdução acrítica de algoritmos no processo decisório pode não apenas reforçar esse cenário, mas legitimá-lo sob o pretexto de eficiência técnica.
E o que está em jogo não é apenas a forma como julgamos. É quem continuará sendo julgado com mais rigor - ou melhor, com mais desumanidade - pela suposta racionalidade das máquinas.
O que é o racismo algorítmico e por que ele importa no processo penal
Racismo algorítmico é o nome dado ao fenômeno em que sistemas de inteligência artificial, ao serem alimentados com dados históricos, reproduzem padrões discriminatórios que afetam, sobretudo, populações negras e periféricas. O mecanismo é simples: algoritmos são instruídos a identificar padrões e prever comportamentos com base em exemplos do passado. Conforme adverte Caithy O'Neil, os modelos, apesar de sua reputação de imparcialidade, refletem objetivos e ideologia2. Se esses exemplos estão carregados de racismo estrutural - como ocorre no sistema penal brasileiro -, o resultado é a automação estatística do preconceito.
Assim, a lógica que condena um jovem negro com base apenas na palavra de um policial, ou que mantém prisões provisórias com fundamentações genéricas, é a mesma que forma os algoritmos dos bancos de dados judiciais e policiais. E são esses mesmos registros que alimentariam, amanhã, um modelo de risco de reincidência, de propensão ao crime ou de periculosidade.
Em outras palavras: o algoritmo não inventa o racismo. Ele aprende com ele - e o aplica com eficiência matemática.
O Judiciário como espelho da desigualdade
Se, num primeiro momento se imagina que a IA poderá criar as soluções contra a lentidão do judiciário, num segundo momento é ilusório pensar que a adoção de ferramentas tecnológicas por si só será capaz de romper com os vícios do nosso sistema de justiça criminal. O processo penal brasileiro, longe de ser neutro, funciona como um filtro seletivo que escolhe seus alvos de forma racializada e socialmente orientada. E isso não é uma tese acadêmica, é um fato estatístico: mais de dois terços das pessoas presas no Brasil são negras. São elas, também, as principais vítimas de abordagens violentas3, de investigações frágeis, de provas precárias e de julgamentos marcados pela generalização.
Nesse cenário, o algoritmo, quando incorporado como "ferramenta de apoio à decisão judicial", tende a operar de forma enviesada. A diferença é que, enquanto o juiz pode ser contestado, o algoritmo é opaco; enquanto o magistrado pode justificar sua escolha, o sistema automatizado apenas entrega um score, uma predição, uma pontuação de risco.
A grande armadilha da inteligência artificial aplicada ao processo penal reside na ideia de que o passado pode ser usado como métrica para prever o comportamento futuro, sem considerar que esse passado foi construído com alicerces de desigualdade racial, social e institucional. O que se vende como imparcialidade é, muitas vezes, apenas uma forma mais disfarçada de seletividade.
A confiança cega na objetividade da máquina pode inaugurar um novo tipo de violência judicial: a desumanização legitimada por um código. Quando um juiz se ampara em um algoritmo para justificar um reconhecimento facial, uma prisão preventiva ou uma sentença mais dura, ele desloca sua responsabilidade para um artefato tecnológico. Mas o algoritmo não responde à Constituição. Não conhece o princípio da presunção de inocência. Não compreende a complexidade da prova nem a singularidade do drama humano.
Mais grave: ao apresentar decisões já inclinadas por determinado algoritmo como se fossem neutras, o sistema automatizado reduz os espaços de crítica, revisão e resistência. O preconceito deixa de ser percebido como tal e passa a ser interpretado como dado científico. A cor da pele, o bairro de origem ou o extrato bancário tornam-se, por vias indiretas, indicativos de risco.
É preciso reconhecer que o processo penal brasileiro já funciona como uma engrenagem racializada. Desde a seleção do suspeito até a condenação, tudo opera segundo um viés seletivo que recorta o réu padrão: negro, pobre, periférico. As estatísticas são irrefutáveis: os negros são maioria entre os presos provisórios, entre os que não têm acesso à defesa técnica efetiva, entre os alvos de operações policiais em comunidades e, não raramente, entre os mortos no curso da investigação.
Essa seletividade é reforçada por práticas processuais como a) o uso acrítico de reconhecimento fotográfico; b) a valorização da palavra policial como única prova; c) a negligência com a cadeia de custódia; d) a desconsideração da vulnerabilidade social na dosimetria da pena.
Tudo isso compõe um caldo histórico que forma os dados judiciais e criminais com os quais um futuro algoritmo aprenderia. E, convenhamos: se o que a máquina aprende é o passado, o que ela entrega é a estatística do preconceito.
Trata-se de uma nova roupagem para uma antiga prática: julgar o réu pelo seu perfil e não pelos fatos do processo. E, dessa vez, com a chancela fria da estatística.
O direito de resistir à automação da injustiça
É papel da advocacia criminal, da academia e da sociedade civil resistir à implantação irrefletida dessas tecnologias no sistema penal. Não se trata de negar os avanços da ciência de dados ou de condenar a inovação. Trata-se de exigir que toda inovação passe primeiro pelo crivo da legalidade, da equidade e da dignidade humana.
A introdução de algoritmos no Judiciário só pode ser admissível se acompanhada de auditoria constante de sistemas utilizados pela Justiça, transparência nos critérios e nos dados usados para treinar algoritmos, participação de especialistas em direitos humanos e raça nas fases de desenvolvimento tecnológico e revisão das decisões que envolvam inteligência artificial, garantindo contraditório efetivo sobre as "evidências" algorítmicas.
Sem isso, estaremos apenas automatizando a seletividade que já destrói vidas todos os dias nas audiências, nos reconhecimentos precários e nas sentenças baseadas em estereótipos.
Conclusão
O Brasil vive hoje uma encruzilhada entre a promessa de um Judiciário mais eficiente e o risco de uma justiça ainda mais desigual. A inteligência artificial, se mal implementada, pode se tornar o mais sofisticado instrumento de perpetuação do racismo institucional.
É preciso lembrar que não existe dado "limpo" em um país onde o sistema penal foi moldado para punir seletivamente a pobreza e racializar a criminalização. Se alimentarmos algoritmos com essa herança, o que eles devolverão não será justiça - será uma reprodução mecanizada das mesmas iniquidades.
Não podemos permitir que o futuro da justiça seja programado com os erros do passado. O algoritmo que "decide" precisa estar subordinado à Constituição que protege. Porque a justiça, antes de ser célere, precisa ser justa. E ser justo, neste país, exige romper com o racismo - inclusive o que se disfarça de inteligência.
______
1 Disponível em https://noticias.stf.jus.br/postsnoticias/stf-lanca-maria-ferramenta-de-inteligencia-artificial-que-dara-mais-agilidade-aos-servicos-do-tribunal/
2 O'NEIL, Caithy. Weapons Of Math Destruction. New York: Crown Publishers, 2016. p. 27
3 Estudo publicado pela Rede de Observatórios da Segurança mostra que 4.025 pessoas foram mortas por policiais no Brasil em 2023. Em 3.169 desses casos foram disponibilizados os dados de raça e cor: 2.782 das vítimas eram pessoas negras, o que representa 87,8%.Disponível em: https://agenciabrasil.ebc.com.br/direitos-humanos/noticia/2024-11/quase-90-dos-mortos-por-policiais-em-2023-eram-negros-diz-estudo


