Migalhas de Peso

A anterioridade democrática como condição de validade das decisões algorítmicas

O problema não é apenas o erro. É a capacidade dos sistemas de inteligência artificial de suprimir direitos fundamentais.

20/3/2026
Publicidade
Expandir publicidade

Em 2020, um motorista de aplicativo em Santa Catarina abriu o celular para trabalhar e descobriu que sua conta havia sido desativada. Não houve notificação prévia, explicação ou oportunidade de defesa. Só a exclusão, dura e injusta.

O sistema de inteligência artificial usado pela Uber identificou um registro criminal vinculado ao nome do motorista. O registro, porém, não era dele, mas de um homônimo. O algoritmo não conferiu o CPF, não cruzou dados cadastrais e não submeteu o caso a revisão humana. A coincidência nominal bastou.

O TJ/SC condenou a empresa por danos morais e lucros cessantes. A decisão foi correta e, precisamente por isso, insuficiente. Catorze meses de bloqueio produziram prejuízo concreto sobre a vida, a carreira e a renda do motorista. A indenização não desfaz o dano, muito menos recupera o tempo perdido.

A discussão contemporânea sobre inteligência artificial tende a focar quais direitos foram violados e como repará-los. Há uma questão anterior e mais urgente. Os sistemas de IA admitem contestação antes que o dano ocorra efetivamente?

O pressuposto silencioso dos direitos fundamentais

A arquitetura dos direitos fundamentais repousa sobre um pressuposto raramente explicitado. Entre o exercício do poder e a produção de seus efeitos existe um intervalo de tempo, e é nesse intervalo que o Direito opera.

As garantias clássicas dependem dessa estrutura temporal. O habeas corpus permite recorrer ao Judiciário antes que a prisão se consolide. O contraditório pressupõe tempo para responder à acusação. O devido processo legal exige defesa antes da decisão final. Há uma distância temporal entre decidir e executar.

Durante séculos esse pressuposto permaneceu invisível porque o poder era estruturalmente mais lento que o Direito. Procedimentos administrativos, revisões hierárquicas e controles institucionais produziam um intervalo entre decisão e consequência. Essa fricção procedimental não era defeito do sistema jurídico, mas condição de legitimidade democrática.

A difusão de sistemas algorítmicos altera esse equilíbrio. Tecnologias de decisão automatizada produzem resultados e executam efeitos praticamente instantâneos. O problema não é só a velocidade da decisão em si, mas a fusão entre decidir e executar sem intervalo. Quando decisão e execução coincidem no tempo, o espaço que o Direito precisa para operar desaparece.

A anterioridade democrática

Este artigo formula o princípio da anterioridade democrática, decorrente das garantias do art. 5º, LIV e LV, da Constituição. Por esse princípio, decisões algorítmicas com efeitos relevantes sobre direitos fundamentais são inconstitucionais quando seus efeitos se consolidam antes que o indivíduo possa contestá-las.

Margot Kaminski e Jennifer Urban demonstraram, em The Right to Contest AI, que decisões algorítmicas exigem mecanismos institucionais de contestação. Este artigo parte desse diagnóstico e avança além do desenho procedimental proposto pelas autoras. O princípio aqui defendido sustenta que a contestação prévia é condição de validade constitucional, não apenas diretriz de governança algorítmica.

Três perguntas operacionalizam o princípio. A decisão automatizada produz efeitos relevantes sobre direitos fundamentais? Existe possibilidade real de contestação antes que esses efeitos se consolidem? A execução encontra um sujeito notificado, com dados verificados e canal real de impugnação, ou apenas um destinatário que não teve qualquer possibilidade de influenciar a decisão? Quando as duas últimas respostas são negativas, a correção posterior não sana a ilegitimidade do procedimento.

O princípio da anterioridade democrática admite exceção para ordens judiciais e decisões urgentes diante de risco concreto e documentado a terceiros. O ônus de demonstrar a urgência recai sobre quem a alega, o registro deve ser auditável e a contestação prévia deve ser substituída por revisão célere e qualificada.

A lacuna procedimental e o cotidiano algorítmico

O problema não é exclusivo do Brasil. Em Voiceless, Niamh Kinchin identificou uma lacuna procedimental nos mecanismos globais de accountability algorítmica. Métricas de fairness, diretrizes éticas, regulações formais e revisão judicial respondem bem à justiça distributiva e ao combate ao viés. A justiça procedimental permanece negligenciada. O conceito de voz, definido por Kinchin como consentimento informado, transparência e direito de ser ouvido antes da decisão, é sistematicamente marginalizado.

Essa marginalização se manifesta mesmo no AI Act europeu. A transparência exigida para sistemas de alto risco é dirigida ao operador, não ao indivíduo afetado. O direito a uma explicação se aplica apenas a decisões com efeitos legais ou impacto significativo, limiar que exclui inúmeras decisões algorítmicas cotidianas.

Em The Black Box Society, Frank Pasquale demonstrou que intermediários de dados constroem dossiês para decisões sobre crédito, emprego e seguros. As pessoas classificadas frequentemente ignoram que foram classificadas e não dispõem de mecanismo efetivo de impugnação. Pasquale distingue transparência de inteligibilidade. Não basta disponibilizar informação. É necessário que ela seja compreensível e impugnável. A anterioridade democrática pressupõe essa distinção, pois contestar exige primeiro compreender.

Democracia e fricção institucional

A democracia constitucional é deliberadamente lenta. Processos legislativos, revisões administrativas e controle judicial introduzem fricção para impedir que decisões que afetam direitos sejam executadas sem contestação. O tempo do procedimento é o tempo da legitimidade.

Sistemas algorítmicos foram concebidos para reduzir fricção e acelerar decisões. A lacuna identificada por Kinchin confirma que essa aceleração não é problema setorial, mas estrutural. Nenhum dos mecanismos de accountability examinados consegue assegurar voz de forma consistente. Se regulações, diretrizes éticas e tribunais enfrentam dificuldades para garantir contestação prévia, a resposta precisa operar no nível constitucional.

Quando uma plataforma privada exerce poder decisivo sobre acesso ao trabalho, à saúde, à informação e ao crédito, as garantias constitucionais devem incidir sobre essa relação. No RE 201.819, o STF reconheceu a eficácia horizontal dos direitos fundamentais em entidades privadas com poder relevante sobre direitos individuais. A anterioridade democrática é exigência dessa mesma eficácia horizontal.

Conclusão

Contestar significa desafiar e, potencialmente, reverter uma decisão. Esse direito, assegurado pelo art. 5º, LIV e LV, da Constituição, não pode ser eliminado pela velocidade com que algoritmos produzem efeitos irreversíveis.

Decisões automatizadas que afetam direitos fundamentais operam numa lógica temporal incompatível com a democracia. Quando seus efeitos se concretizam antes que o indivíduo possa impugná-los, o direito de contestar perde efetividade. A rapidez do algoritmo se converte em mecanismo de supressão de garantias constitucionais.

Para enfrentar esse problema, formula-se o princípio da anterioridade democrática. Nenhuma decisão algorítmica que atinja direitos fundamentais pode ser válida se seus efeitos se consolidam antes que o indivíduo tenha condições reais de contestá-la.

Sistemas opacos de inteligência artificial não são agentes eleitos. Não prestam contas. Resistem a controle. Quem decide quanta fricção pode ser removida dos processos decisórios decide também quanto de democracia permanece. A Constituição de 1988 precede o algoritmo, e é ela, não o código, que define os limites do poder.

__________

Notas

TJSC. Motorista de aplicativo confundido com homônimo investigado por crimes será indenizado. Tribunal de Justiça de Santa Catarina, Florianópolis, 04 mar. 2026. Disponível em: https://www.tjsc.jus.br/web/imprensa/-/motorista-de-aplicativo-desligado-por-causa-de-homonimo-criminoso-sera-indenizado-diz-tjsc. Acesso em: 16 mar. 2026.

KAMINSKI, Margot E.; URBAN, Jennifer M. The right to contest AI. Columbia Law Review, New York, v. 121, n. 7, p. 1957–2048, 2021. Disponível em: https://www.columbialawreview.org/wp-content/uploads/2021/11/Kaminski-Urban-The_Right_to_Contest_AI.pdf. Acesso em: 16 mar. 2026.

KINCHIN, Niamh. “Voiceless”: the procedural gap in algorithmic justice. International Journal of Law and Information Technology, Oxford, v. 32, p. 1–18, 2024. Disponível em: https://doi.org/10.1093/ijlit/eaae024. Acesso em: 16 mar. 2026.

PASQUALE, Frank. The Black Box Society: the secret algorithms that control money and information. Cambridge, MA: Harvard University Press, 2015.

Autor

Israel Nonato da Silva Junior Advogado em Brasília especializado em Direito Eleitoral, Constitucional e Processo Legislativo. É aluno especial no Mestrado em Direito do UniCEUB.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos