Migalhas de Peso

Indenizar não basta: Quando o algoritmo precisa ser desligado

Danos algorítmicos desafiam a responsabilidade civil clássica. Em certos casos, indenizar não basta: é preciso interromper o próprio sistema que produz o dano.

4/5/2026
Publicidade
Expandir publicidade

A responsabilidade civil foi concebida para reparar danos individualizáveis, delimitados no tempo e no espaço, tradicionalmente associados à ideia de culpa ou, mais recentemente, ao risco. Esse modelo, embora funcional para a sociedade industrial, revela-se progressivamente insuficiente diante da lógica da sociedade digital e da atuação das plataformas algorítmicas.

Os danos produzidos por sistemas de recomendação, amplificação e curadoria automatizada não se limitam a indivíduos determinados. Eles operam em escala, produzem efeitos difusos e atingem a própria estrutura do debate público. Trata-se de uma forma de dano que não se esgota na esfera patrimonial ou moral individual, mas que compromete a integridade do ambiente informacional.

Esse fenômeno é observável em situações concretas. Sistemas de recomendação que amplificam conteúdos desinformativos em períodos eleitorais, mecanismos de engajamento que priorizam conteúdos extremos por sua maior capacidade de retenção e modelos de inteligência artificial treinados com bases de dados obtidas sem consentimento evidenciam que o dano não decorre apenas de um ato isolado, mas da própria arquitetura do sistema.

Nesse cenário, a clássica resposta indenizatória mostra-se, em muitos casos, inadequada. Indenizar pressupõe que o dano já ocorreu e que pode ser compensado. No entanto, quando o prejuízo decorre da lógica de funcionamento do sistema, a reparação posterior não impede a continuidade da lesão.

É nesse ponto que emerge uma mudança de paradigma. Surge a necessidade de remédios estruturais. Em vez de apenas compensar o dano, o Direito passa a atuar sobre a fonte que o produz. No campo digital, isso significa reconhecer que determinados sistemas algorítmicos, quando alimentados por dados ilícitos ou estruturados para potencializar distorções, não devem apenas gerar responsabilidade, mas devem ser interrompidos.

Esse deslocamento não é meramente teórico. Em decisão paradigmática, a FTC - Federal trade commission, nos EUA, determinou que a empresa Everalbum não apenas cessasse sua conduta, mas que destruísse os algoritmos de reconhecimento facial desenvolvidos a partir de dados obtidos sem consentimento dos usuários. A medida incluiu a exclusão das bases de dados e a eliminação dos modelos treinados com essas informações, evidenciando que o ilícito contaminava a própria estrutura tecnológica do sistema.

Em caso mais recente, envolvendo o uso de reconhecimento facial no setor varejista, a FTC avançou ainda mais ao impor restrições ao uso da tecnologia e exigir a eliminação de dados, imagens e modelos algorítmicos associados ao sistema. Nessas hipóteses, a resposta jurídica não se limitou à compensação, mas incidiu diretamente sobre o ativo tecnológico construído a partir da ilegalidade.

Na Europa, esse movimento assume contornos ainda mais estruturados. O DSA - Digital Services Act impõe deveres de mitigação de riscos sistêmicos às plataformas, incluindo a obrigação de avaliar e reduzir impactos relacionados à desinformação. Já o AI Act estabelece limites diretos ao uso de sistemas de alto risco, admitindo restrições e até a proibição de determinadas aplicações, especialmente quando envolvem manipulação comportamental ou violação de direitos fundamentais.

Essa arquitetura normativa dialoga com a crítica desenvolvida por Pasquale (2015), ao apontar que a opacidade dos sistemas automatizados compromete a accountability democrática, e por Zuboff (2019), ao demonstrar que o modelo econômico das plataformas transforma o comportamento humano em insumo explorável em larga escala.

No mesmo sentido, Arendt (1967) já advertia que a verdade factual constitui elemento essencial da vida política. Quando a desinformação passa a ser amplificada estruturalmente por sistemas tecnológicos, o problema deixa de ser apenas individual e passa a afetar as condições de possibilidade do próprio espaço público.

Sob essa ótica, a atuação jurídica não pode se limitar à recomposição patrimonial. É necessário preservar a integridade do ambiente informacional. E isso exige medidas que atinjam diretamente os mecanismos de produção e difusão do dano.

No Brasil, o debate ainda se encontra fortemente ancorado na lógica do art. 19 do marco civil da internet, lei 12.965 de 2014, que condiciona a responsabilização das plataformas ao descumprimento de ordem judicial específica. Embora relevante para a proteção da liberdade de expressão, esse modelo mostra-se insuficiente para lidar com danos sistêmicos produzidos por algoritmos.

Como já se tem defendido na doutrina contemporânea brasileira, a persistência exclusiva no modelo compensatório tende a naturalizar o dano como custo operacional das plataformas. Nesse contexto, sustenta-se que a responsabilidade civil, isoladamente, não é capaz de restaurar a integridade do ambiente informacional, exigindo-se a adoção de medidas estruturais que incidam diretamente sobre a arquitetura tecnológica que produz a lesão (Velloso, no prelo).

Diante disso, impõe-se uma reflexão mais profunda. Há situações em que a continuidade do sistema é, em si, incompatível com a ordem jurídica. Nesses casos, não basta responsabilizar. É preciso interromper.

Desligar o algoritmo, portanto, não representa censura, mas sim uma resposta proporcional a um dano estrutural. Trata-se de reconhecer que a liberdade de expressão, embora fundamental, não pode ser instrumentalizada por arquiteturas tecnológicas que distorcem a própria realidade informacional.

O desafio contemporâneo do Direito não é apenas indenizar o passado, mas evitar a reprodução do dano no futuro. Se o dano é estrutural, a resposta jurídica também deve ser.

_________

ARENDT, Hannah. Verdade e política. São Paulo: Companhia das Letras, 1967.

PASQUALE, Frank. The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge: Harvard University Press, 2015.

ZUBOFF, Shoshana. The Age of Surveillance Capitalism. New York: PublicAffairs, 2019.

UNIÃO EUROPEIA. Digital Services Act (DSA). Regulamento (UE) 2022/2065.

UNIÃO EUROPEIA. Artificial Intelligence Act (AI Act). Regulamento europeu de inteligência artificial, 2024.

FEDERAL TRADE COMMISSION. FTC requires deletion of algorithms and data improperly obtained. Caso Everalbum. Disponível em: https://aeonlaw.com/ftc-orders-destruction-of-algorithms-derived-from-illegally-collected-data/. Acesso em: 26 abr. 2026.

FEDERAL TRADE COMMISSION. FTC enforcement action involving facial recognition systems and data deletion. Caso Rite Aid. Disponível em: https://perkinscoie.com/insights/update/ftc-signals-tough-line-first-ai-discrimination-case-under-section-5. Acesso em: 26 abr. 2026.

VELLOSO, Leandro. Desordem informacional e responsabilidade civil na sociedade algorítmica. No prelo.

Autor

Leandro Velloso Docente de Direito (Estácio). Professor de Direito Administrativo e Compliance. Autor de 24 livros. Pesquisador de Direito da FDV/ES. Advogado consultivo. Ex-Procurador Jurídico Federal.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos