Migalhas de Peso

Tema 987 e ECA Digital: A lacuna invisível da curadoria algorítmica

O Tema 987 do STF deixou lacuna crítica: não regula curadoria algorítmica que expõe crianças a conteúdos nocivos. O ECA Digital abre caminho, mas efetividade depende da ANPD fiscalizar código.

21/10/2025

O julgamento do Tema 987 pelo STF em junho de 2025 foi amplamente celebrado como marco na responsabilização de plataformas digitais no Brasil. Ao declarar parcialmente inconstitucional o art. 19 do Marco Civil da Internet, o tribunal impôs às plataformas dever de moderação preventiva de conteúdos manifestamente ilícitos, superando o modelo reativo de notice-and-takedown (Filho, 2025).

Mas existe uma pergunta que o acórdão não respondeu: e quando o dano não vem do conteúdo em si, mas da forma como o algoritmo decide quem vê o quê?

A tensão ocasionada por esse poder é facilmente identificada quando observamos os dados: 84,3% das crianças e adolescentes brasileiros conectados foram expostos a conteúdos nocivos nas plataformas digitais (NIC.br, 2024). O problema é que boa parte desses conteúdos não é manifestamente ilícita, critério exigido pelo Tema 987 para remoção proativa.

Cada post isolado pode ser lícito. A nocividade surge da forma como algoritmos amplificam e personalizam a entrega de conteúdo mediante curadoria automatizada opaca.

O Marco Civil estruturava responsabilidade reativa mediante exigência de ordem judicial para remoção de conteúdo. A doutrina de Frazão (2021) já reconhecia que esse modelo era inadequado quando se trata de risco infantojuvenil de ordem sistêmica, posto que crianças e adolescentes são expostos a conteúdos nocivos recomendados por algoritmos cujo ato de amplificação não pode ser identificado ou individualizado.

O STF, ao julgar o Tema 987, reconheceu parcialmente essa inadequação, estabelecendo que os provedores poderão ser responsabilizados quando não removerem conteúdos ilícitos decorrentes de anúncios impulsionados e chatbots (Migalhas, 2025).

Mas o avanço não é suficiente para regular a curadoria algorítmica orgânica, precisamente o mecanismo que expõe milhões de crianças a conteúdos nocivos.

A curadoria algorítmica decorre dos poderes infraestruturais das plataformas como parte essencial do modelo de negócios. De acordo com Gillespie (2018), a moderação é condição existencial das plataformas, e Klonick (2018) demonstra que atuam como "árbitros do discurso online", estabelecendo normas privadas.

Mas há uma dimensão que o Tema 987 não enfrentou: as plataformas decidem principalmente o que amplificar através de sistemas de recomendação que personalizam feeds mediante perfilamento comportamental de cada usuário, inclusive crianças.

O problema pode ser ilustrado com caso documentado pelo Wall Street Journal sobre o Instagram (Wells et al., 2021). A reportagem criou contas-teste simulando adolescentes de 13 anos interessadas em dieta saudável. Em poucos dias, os algoritmos passaram a recomendar automaticamente conteúdos progressivamente mais extremos sobre restrição alimentar, mesmo sem que as usuárias buscassem por isso.

O sistema interpreta padrões de engajamento e entrega conteúdo cada vez mais sensacionalista para maximizar tempo em tela, posto que esse é o modelo de receita publicitária. A nocividade surge da cadeia personalizada de amplificação progressiva, que o Tema 987 não regula, posto que o critério é "conteúdo manifestamente ilícito", não "curadoria sistemática de vulnerabilização" (Busch, 2023; Hao, 2021).

Os dados comprovam: 26,4% dos adolescentes relatam se tornarem mais agressivos após consumo de vídeos violentos; 101.313 denúncias de abusos sexuais online em 2023, com aumento de 252,25% em xenofobia (Safernet, 2024; TIC Kids Online Brasil, 2023). Esses números demonstram que a falha não é técnica, mas escolha arquitetural que subordina proteção infantojuvenil à maximização de receita.

As plataformas digitais têm violado o dever de segurança propositalmente, posto que o design de seu modelo de negócios depende da exploração de vulnerabilidades cognitivas e emocionais para promoção de engajamento. Para tanto, as bigtechs empregam recomendações algorítmicas que priorizam conteúdos sensacionalistas (mesmo nocivos), dark patterns e vieses comportamentais que ocasionam vício tecnológico sistêmico (Norwegian Consumer Council, 2024).

No depoimento de Frances Haugen em 2021, fica evidente que o Facebook estava ciente dos danos a crianças e adolescentes. Mesmo assim, optou por não implementar mudanças nos sistemas de recomendação para evitar redução do engajamento e dos lucros (Horwitz, 2021).

O Tema 987 não reconheceu a especificidade da proteção infantojuvenil constitucionalmente exigida. O art. 227 da CF impõe dever de proteção integral, com prioridade absoluta, à criança e ao adolescente, não proteção genérica igual a adultos.

O art. 70 do ECA determina que é "dever de todos prevenir a ocorrência de ameaça ou violação dos direitos da criança e do adolescente", sugerindo que as plataformas devem garantir que crianças não sofram danos sistêmicos decorrentes da forma como o algoritmo opera (Frazão, 2021).

A resolução 245/24 do CONANDA foi a única norma brasileira que estabeleceu deveres ex ante alinhados ao risco algorítmico, incluindo obrigação de "identificar, medir, avaliar e mitigar" impactos negativos à saúde mental (art. 22). Mas a ausência de mecanismos sancionatórios torna essa resolução instrumento de soft law, dependente de aderência voluntária.

A experiência internacional demonstra caminhos possíveis. O Digital Services Act europeu (art. 34) estabelece obrigação para plataformas realizarem avaliação de risco sistêmico, incluindo impactos na saúde mental de menores, e implementarem redesign de sistemas de recomendação quando necessário.

A Austrália criou autoridade reguladora independente (eSafety Commissioner) com poder de exigir transparência algorítmica mediante relatórios auditáveis sobre sistemas de perfilamento direcionados a menores. De acordo com Lynskey (2017), a responsabilidade das plataformas decorre de seu papel de gatekeepers como controladores do fluxo da informação, exigindo regulação que alcance os impactos concretos nos direitos individuais.

O recém-aprovado ECA Digital (lei 15.211/25) representa oportunidade para superar as limitações do Tema 987, estabelecendo regime que reconheça a natureza sistêmica do risco algorítmico.

O decreto 12.622/25 designou a Autoridade Nacional de Proteção de Dados como autoridade administrativa responsável por zelar pela aplicação, regulamentar e fiscalizar o cumprimento do ECA Digital em todo o território nacional, acompanhada de sua transformação em agência reguladora pela MP 1.317/25. Mas a efetividade dessa nova legislação dependerá fundamentalmente da capacidade técnica da ANPD para fiscalizar não apenas o que as plataformas removem mediante moderação de conteúdo, mas principalmente o que elas amplificam mediante curadoria algorítmica personalizada.

Sem essa regulação arquitetônica dos sistemas de recomendação e sem a construção de expertise técnica para auditar algoritmos de amplificação, continuaremos protegendo crianças de conteúdos isolados mediante remoção ex post, enquanto sistemas opacos de curadoria as expõem diariamente a cadeias personalizadas de vulnerabilização.

A lacuna deixada pelo Tema 987 exige agora não apenas instrumentos normativos, mas sobretudo capacidade institucional: o desafio está em estruturar a ANPD para fiscalizar não apenas o conteúdo, mas o código que decide quem vê o quê.

_______

BRASIL. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidência da República, 1988.

BRASIL. Lei nº 8.069, de 13 de julho de 1990. Dispõe sobre o Estatuto da Criança e do Adolescente. Brasília, DF: Presidência da República, 1990.

BRASIL. Lei nº 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil (Marco Civil da Internet). Brasília, DF: Presidência da República, 2014.

BRASIL. Lei nº 15.211, de 17 de setembro de 2025. Institui o Estatuto Digital da Criança e do Adolescente. Brasília, DF: Presidência da República, 2025.

BRASIL. Decreto nº 12.622, de 17 de setembro de 2025. Regulamenta a Lei nº 15.211, de 17 de setembro de 2025, que institui o Estatuto Digital da Criança e do Adolescente. Brasília, DF: Presidência da República, 2025.

BRASIL. Medida Provisória nº 1.317, de 17 de setembro de 2025. Transforma a Autoridade Nacional de Proteção de Dados em Agência Reguladora. Brasília, DF: Presidência da República, 2025.

BRASIL. Conselho Nacional dos Direitos da Criança e do Adolescente. Resolução nº 245, de 3 de outubro de 2024. Brasília, DF: CONANDA, 2024.

BUSCH, Christoph. The rise of platform regulation. In: European Review of Contract Law, v. 19, n. 4, p. 342-369, 2023.

FILHO, Rodolfo Pamplona. STF declara parcial inconstitucionalidade do art. 19 do Marco Civil da Internet. Migalhas, 16 jun. 2025. Disponível em: https://www.migalhas.com.br. Acesso em: 20 out. 2025.

FRAZÃO, Ana. Responsabilidade de provedores de aplicações de internet: a difícil ponderação entre liberdade de expressão e direitos da personalidade. In: Revista Brasileira de Direito Civil, v. 27, n. 1, p. 99-126, 2021.

GILLESPIE, Tarleton. Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. New Haven: Yale University Press, 2018.

HAO, Karen. How Facebook got addicted to spreading misinformation. MIT Technology Review, 11 mar. 2021. Disponível em: https://www.technologyreview.com. Acesso em: 20 out. 2025.

HORWITZ, Jeff. Facebook knows Instagram is toxic for teen girls, company documents show. The Wall Street Journal, 14 set. 2021. Disponível em: https://www.wsj.com. Acesso em: 20 out. 2025.

KLONICK, Kate. The new governors: The people, rules, and processes governing online speech. Harvard Law Review, v. 131, n. 6, p. 1598-1670, 2018.

LYNSKEY, Orla. Regulating 'platform power'. LSE Law, Society and Economy Working Papers, n. 1/2017. London: London School of Economics and Political Science, 2017.

MIGALHAS. STF julga Tema 987 sobre responsabilidade de plataformas digitais. Migalhas, 16 jun. 2025. Disponível em: https://www.migalhas.com.br. Acesso em: 20 out. 2025.

NIC.BR. Pesquisa TIC Kids Online Brasil 2024. São Paulo: Comitê Gestor da Internet no Brasil, 2024.

NORWEGIAN CONSUMER COUNCIL. Deceptive design in big tech: How tech companies use dark patterns to discourage us from exercising our rights to privacy. Oslo: Norwegian Consumer Council, 2024.

SAFERNET. Indicador de denúncias de violações de direitos humanos na internet - 2023. São Paulo: SaferNet Brasil, 2024.

TIC KIDS ONLINE BRASIL. Pesquisa sobre o uso da internet por crianças e adolescentes no Brasil - 2023. São Paulo: Comitê Gestor da Internet no Brasil, 2023.

WELLS, Georgia et al. Facebook knows Instagram is toxic for teen girls, company documents show. The Wall Street Journal, 14 set. 2021. Disponível em: https://www.wsj.com. Acesso em: 20 out. 2025.

Luana Esteche Nunes
Doutoranda Direito Constitucional IDP, membro Tech4Good, Comenda Mérito Científico. Especialista em regulação de plataformas digitais e proteção infantojuvenil.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos

Abertura de empresas e a assinatura do contador: Blindagem ou burocracia?

3/12/2025

Como tornar o ambiente digital mais seguro para crianças?

3/12/2025

Recuperações judiciais em alta em 2025: Quando o mercado nos lembra que agir cedo é um ato de sabedoria

3/12/2025

Seguros de danos, responsabilidade civil e o papel das cooperativas no Brasil

3/12/2025

ADPF do aborto - O poder de legislar é exclusivamente do Congresso Nacional

2/12/2025