Migalhas de Peso

Brasil e o ECA Digital: Desafios da proteção infantil no mundo digital

A entrada em vigor da lei 15.211/25 inscreve o Brasil em um debate internacional ainda em aberto, com dilemas que outras democracias enfrentam há quase uma década e respostas em construção.

5/5/2026
Publicidade
Expandir publicidade

Em 17 de março, o Estatuto da Criança e do Adolescente Digital passou a vigorar no Brasil1. A lei é ampla, exigente, e em vários pontos pioneira. Mais decisivo, talvez, do que a sua densidade normativa imediata é o lugar onde ela coloca o país. O Brasil entra em uma conversa internacional sobre infância em rede que vem ocorrendo há cerca de uma década e que ainda não tem desfecho consensual.

A pergunta de fundo é simples de enunciar e difícil de responder. Como proteger crianças e adolescentes em um ecossistema digital projetado para mantê-los conectados o máximo de tempo possível, sem incinerar, no caminho, a privacidade que a mesma proteção pretende salvaguardar.

O ECA Digital oferece uma resposta brasileira ancorada em algumas premissas. A proteção da criança em ambiente digital aparece como dever compartilhado entre família, sociedade, Estado e empresas de tecnologia, em chave atualizada do art. 227 da Constituição. O desenho protetivo é exigido desde a concepção dos serviços, de modo que a configuração mais resguardada opera como regra padrão e cabe ao fornecedor demonstrar por que se afasta dela em determinada hipótese. A economia da atenção sobre menores de idade recebe contenção expressa, com proibição de perfilamento publicitário, supressão das chamadas caixas de recompensa em jogos eletrônicos e proteção contra padrões de manipulação2.

Tais premissas dialogam com escolhas já experimentadas em outras democracias, e é nesse diálogo que reside boa parte do interesse intelectual da nova lei.

O caso britânico oferece o mais antigo dos laboratórios. O Age Appropriate Design Code, em vigor desde setembro de 2020, fixou quinze padrões para qualquer serviço digital com probabilidade de acesso por crianças, com ênfase em privacidade alta por padrão3. A reação das grandes plataformas foi visível e contagiosa, com reformas em interfaces que se converteram, por contágio competitivo, em padrão global. Houve, em paralelo, um fenômeno menos comemorado. Alguns serviços educacionais de pequeno porte preferiram bloquear o acesso de menores britânicos a manter o serviço sob risco regulatório, e o resultado foi o que a literatura inglesa apelidou de chilling effect. Norma protetiva mal calibrada pode acabar empobrecendo a oferta que pretende cuidar, e essa inversão sutil é talvez a parte mais útil da experiência britânica para quem ainda está começando.

A Espanha trilhou um caminho diferente, mais técnico do que normativo. O decálogo de verificação de idade publicado pela Agencia Española de Protección de Datos em 2023 apostou em zero-knowledge proofs, isto é, tokens criptográficos emitidos por terceiros confiáveis que comprovam a idade do usuário sem revelar dados de origem4. A solução é elegante e foi acolhida com entusiasmo pela comunidade europeia de privacy by design. A implantação, contudo, depende de infraestrutura de identidade digital em escala, com provedores em quantidade e qualidade compatíveis, o que sai caro a quem precisa construí-la do zero. O Brasil terá que pensar com cuidado o papel do Gov.br nesse desenho, sob pena de adotar a forma sem ter como sustentar a função.

Já a França preferiu agir em duas frentes, com tempos distintos. Desde 2020, impõe aferição de idade obrigatória nos sítios de conteúdo pornográfico. Em 2023, foi um passo adiante, ao instituir a maioridade digital aos quinze anos para uso autônomo de redes sociais5. A lei segue vivendo batalhas judiciais sucessivas e funciona, na prática, em regime de aplicação parcial. A experiência francesa fala alto sobre o limite das normas radicais de idade mínima, que cedo ou tarde colidem com problemas técnicos de verificação e com direitos próprios do adolescente, em particular o direito à informação e à participação social.

No caso da Austrália, o parlamento australiano aprovou a Online Safety Amendment, que pura e simplesmente veda o acesso de menores de dezesseis anos a determinadas plataformas e transfere às empresas o ônus da verificação6. A medida foi celebrada por associações de pais e por parte da imprensa, e recebida com perplexidade por organismos internacionais. Há o risco evidente de empurrar adolescentes para serviços não regulados, fora do alcance de qualquer salvaguarda, somado à produção de falsa sensação de segurança institucional e à tensão crescente com o comentário geral 25 do Comitê dos Direitos da Criança da ONU, que reconhece, em pé de igualdade, proteção e participação digital. A decisão australiana acabou cumprindo, sem querer, função pedagógica involuntária. Toda escolha radical paga preço alto em outra dimensão, e a fronteira entre proteção e paternalismo nunca é matemática.

Do outro lado do Atlântico, os Estados Unidos convivem com a COPPA desde 1998. A lei foca em menores de treze anos, exige consentimento parental verificável e construiu, ao longo dos anos, um ecossistema inteiro de cumprimento, com prestadores especializados em coletar autorizações e armazenar comprovantes. Quase três décadas depois, o saldo é misto. O adolescente entre treze e dezessete ficou inteiramente fora do escopo, e a cultura do consentimento parental virou, em boa parte dos casos, formulário burocrático sem leitura efetiva. A própria Federal Trade Commission reconheceu o problema em janeiro de 2024, ao propor revisão substancial da regra para lidar com economia da atenção e com perfilamento de adolescentes. O recado vale para quem está chegando agora ao tema. Mesmo modelos consolidados precisam de atualização constante7.

Por fim, a União Europeia, por sua vez, montou um arranjo articulado a partir de 2022, com o Digital Services Act como peça central, complementado pelo Digital Markets Act e por regulações setoriais. O DSA impõe deveres específicos às chamadas very large online platforms quanto à proteção de menores, incluindo a proibição de publicidade comportamental dirigida a usuários menores de idade e a obrigação de avaliação anual de riscos sistêmicos8. Foi desse repertório europeu que o ECA Digital tirou parte expressiva da sua arquitetura, com destaque para os deveres de transparência e para os relatórios semestrais que a nova lei brasileira passa a exigir das plataformas com mais de um milhão de usuários menores de dezoito anos.

Esse panorama comparado oferece lições que merecem entrar no debate brasileiro. A aferição de idade configura, antes de tudo, escolha política sobre quais dados os usuários estão dispostos a ceder, e a quem. Documentos oficiais, biometria facial, padrões de uso e tokens criptográficos produzem equilíbrios distintos entre proteção, privacidade e funcionalidade. A ANPD, em suas orientações preliminares de março de 2026, reconhece esse ponto com franqueza, ao registrar que cada solução técnica adotada gera risco simétrico ao que pretende mitigar9. A maturação desse debate exige tempo, experimentação regulada e abertura para revisão.

O instrumento talvez mais promissor para essa maturação já existe e é doméstico. O sandbox regulatório, adotado pela ANPD em seu projeto piloto sobre inteligência artificial e proteção de dados, oferece ambiente jurídico delimitado para a testagem supervisionada de soluções inovadoras, com metodologia estruturada, prazos definidos e acompanhamento direto da Autoridade. A própria ANPD define o sandbox como espaço controlado de experimentação colaborativa entre regulador, entidade regulada e partes interessadas, destinado a testar inovações regulatórias e tecnológicas em contexto de menor incerteza sancionatória10.

A aferição de idade reúne praticamente todas as características que recomendam esse formato: é tecnologia ainda em amadurecimento, envolve tratamento de dados pessoais sensíveis ou de elevada criticidade, afeta direitos fundamentais de crianças, adolescentes e adultos, varia conforme o setor regulado e depende de aprendizado iterativo. Um sandbox dedicado ao tema permitiria testar, em escala limitada, modelos de verificação proporcional, anonimizada e interoperável com soluções públicas de identidade digital, inclusive o Gov.br, sem impor de imediato um desenho único a todo o ecossistema digital infantojuvenil.

Nesse ponto, a escolha por um sandbox seria menos heroica do que a publicação imediata de um regulamento definitivo, e provavelmente mais útil. Em vez de presumir maturidade técnica onde ainda há incerteza, permitiria à ANPD acumular evidências empíricas sobre eficácia, riscos de exclusão, minimização de dados, segurança, auditabilidade e preservação do anonimato. Essa função é coerente com a própria finalidade do sandbox da ANPD, que busca conciliar inovação, proteção de dados pessoais, privacidade e segurança jurídica.

A fronteira entre proteção e paternalismo permanece tênue. O comentário geral 25 do Comitê dos Direitos da Criança da ONU consagra simultaneamente o direito à proteção e o direito à participação11. Banir adolescentes de espaços digitais resolve o lado da proteção, ao custo da participação. Permitir tudo, com avisos genéricos, faz o oposto. A engenharia institucional fina opera entre esses dois polos, e o ECA Digital optou por caminho intermediário, com vinculação de contas a responsáveis legais para menores de dezesseis anos e configurações por padrão. O acerto desse caminho será medido empiricamente nos próximos anos.

A efetividade dessas normas depende de aplicação consistente e de cooperação internacional. Plataformas digitais são globais. Regulações nacionais isoladas tendem a gerar arbitragem regulatória, em que serviços migram para jurisdições mais permissivas e usuários mais experientes contornam restrições por meio de redes privadas virtuais. A cooperação entre autoridades de proteção de dados, prevista em vários acordos firmados pela ANPD com pares estrangeiros, deixa de ser cortesia diplomática e se torna uma necessidade.

O Brasil é país com cerca de cinquenta milhões de crianças e adolescentes, larga maioria conectada, em contexto socioeconômico bastante distinto do europeu. A simples importação de modelos comparados, ainda que tecnicamente refinados, ignora variáveis estruturais decisivas, como letramento digital desigual, acesso doméstico precário a dispositivos atualizados e fragilidade das redes públicas de proteção à infância. Qualquer regulação séria precisa carregar esse contexto na sua arquitetura.

O ECA Digital é, nesse sentido, é uma proposta de pacto social sobre o lugar das infâncias e adolescências no mundo digital brasileiro. A sua efetividade dependerá de coisas que escapam ao texto legal, como o engajamento responsável das plataformas reguladas, a presença ativa das famílias e das escolas, o trabalho técnico cuidadoso da ANPD na produção dos atos infralegais que ainda virão, e o fortalecimento progressivo do Sistema de Garantia de Direitos da Criança e do Adolescente.

Quem participa dessa conversa global sobre infância em rede com franqueza descobre que ainda há mais perguntas do que respostas. O Brasil chega tardio em alguns aspectos e, em outros, na vanguarda. O melhor uso desse momento talvez seja resistir aos polos do triunfalismo e do ceticismo, dois discursos confortáveis que dispensam o trabalho cuidadoso de desenhar, testar, corrigir e seguir adiante.

_______

1 BRASIL. Lei nº 15.211, de 17 de março de 2025. Estatuto da Criança e do Adolescente Digital. Disponível em https://www.planalto.gov.br/ccivil_03/_Ato2023-2026/2025/Lei/L15211.htm. Acesso em 26 abr. 2026.

2 BRASIL. Decreto nº 12.880, de 18 de março de 2026, que regulamenta a Lei nº 15.211/2025. V. arts. 5º (deveres gerais), 6º (proteção desde a concepção), 13 (relatórios de transparência), 17 (vinculação de contas) e 27 (proibição de perfilamento publicitário) da lei. Disponível em https://www.planalto.gov.br/ccivil_03/_Ato2023-2026/2026/Decreto/D12880.htm.

INFORMATION COMMISSIONER’S OFFICE (UK). Age appropriate design. A code of practice for online services, em vigor desde setembro de 2020. O texto integra quinze standards obrigatórios para serviços com probabilidade de acesso por crianças. Disponível em https://ico.org.uk/for-organisations/uk-gdpr-guidance-and-resources/childrens-information/childrens-code-guidance-and-resources/age-appropriate-design-a-code-of-practice-for-online-services/.

4 AGENCIA ESPAÑOLA DE PROTECCIÓN DE DATOS. Decálogo de princípios para a verificação de idade e a proteção de pessoas menores de idade frente a conteúdos inadequados. Madri, 2023, com revisão em 2025. Disponível em https://www.aepd.es/prensa-y-comunicacion/notas-de-prensa/decalogo-verificacion-edad-proteccion-menores-internet.

5 FRANÇA. Loi n° 2023-566, du 7 juillet 2023, visant à instaurer une majorité numérique et à lutter contre la haine en ligne, que estabelece a chamada maioridade digital aos quinze anos para uso autônomo de redes sociais. Disponível em https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000047800353.

6 AUSTRÁLIA. Online Safety Amendment (Social Media Minimum Age) Act 2024, que proíbe o acesso de menores de dezesseis anos a determinadas plataformas. Disponível em https://www.aph.gov.au/Parliamentary_Business/Bills_Legislation/Bills_Search_Results/Result?bId=r7284. V. discussão em UNICEF, Online Safety Amendment Act, dezembro de 2024.

7 ESTADOS UNIDOS DA AMÉRICA. Children’s Online Privacy Protection Act (COPPA), 1998. A FEDERAL TRADE COMMISSION publicou em janeiro de 2024 a Notice of Proposed Rulemaking para revisão da regulação, com foco em economia da atenção e perfilamento. Disponível em https://www.ftc.gov/legal-library/browse/rules/childrens-online-privacy-protection-rule-coppa.

8 UNIÃO EUROPEIA. Regulamento (UE) 2022/2065 (Digital Services Act), em especial arts. 28 e 34 a 35, sobre proteção de menores e avaliação anual de riscos sistêmicos. Disponível em https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32022R2065.

9 ANPD. Mecanismos confiáveis de aferição de idade. Orientações preliminares. Brasília, março de 2026. O documento registra cautela específica quanto a métodos baseados em biometria facial, em razão de "riscos de vigilância, vieses algorítmicos e coleta excessiva de dados sensíveis". Disponível em https://www.gov.br/anpd/pt-br.

10 https://www.gov.br/anpd/pt-br/sandbox/o-sandbox-regulatorio

11 ORGANIZAÇÃO DAS NAÇÕES UNIDAS. Comitê dos Direitos da Criança. Comentário Geral nº 25 (2021), sobre os direitos das crianças em relação ao ambiente digital. Disponível em https://www.ohchr.org/en/documents/general-comments-and-recommendations/general-comment-no-25-2021-childrens-rights-relation.

Autores

João Vinícius de Souza Ferreira Graduando em Direito (FDRP-USP). Monitor em pós-graduação de Direito Administrativo (FDRP-USP) e pesquisador em Direito Administrativo (PUB-USP).

Rafael Monteiro Teixeira Doutor e mestre pela Universidade Estadual Paulista "Júlio de Mesquita Filho" (UNESP). Professor de Direito Empresarial na Instituição Toledo de Ensino (ITE). Advogado.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos