Há algo de profundamente desconfortável - e juridicamente revelador - no atual debate sobre o chamado ECA Digital. Sempre que a pauta é proteção da criança no ambiente digital, as plataformas vestem o figurino conhecido: discursos técnicos, pedidos de prazo, relatórios de complexidade e, ao fundo, o mantra da inovação ameaçada. O detalhe inconveniente é que o lucro nunca pede prazo. Ele corre em tempo real.
O que está em jogo não é uma disputa semântica sobre vigência de lei, nem um embate regulatório menor. Trata-se de algo mais elementar: responsabilidade civil por atividade de risco, aplicada a um mercado que monetiza atenção infantil e adolescente como se estivesse vendendo espaço publicitário neutro - quando, na verdade, explora um ecossistema de estímulos, dados e comportamentos.
A criança como sujeito de direitos - não como variável estatística
A Constituição brasileira não deixou margem para dúvidas. O art. 227 instituiu a prioridade absoluta da criança e do adolescente. Isso significa prioridade jurídica, política e econômica. Não existe “custo de adaptação” capaz de relativizar esse comando.
O ECA Digital não inaugura direitos; ele atualiza o dever de proteção integral para um ambiente que deixou de ser acessório e passou a ser estrutural. Hoje, a socialização, o consumo, o entretenimento e a formação identitária de crianças ocorrem dentro de plataformas privadas que operam com lógica de mercado, mas produzem efeitos sociais massivos.
Negar isso é fingir que o século XXI ainda funciona como o século XX - só que com Wi-Fi.
O argumento de que o texto legal é "genérico" ignora a própria natureza das normas de proteção de direitos fundamentais. O art. 227 da Constituição Federal não é uma sugestão; é um comando social de alta relevância as famílias Brasileiras, no que tange o uso seguro da Internet. Como norma de densificação constitucional, o ECA Digital não precisa (e nem deve) descrever cada protocolo técnico de software. Sua função é fixar o padrão de cuidado devido, cabendo à regulação administrativa - no caso, a ANPD - a calibração técnica.
Alegar insegurança jurídica pela abstração da norma é um anacronismo proposital. A LGPD enfrentou as mesmas resistências e, hoje, é o pilar que sustenta a confiança na economia de dados. O ECA Digital é o complemento ético inadiável desse sistema.
O modo técnico pelo qual as coisas irão acontecer é problema das plataformas digitais. A forma de implantação de qualquer mecanismo de controle - inclusive a verificação etária - cabe exclusivamente a quem explora economicamente o ambiente digital.
Não se trata de opção regulatória, mas de responsabilidade jurídica inerente ao modelo de negócio.
Não é mais aceitável invocar, desta vez, a velha desculpa da incapacidade técnica. Esse argumento já foi usado no passado para justificar a demora na remoção de conteúdos ilícitos da internet - e o tempo demonstrou que era falso. As plataformas sempre tiveram capacidade técnica; apenas não tinham incentivo econômico para agir.
É preciso dizer com todas as letras: quem controla anúncios, publicidade direcionada, impulsionamento e modulação de conteúdo com fins lucrativos também pode controlar idade e exposição a conteúdos nocivos para crianças e adolescentes. A tecnologia não desaparece quando o objetivo deixa de ser monetização e passa a ser proteção.
Se as plataformas conseguem decidir, em frações de segundo, qual conteúdo gera mais engajamento e mais receita, conseguem igualmente implementar filtros, limites e mecanismos eficazes de prevenção.
O que está em debate não é viabilidade técnica, mas vontade jurídica de assumir responsabilidade social.
O Direito não exige soluções perfeitas, mas exige coerência. E, neste caso, a incoerência é evidente: sofisticação máxima para lucrar, alegada incapacidade para proteger. Essa narrativa não se sustenta - nem tecnicamente, nem juridicamente.
O argumento técnico como biombo moral
As big techs afirmam que a verificação etária é complexa, onerosa, sensível sob a ótica da proteção de dados. Curiosamente, essas mesmas empresas conseguem identificar padrões de consumo, prever comportamentos, induzir decisões e segmentar publicidade com precisão cirúrgica. A dificuldade técnica aparece apenas quando a obrigação é proteger, não quando é lucrar.
Invocar a LGPD como obstáculo à proteção da infância é uma inversão lógica perigosa. A proteção de dados existe para defender direitos fundamentais, não para servir como escudo a modelos de negócio que lucram com a exposição precoce de crianças a conteúdos, práticas e mercados que não foram feitos para elas.
Responsabilidade civil: quem lucra com o risco responde pelo dano
Do ponto de vista jurídico, o enquadramento é claro. Plataformas digitais exercem atividade econômica organizada, baseada na exploração de dados, atenção e engajamento. Quando essa atividade gera riscos previsíveis e danos potenciais, a responsabilidade não é opcional.
O Direito brasileiro já oferece as ferramentas:
Responsabilidade objetiva por atividade de risco;
Dever de segurança nas relações de consumo;
Princípio da prevenção e da precaução;
Função social da empresa.
Não se trata de punir inovação, mas de internalizar custos que hoje são externalizados para crianças, famílias e para o próprio Estado. Quando uma plataforma lucra com a permanência prolongada de menores, com publicidade direcionada ou com sistemas de recomendação opacos, ela assume o risco jurídico desse modelo.
O papel do regulador e o risco do esvaziamento normativo.
A atuação da ao modular prazos específicos não altera a essência do problema: não existe neutralidade regulatória quando o objeto da norma é a infância. Ajustes técnicos são legítimos; adiamentos que esvaziam a eficácia prática da proteção são, no mínimo, questionáveis sob a ótica constitucional.
O Direito não pode aceitar que normas protetivas entrem em vigor com cláusulas implícitas de “vamos ver se dá”. Para crianças, o tempo regulatório não é abstrato. Ele se traduz em exposição, dano psicológico, consumo precoce, vício comportamental e violação de direitos da personalidade.
Responsabilidade social não é marketing institucional
Plataformas adoram relatórios de ESG, selos de responsabilidade e campanhas publicitárias sobre bem-estar digital. Tudo muito elegante. Mas responsabilidade social que não enfrenta o núcleo econômico do problema é apenas storytelling corporativo.
Se o modelo de negócio depende da captura da atenção infantil, da coleta de dados de menores ou da exposição precoce a ambientes de risco, então o problema não é regulatório - é estrutural. E estruturas que produzem dano devem responder por ele.
Conclusão: o Direito não pode ser refém do algoritmo
O debate sobre o ECA Digital não é sobre inovação, nem sobre tecnologia. É sobre limites jurídicos ao lucro quando ele colide com direitos fundamentais. Crianças não são usuários premium, nem “early adopters” de risco calculado. São sujeitos de direitos, com prioridade absoluta.
Se as plataformas querem tempo, que usem esse tempo para reformular práticas, não para adiar responsabilidades. Porque, no fim do dia, quando o dano ocorre, não é o algoritmo que responde - é o Direito. E ele precisa, urgentemente, deixar claro de que lado está.
Do lado da criança.
O resto é ruído.