A tecnologia está redefinindo a infância. Redes sociais, jogos online e sistemas de inteligência artificial fazem parte da rotina das novas gerações, oferecendo oportunidades de aprendizado e interação inéditas, mas também riscos sem precedentes. O anúncio de que, a partir de março de 2026, o Brasil elevará a idade mínima recomendada para uso de redes sociais para 16 anos, e para interação com chatbots de IA para 14 anos, é um passo importante nessa direção, mas ainda insuficiente.
Essa mudança será implementada por meio do ECA Digital, sancionado em setembro de 2025, que obriga plataformas digitais a verificarem a idade dos usuários e a bloquearem o acesso de crianças e adolescentes a conteúdos e serviços inadequados, salvo se houver autorização dos responsáveis via mecanismos de monitoramento parental. Além disso, o Ministério da Justiça e Segurança Pública atualizará o Guia da Classificação Indicativa, incluindo o critério de “interatividade” para avaliar apps, redes sociais e serviços digitais de acordo com a faixa etária recomendada.
Como especialista em direito digital, acredito que tornar o ambiente online mais seguro para crianças exige uma abordagem integrada que une legislação, educação digital, design de plataformas e responsabilidade parental.
A inteligência artificial já influencia o que as crianças veem, consomem e acreditam. Plataformas digitais operam com algoritmos que personalizam recomendações e moldam comportamentos, muitas vezes sem a devida transparência. Chatbots e assistentes virtuais, por exemplo, podem expor menores a conteúdos inadequados, reforçar estereótipos e coletar dados sensíveis. Nesse cenário, a transparência algorítmica e a moderação ativa de conteúdo devem ser prioridade absoluta das empresas.
A educação digital também é indispensável. Ensinar crianças e adolescentes a compreenderem os mecanismos das redes, identificar conteúdos manipulativos e proteger seus dados pessoais é tão essencial quanto aprender matemática ou português. A alfabetização digital deve começar cedo, com o envolvimento de escolas, famílias e poder público, para que os jovens saibam usar a tecnologia de forma crítica, criativa e segura.
Outro ponto é o controle parental responsável, aliado a mecanismos de verificação de idade eficazes e consentimento informado. O equilíbrio está em proteger sem restringir excessivamente: permitir que crianças explorem o digital, mas com camadas de segurança compatíveis com sua maturidade e contexto.
O desafio ético e jurídico da era da IA
Dados da consultoria Statista indicam que o mercado global de geração de conteúdo por IA movimentou cerca de US$ 350 milhões em 2023, com projeções de ultrapassar US$ 1 bilhão até 2030. Esse crescimento exponencial reforça a urgência de criar padrões de proteção e responsabilidade, antes que o acesso precoce e desregulado amplie desigualdades e vulnerabilidades.
A legislação brasileira já oferece bases relevantes, como a LGPD e o ECA Digital, que obrigará plataformas a adotarem medidas de segurança específicas para menores e a verificarem a idade de todos os usuários. Ainda assim, faltam normas detalhadas sobre o uso de IA generativa, especialmente quando envolve coleta de dados, criação de conteúdo e interação com crianças.
Proteger a infância digital não significa conter o avanço tecnológico, mas orientá-lo com responsabilidade. O desenvolvimento seguro das novas gerações depende de uma combinação de ética, inovação e compromisso coletivo - entre Estado, empresas, famílias e sociedade civil.
A segurança digital infantil é, acima de tudo, uma questão de futuro. Garantir que crianças cresçam críticas, criativas e confiantes em um mundo conectado é o maior desafio - e a maior responsabilidade - da era da inteligência artificial.