A consolidação de ecossistemas digitais, alavancada pela técnica de prospecção computacional massiva (TDM - Text and Data Mining), estabeleceu um novo paradigma de vigilância e consumo que desafia as fronteiras da privacidade infantojuvenil. Nesse cenário, a aplicação do Estatuto Digital da Criança e do Adolescente (lei 15.211/25) torna-se imperativa para evitar o esvaziamento de direitos fundamentais e o uso predatório de dados pessoais para fins comerciais.
A urgência na implementação desses mecanismos de governança fundamenta-se na vulnerabilidade dos processos de subjetivação contemporâneos. Como demonstram Luna e Clementino (2025), as redes sociais operam como espaços de mediação simbólica onde a subjetividade juvenil é modulada pela recepção pública e por algoritmos que incentivam a comparação social exacerbada e a busca por validação externa. Sob essa ótica, a vedação ao perfilamento comercial para menores (art. 22 da lei 15.211/25) não é apenas uma norma de privacidade, mas uma salvaguarda contra a fragmentação da atenção e o enfraquecimento da autoimagem identificados em ambientes digitais que priorizam o engajamento em detrimento do bem-estar psicológico.
Longe de configurar um óbice à inovação, o rigoroso controle sobre o perfilamento e a mineração de dados deve ser compreendido como o pilar de segurança jurídica que harmoniza o progresso tecnológico com o princípio do melhor interesse. Garante-se, assim, que a tecnologia atue como uma ferramenta de inclusão e cidadania digital, e não como um mecanismo de exploração biopsicossocial ou manipulação de perfis comportamentais de indivíduos em estágio peculiar de desenvolvimento.
1. A questionável subjetividade jurídica algorítmica e o dever de cuidado
A aparente autonomia dos sistemas de IA - Inteligência Artificial configura, sob uma análise rigorosa, um fenômeno de processamento estatístico e prospecção massiva de dados, carecendo de qualquer manifestação de intencionalidade ou consciência própria. No cenário jurídico brasileiro, essa percepção é consolidada pelo Estatuto Digital da Criança e do Adolescente (lei 15.211/25), que estabelece o melhor interesse do menor como parâmetro absoluto para qualquer produto ou serviço de tecnologia.
Diferente de sistemas que operam sob uma lógica puramente técnica, o ambiente digital voltado a menores exige que a ausência de subjetividade da máquina reforce a centralidade da responsabilidade humana. Ao afastar a possibilidade de atribuir personalidade jurídica às máquinas, o legislador brasileiro categoriza a IA como um sofisticado instrumento de reprodução técnica que deve ser estritamente mediado por salvaguardas que garantam a proteção integral, especial e prioritária.
Essa lacuna de subjetividade algorítmica é o que torna o sistema de prospecção massiva de dados (TDM) potencialmente lesivo à formação do indivíduo. Como demonstram Luna e Clementino (2025), a subjetividade adolescente não é uma propriedade fixa, mas um processo dinâmico e contingente, atravessado por relações de poder e discursos digitais. Quando algoritmos, desprovidos de ética ou consciência, modulam essa subjetividade através da comparação social exacerbada e da busca por validação externa, criam-se ambientes que priorizam o engajamento comercial em detrimento do bem-estar psicológico.
Portanto, o nexo de causalidade jurídica permanece vinculado aos sujeitos de direito tradicionais: o desenvolvedor, pelo ônus da licitude da base de dados e transparência do sistema, e o provedor, que responde pela integridade biopsicossocial do menor. Garantir que a tecnologia permaneça como objeto de regulação, e não como agente autônomo, é o único caminho capaz de assegurar que o desenvolvimento progressivo das capacidades de crianças e adolescentes não seja suplantado pelo automatismo das máquinas.
2. A responsabilidade civil e a governança de dados no ambiente digital
A implementação de mecanismos de governança de dados, conforme preconizado pelo Estatuto Digital da Criança e do Adolescente (lei 15.211/25), fundamenta-se na vulnerabilidade dos processos de subjetivação contemporâneos. Como demonstram Luna e Clementino (2025), as redes sociais operam como espaços de mediação simbólica onde a subjetividade juvenil é modulada pela recepção pública e por algoritmos que incentivam a comparação social exacerbada e a busca por validação externa. Nesse sentido, a responsabilidade dos fornecedores de tecnologia não é apenas técnica, mas de natureza preventiva, exigindo que o controle sobre o perfilamento e a mineração de dados seja o pilar de segurança jurídica que harmoniza o progresso tecnológico com o princípio do melhor interesse do menor.
Sob essa ótica, a vedação ao perfilamento comercial para menores, prevista no art. 22 da lei 15.211/25, atua como uma salvaguarda contra a fragmentação da atenção e o enfraquecimento da autoimagem identificados em ambientes que priorizam o engajamento em detrimento do bem-estar psicológico. Conforme abordado por Kneipp (2026) em debate sobre discriminação algorítmica, essa proteção é reforçada pelas diretrizes do CONAR, que impõem cuidados especiais para que a publicidade não explore a inexperiência ou a deficiência de julgamento dos jovens. A responsabilidade civil, portanto, recai sobre os agentes que detêm o controle dos sistemas, exigindo transparência sobre os conjuntos de dados minerados e a garantia de que a prospecção não resulte em manipulação comportamental ou exploração predatória de indivíduos em estágio peculiar de desenvolvimento.
A ausência de uma "vontade própria" da IA redireciona o dever de indenizar aos agentes humanos que detêm o controle técnico e o proveito econômico da tecnologia. O ônus pela licitude da base de dados utilizada no treinamento e pela transparência do sistema é acompanhado pela responsabilidade direta sobre o impacto biopsicossocial do conteúdo disseminado. Diante da insuficiência de modelos de autorregulação, a plena responsabilização das plataformas torna-se a via necessária para garantir a reparação de danos decorrentes de ataques em massa, discursos de ódio ou a imposição de padrões estéticos inalcançáveis que, como alerta a psicologia social, perpetuam ciclos de insatisfação e vulnerabilidade emocional nas novas gerações.
3. Mecanismos de explicabilidade e a salvaguarda do controle parental
A efetividade da proteção integral no ambiente digital depende da superação da opacidade algorítmica, transformando a transparência em um instrumento de segurança jurídica e saúde pública. Conforme estabelece a lei 15.211/25, os fornecedores de tecnologia têm o dever de informar extensivamente sobre a natureza de seus sistemas, garantindo que o funcionamento do fluxo de dados seja compreensível para os pais e responsáveis. Essa necessidade de "explicabilidade" atua como um direito de supervisão, assegurando que o tratamento de dados pessoais de crianças e adolescentes ocorra sob parâmetros claros e auditáveis.
Nesse contexto, o exercício do controle parental deixa de ser uma mera funcionalidade acessória para se tornar um dever de assistência ativa e contínua. O Estatuto Digital obriga as plataformas a oferecerem ferramentas acessíveis que permitam não apenas limitar o tempo de uso, mas também configurar mecanismos de supervisão de forma independente da aquisição do produto. Ao possibilitar a restrição à comunicação com usuários não autorizados e o controle sobre sistemas de recomendação personalizados, inclusive com a opção de desativação, a lei busca mitigar riscos psicossociais e garantir que o desenvolvimento do menor ocorra em um ambiente controlado e seguro.
Ademais, a governança de dados impõe o dever de exibir avisos claros e visíveis quando ferramentas de supervisão estiverem em vigor, detalhando quais controles foram aplicados. A integração dessas salvaguardas com a obrigatoriedade de revisão regular de ferramentas de inteligência artificial por especialistas assegura que a tecnologia respeite a autonomia progressiva do indivíduo. Portanto, a transparência algorítmica e o fortalecimento do poder de supervisão dos responsáveis são os pilares que garantem que a inovação digital não comprometa a integridade e os direitos fundamentais das novas gerações.
4. Considerações finais
A presente investigação permite concluir que o advento de tecnologias de prospecção massiva de dados não demanda a criação de novos regimes de subjetividade jurídica, mas sim o fortalecimento e a adaptação dos institutos clássicos de proteção à pessoa humana. Restou demonstrado que a suposta autonomia algorítmica não possui o condão de deslocar a responsabilidade civil para entes desprovidos de personalidade. Juridicamente, a tecnologia deve permanecer sob a égide do controle e da explicabilidade, garantindo que a automação não se converta em um mecanismo de expropriação da subjetividade ou da privacidade das novas gerações.
No tocante ao conflito entre a exploração comercial e o desenvolvimento infantojuvenil, a pesquisa evidenciou que o ponto de equilíbrio reside na transparência e no respeito aos limites éticos estabelecidos pelo Estatuto Digital da Criança e do Adolescente (lei 15.211/25). A vedação ao perfilamento comercial e a imposição de mecanismos de supervisão parental não são entraves à inovação, mas salvaguardas necessárias para assegurar que o progresso tecnológico avance de forma ética e juridicamente sustentável.
A tese de uma autonomia das máquinas foi refutada, uma vez que a responsabilidade é indissociável da consciência e da capacidade de responder civilmente por danos, elementos inexistentes em sistemas automatizados. A segurança jurídica no ecossistema digital depende de uma matriz de responsabilidade clara, onde os agentes humanos que detêm o controle técnico e o proveito econômico respondam pela integridade da experiência oferecida ao usuário.
Por fim, reafirma-se que a soberania do indivíduo é o único entendimento capaz de assegurar o equilíbrio e a integridade na era digital. Ao afastar a subjetividade jurídica da máquina, este trabalho reforça que o valor da proteção humana deve ser preservado como reflexo indissociável da nossa condição, consolidando um modelo de inovação que respeita a ética, a autodeterminação informativa e, acima de tudo, a dignidade de crianças e adolescentes frente à automação em larga escala.
________________________
BRASIL. Lei nº 15.211, de 17 de setembro de 2025. Dispõe sobre a proteção de crianças e adolescentes em ambientes digitais (Estatuto Digital da Criança e do Adolescente). Brasília, DF: Presidência da República, 2025. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2023-2026/2025/lei/L15211.htm.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Dispõe sobre a proteção de dados pessoais e altera a Lei nº 12.965, de 23 de abril de 2014 (Lei Geral de Proteção de Dados Pessoais - LGPD). Diário Oficial da União: seção 1, Brasília, DF, 15 ago. 2018.
CONAR - Conselho Nacional de Autorregulamentação Publicitária. Código Brasileiro de Autorregulamentação Publicitária. São Paulo, 2025.
KNEIPP, Bruno Burgarelli Albergaria. Discriminação Algorítmica. Palestra apresentada na Comissão de Direito do Consumidor da OAB/MG — Subseção Barreiro, Belo Horizonte, PUC Minas Barreiro, 18 mar. 2026.
LUNA, Luiza Mendes; CLEMENTINO, Marina Santos Morais. Impacto das Redes Sociais na Construção da Subjetividade Adolescente. 2025. 28 f. Trabalho de Conclusão de Curso (Graduação em Psicologia) - Pontifícia Universidade Católica de Minas Gerais, Belo Horizonte, 2025.