Infância vigiada: Os limites da IA na educação
O artigo analisa criticamente o uso de tecnologias de IA em escolas, especialmente sistemas de reconhecimento facial e monitoramento digital de crianças e adolescentes.
sexta-feira, 3 de outubro de 2025
Atualizado às 13:23
O avanço da IA - inteligência artificial não se restringe a laboratórios ou ao setor privado: ele já está dentro das escolas e promete transformar a forma como crianças e adolescentes aprendem, convivem e são avaliados. De um lado, há promessas sedutoras de eficiência como o reconhecimento facial que substitui a chamada, câmeras capazes de identificar comportamentos considerados inadequados em sala de aula e até softwares que prometem avaliar níveis de atenção ou emoção durante as provas. De outro, há riscos enormes: a coleta e o processamento de dados pessoais de crianças e adolescentes, o impacto psicológico da vigilância permanente, a possibilidade de erros e vieses em avaliações automatizadas e a transformação de espaços de liberdade e formação em verdadeiros laboratórios de controle digital.
Logo, é crucial analisar criticamente até que ponto essas tecnologias são compatíveis com os direitos fundamentais assegurados pela CF/88, pelo ECA - Estatuto da Criança e do Adolescente e pela própria LGPD - Lei Geral de Proteção de Dados.
Nos últimos anos, diversos países europeus enfrentaram dilemas semelhantes e forneceram importantes lições. Em 2019, a Suécia aplicou a primeira multa sob o GDPR - Regulamento Geral de Proteção de Dados da União Europeia contra um município que utilizava reconhecimento facial para marcar presença em sala de aula. A autoridade local considerou que a medida era desproporcional, uma vez que alternativas muito menos invasivas como cartões de acesso, QR codes ou chamadas manuais poderiam atender ao mesmo objetivo. A CNIL - Comissão Nacional de Informática e Liberdades da França, também no ano de 2019, declarou ilegal o uso de catracas com reconhecimento facial em dois liceus públicos, reforçando que a biometria só pode ser usada em situações absolutamente indispensáveis, quando não há alternativas viáveis.
A entrada em vigor do AI Act europeu, em agosto de 2024, consolidou esse entendimento: sistemas de IA aplicados em educação foram classificados como de alto risco, exigindo documentação técnica, auditorias independentes, gestão de riscos e supervisão humana. O regulamento prevê fases de implementação, com algumas medidas imediatas e outras até 2026. Desde fevereiro de 2025, por exemplo, está proibido o uso de tecnologias de reconhecimento de emoções em escolas, justamente por falta de validação científica e pelos riscos de estigmatização. Esses precedentes são valiosos para o Brasil, que ainda engatinha no debate regulatório, mas pode evitar repetir erros já documentados em outras jurisdições.
Alguns episódios recentes, no Brasil, ilustram os desafios locais. Em 2019, o governo do Rio de Janeiro lançou um projeto-piloto em escolas públicas com câmeras de reconhecimento facial para monitorar a entrada e a saída dos alunos. A proposta foi anunciada como medida de segurança e modernização, mas rapidamente recebeu críticas de entidades como o IDEC - Instituto de Defesa do Consumidor e a SaferNet Brasil, que apontaram riscos de discriminação, ausência de RIPD - Relatório de Impacto à Proteção de Dados e falta de transparência com pais e responsáveis. Em Fortaleza, em 2022, a prefeitura anunciou o uso de IA para monitorar a evasão escolar, cruzando dados de frequência, transporte e alimentação. Embora não envolvesse biometria, a prática levantou preocupações sobre perfilamento de estudantes e possíveis impactos desproporcionais sobre alunos de baixa renda, que poderiam ser estigmatizados. Já em São Paulo, em 2023, universidades e escolas particulares testaram softwares de "proctoring" com IA para monitorar provas online. Esses sistemas coletavam áudio, vídeo e até dados do ambiente doméstico dos alunos, levantando questionamentos sérios, como por exemplo: a escola pode invadir o espaço íntimo da casa da criança? O que fazer com os dados gravados? Esses casos brasileiros mostram que, muitas vezes, a inovação chega antes da regulação, expondo crianças e adolescentes a riscos que poderiam ser mitigados ou até evitados com planejamento e governança adequados.
Nosso ordenamento jurídico já dispõe de instrumentos que, se aplicados corretamente, oferecem barreiras importantes à vigilância excessiva nas escolas. A CF/88 assegura, em seu art. 5º, incisos X e XII, a inviolabilidade da intimidade, da vida privada e das comunicações. O Estatuto da Criança e do Adolescente (lei 8.069/1990), o bem conhecido ECA, reforça, em diversos dispositivos, a proteção integral, a prioridade absoluta e a proibição de tratamento vexatório, abusivo ou constrangedor. O marco civil da internet (lei 12.965/14), por sua vez, estabelece, em seus arts. 7º e 8º, o direito à privacidade e à proteção de dados pessoais no uso da rede, o que se aplica diretamente ao contexto de provas online e monitoramento digital. E a Lei Geral de Proteção de Dados (lei 13.709/18), a famosa LGPD, é ainda mais específica: em seu art. 14, determina que o tratamento de dados de crianças e adolescentes deve sempre observar o melhor interesse da criança, exigindo consentimento específico e destacado de pelo menos um dos pais ou responsável legal.
Complementam esse cenário a lei do bullying (lei 13.185/15), que busca garantir um ambiente escolar saudável e respeitoso, e o Estatuto da Juventude (lei 12.852/13), que assegura a proteção à intimidade e à vida privada no contexto educacional. Até mesmo a LDB - Lei de Diretrizes e Bases da Educação (lei 9.394/1996) pode ser invocada, uma vez que prevê que a educação deve visar ao pleno desenvolvimento do educando, algo incompatível com ambientes excessivamente controlados e punitivos.
Amparando-se no radar tecnológico 2 da ANPD (jun/2024), que analisa biometria e reconhecimento facial com foco também no ambiente escolar, ressalta-se que, por envolver dados pessoais sensíveis de crianças e adolescentes, a adoção dessas tecnologias em escolas deve obedecer ao princípio do melhor interesse (art. 14 da LGPD), assegurando transparência, minimização de dados e avaliação prévia de riscos, inclusive mediante RIPD - Relatório de Impacto à Proteção de Dados antes de qualquer implementação. Ademais a resolução CD/ANPD 18/24, que regulamenta a atuação do encarregado, reforça a importância de que instituições educacionais, públicas e privadas, contem com profissionais capacitados para gerir riscos, interagir com pais e responsáveis e assegurar que a instituição cumpra a legislação.
Esse movimento se soma a recomendações internacionais, como a Convenção da ONU sobre os Direitos da Criança (1989), que consagra o princípio do melhor interesse do menor, e os relatórios da UNICEF e da UNESCO, que pedem salvaguardas adicionais no uso de IA aplicada à infância. A mensagem é inequívoca: sem governança e accountability, a escola corre o risco de se tornar um espaço de violação sistemática de direitos fundamentais.
Ou seja: não se trata apenas de questões legais, mas também de impactos humanos e pedagógicos. Crianças expostas a sistemas de vigilância constante desenvolvem comportamentos típicos do chamado "efeito panóptico": passam a se autocensurar, reduzem sua espontaneidade e vivem sob maior ansiedade. Tecnologias que pretendem medir emoções ou atenção, classificando expressões faciais ou movimentos como "concentração" ou "distração", carecem de validação científica e podem rotular injustamente alunos inquietos, criativos ou que apenas fogem ao padrão.
Esse risco é especialmente grave porque fere direitos previstos no ECA e na própria Constituição, que garantem o direito ao desenvolvimento integral, à dignidade e à liberdade. Ainda, pode reforçar desigualdades: estudantes de contextos mais vulneráveis, que não dispõem de ambientes controlados em casa ou em sala, tendem a ser avaliados de forma mais negativa por sistemas algorítmicos. O resultado é um ciclo de exclusão digital e pedagógica travestido de modernização tecnológica.
Obviamente a tecnologia não precisa ser banida do ambiente escolar, mas sua implementação exige prudência, governança e, sobretudo, compromisso ético. O caminho possível inclui medidas práticas, como por exemplo: evitar o uso de biometria sempre que houver alternativas menos invasivas; realizar RIPDs consistentes e públicos, permitindo que pais e responsáveis participem do processo de decisão; limitar a coleta e o armazenamento de dados ao estritamente necessário, aplicando os princípios da minimização e da proporcionalidade; garantir consentimento destacado e informado dos pais, com possibilidade de recusa sem prejuízo ao estudante; adotar cláusulas contratuais rigorosas com fornecedores de tecnologia, proibindo o uso secundário dos dados para fins comerciais; criar comitês de ética digital nas escolas, com participação ativa de professores, pais e alunos; e investir em educação digital crítica, preparando crianças para compreenderem como funcionam as tecnologias que as afetam.
O debate não é sobre ser contra ou a favor da IA, mas sobre como usá-la de forma que respeite os princípios constitucionais, a legislação infraconstitucional e os compromissos internacionais assumidos pelo Brasil. Afinal, quando falamos de infância, inovação sem responsabilidade não é progresso: é retrocesso disfarçado.


