A decisão do STF que reinterpretou dispositivo legal do Marco Civil da Internet representa um divisor de águas na responsabilização das plataformas digitais. A partir desse novo entendimento, empresas como Instagram, YouTube e TikTok podem ser civilmente responsabilizadas por não removerem conteúdos considerados “manifestamente ilícitos”, mesmo na ausência de ordem judicial.
Nesse contexto, pode-se enxergar uma tentativa de resposta jurídica à escalada da criminalidade digital - o que, por si só, revela uma preocupação legítima do Judiciário com a segurança no ambiente online.
Contudo, essa mudança de paradigma impõe desafios relevantes, sobretudo no que diz respeito à preservação de direitos fundamentais e à definição de um regime jurídico coerente para a filtragem privada de conteúdos.
É nesse contexto que emerge uma das mais delicadas tensões do novo cenário regulatório: o equilíbrio entre a prevenção penal e a garantia do devido processo legal, considerando que, ao atribuir às plataformas o dever de remoção sumária de determinados conteúdos, o STF pode acabar delegando a essas empresas um poder decisório que se aproxima do juízo de tipicidade penal.
Isso porque a análise acerca da prática de um crime que resulte na remoção sumária do conteúdo é feita sem a participação de qualquer autoridade competente, e com impactos práticos muitas vezes irreversíveis para os usuários - sobretudo para os criadores de conteúdo que dependem financeiramente da manutenção de suas publicações online.
Desse modo, a partir do novo modelo, a empresa é instada a agir como filtro jurídico, decidindo, sozinha, se determinado material configura ou não apologia ao crime, incitação à violência, discurso de ódio ou outro tipo penal de alta complexidade interpretativa.
A consequência é que, mesmo diante de conteúdos ambíguos, o receio da responsabilização leve à exclusão imediata - o que, na prática, pode resultar em uma forma de censura privada, com efeitos sancionatórios como perda de audiência, queda de receita, desmonetização e até suspensão de contas.
Outrossim, a própria Corte Suprema reconheceu que há zonas de difícil interpretação, onde a distinção entre “crítica ácida” e discurso criminoso exige análise contextualizada.
Logo, ignorar essa complexidade é legitimar decisões precipitadas, baseadas em critérios subjetivos ou excessivamente amplos. Mais do que isso: o risco de erro na filtragem impõe à plataforma um novo tipo de exposição jurídica - agora por excesso.
Com efeito, é importante observar que se a remoção se der de maneira indevida ou desproporcional, é plenamente possível que a empresa responda civilmente pelos danos causados.
Diante desse cenário, a única via juridicamente segura é o estabelecimento de mecanismos de controle técnico e processual, devendo as plataformas contar com políticas públicas de moderação claras e publicizadas, oferecer aos usuários canais de recurso célere, evitar a remoção automática de conteúdos ambíguos e atuar com base em padrões jurídicos já consolidados.
É fundamental, ainda, que a retirada de conteúdo só ocorra diante de ilícito manifesto, como expressamente condicionou o Supremo. Quando houver dúvida interpretativa, o conteúdo deve ser preservado até manifestação do Judiciário.
Em síntese, a criminalidade digital exige, notadamente, a regulação e mecanismos de contenção de danos decorrentes da prática dos delitos envolvidos.
Todavia, deve-se considerar que a liberdade de expressão não é apenas o direito de falar: é o direito de existir - inclusive economicamente - no debate público. E ninguém deveria ser excluído dele por um algoritmo, uma notificação genérica ou uma política opaca de remoção sumária. O combate à criminalidade digital deve ser firme, mas dentro das fronteiras do Estado de Direito.