Regulamentar redes sociais configura ou não censura?
O art. 19 do marco civil discute responsabilidade das plataformas e o equilíbrio entre regulação e liberdade digital.
sexta-feira, 14 de novembro de 2025
Atualizado em 13 de novembro de 2025 12:44
A discussão sobre a regulamentação das redes sociais no Brasil está no centro do debate jurídico, político e social, especialmente à luz do art. 19 do marco civil da internet (lei 12.965/14). O tema envolve questões fundamentais sobre liberdade de expressão, responsabilidade das plataformas digitais e os limites entre regulação e censura.
O art. 19 da lei 12.965/14 estabelece que provedores de aplicações de internet, como redes sociais, só podem ser responsabilizados civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomarem providências para remover o conteúdo ofensivo. Ou seja, a regra geral é que não há obrigação de remoção de conteúdo sem decisão judicial, salvo em exceções legais (como pornografia infantil e violação de direitos autorais).
O objetivo do artigo é proteger a liberdade de expressão e impedir a censura, evitando que plataformas removam conteúdos por pressão extrajudicial ou por critérios subjetivos, o que poderia restringir o debate público e a circulação de ideias.
Defensores do art. 19 enfatizam que a imposição da exigência de ordem judicial para a remoção de conteúdos constitui um instrumento basilar na salvaguarda da liberdade de expressão no ambiente virtual, funcionando como um eficaz contrapeso contra práticas censórias arbitrárias, sejam estas de natureza estatal ou privada.
Alguns críticos têm sustentado que a atuação do STF, ao debruçar-se sobre a redefinição dos regimes de responsabilização das plataformas digitais, pode ultrapassar os limites institucionais próprios do Poder Judiciário, configurando-se, assim, em potencial vetor para a instauração de um ambiente censório. Tal risco se acentua especialmente diante da possibilidade de flexibilização do art. 19 do marco civil da internet, que permitiria a remoção de conteúdos sem a imprescindível ordem judicial.
Aqui, persiste o temor de que uma regulação exacerbada conduza à moderação automática e preventiva de manifestações legítimas, com as plataformas adotando políticas excessivamente restritivas como mecanismo de autoproteção contra eventuais sanções.
O STF está atualmente julgando o RE 1.037.396, que discute a constitucionalidade do art. 19 da lei 12.965/14 (marco civil da internet), que determina a necessidade de prévia e específica ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos ilícitos praticados por terceiros. A seguir, um resumo explicativo dos votos já apresentados pelos ministros.
O ministro Flávio Dino defendeu que as plataformas sejam responsabilizadas diretamente em casos de pornografia infantil, incitação ao suicídio, crimes contra o Estado Democrático de Direito e tráfico de pessoas. Ele propôs que a PGR atue como fiscalizadora até nova lei e sugeriu que só haja punição em situações de "falha sistêmica", ou seja, quando há tolerância repetida a conteúdos ilícitos, e não por casos isolados.
Já Cristiano Zanin considerou o art. 19 insuficiente para proteger direitos fundamentais e defendeu sua parcial inconstitucionalidade. Para Zanin, plataformas devem ser responsabilizadas por conteúdos "manifestamente ilícitos", principalmente quando atuam com curadoria algorítmica. Ele propôs responsabilização após notificação extrajudicial para redes sociais e, para plataformas neutras, somente após ordem judicial.
Dias Toffoli votou pela inconstitucionalidade do art. 19, defendendo que plataformas devem remover conteúdos ilícitos assim que notificadas extrajudicialmente, sem necessidade de decisão judicial. Para ele, a regra atual não protege adequadamente direitos fundamentais diante dos riscos digitais atuais.
Relator do recurso, Luiz Fux acompanhou Toffoli, declarou inconstitucional o art. 19 e foi além: defendeu que a simples notificação de usuários ou vítimas gere obrigação imediata de remoção pelas plataformas, sem necessidade de decisão judicial. Ele defendeu a remoção imediata de conteúdos considerados ilícitos, como discurso de ódio, racismo, pedofilia e apologia ao golpe, após simples notificação da vítima, sem ordem judicial. Fux ressaltou o "dever de cuidado" das plataformas e sugeriu canais eficientes de reclamação.
O presidente do STF, Luís Roberto Barroso, adotou uma posição intermediária, votando pela inconstitucionalidade parcial do art. 19: manteve a exigência de ordem judicial apenas para crimes contra a honra (calúnia, difamação), mas defendeu responsabilização direta das plataformas em casos graves, como pornografia infantil, incitação ao suicídio, tráfico de pessoas, terrorismo e ataques ao Estado Democrático de Direito.
O único voto divergente foi do ministro André Mendonça, que entendeu pela manutenção integral do art. 19, defendendo que a regra é essencial para a liberdade de expressão e que qualquer mudança deve ser feita pelo Congresso. Ele também se posicionou contra o bloqueio de perfis por decisão das plataformas.
A maioria dos ministros que votaram entende que, diante da omissão legislativa, cabe ao Supremo compatibilizar o marco civil com a Constituição, estabelecendo um novo padrão de responsabilização das plataformas até que o Congresso legisle sobre o tema. O presidente do STF, Luís Roberto Barroso, ressaltou que o tribunal não está legislando, mas decidindo casos concretos. Contudo, essa postura tem sido criticada por juristas que lembram que o Congresso já deliberou ao aprovar o marco civil e que a não alteração da lei também é uma decisão legítima.
Com a formação dessa maioria, criou-se um novo marco regulatório que poderá ampliar a responsabilização das plataformas digitais, mesmo sem uma nova lei aprovada pelo Legislativo. Essa decisão contraria a posição da Câmara dos Deputados, que, em 2023, optou por não votar o PL 2.630/20, conhecido como "PL da Censura" ou "PL das Fake News", mantendo o marco civil da Internet sem alterações.
Pode-se dizer, enfim, que as modificações nesse arcabouço normativo - seja por meio de flexibilizações judiciais ou pela promulgação de dispositivos legislativos excessivamente restritivos - podem ensejar a instauração de práticas censórias, tanto por parte do Estado quanto das próprias plataformas digitais.
O verdadeiro desafio reside na construção de um modelo regulatório que salvaguarde os direitos fundamentais, assegure o devido processo legal e previna, simultaneamente, a censura estatal e a censura privada, fomentando, assim, um ambiente digital caracterizado pela democracia e pela pluralidade de vozes.
Alfredo Chagas Chebel
Sócio e coordenador jurídico do escritório Ernesto Borges Advogados. Atuação em Digital e Proteção de Dados, Securitário, Cível, Consumidor. Contabilista. Bacharel em Direito pela Universidade para o Desenvolvimento do Estado e da Região do Pantanal - UNIDERP, Especialização em Processo Civil pela Damásio Educacional, Especialização em Direito Digital e Proteção de Dados pela Escola Brasileira de Direito - EBRADI.


