STF pode mudar regra que protege as redes sociais
Mudança no marco civil da internet pode responsabilizar redes sociais por conteúdo ofensivo, gerando até R$ 777 milhões em custos ao Judiciário.
quarta-feira, 23 de julho de 2025
Atualizado às 11:05
Quando a internet começou a ganhar popularidade e espaço, surgiram diversas redes sociais e, com elas, opiniões diversas, que podem viralizar e atingir qualquer pessoa, passaram a circular com grande alcance.
No entanto, o ambiente digital passou a ser objeto de regulação específica no ordenamento jurídico, ou seja, a internet não é mais um território sem lei. Existem atitudes que, mesmo ocorrendo no ambiente virtual, precisam ser responsabilizadas. Foi nesse contexto que surgiu o marco civil da internet, a lei 12.965, sancionada em 2014.
Essa legislação estabeleceu princípios, garantias, direitos e deveres para o uso da internet no Brasil. Entre seus pilares estão a liberdade de expressão, a proteção da privacidade dos usuários e a neutralidade da rede.
O que é a responsabilidade objetiva?
Atualmente, de acordo com o art. 19 do marco civil da internet, redes sociais como Instagram, X (antigo Twitter) e YouTube só podem ser responsabilizadas judicialmente por postagens ofensivas ou ilegais feitas por usuários caso descumpram uma ordem legal que determine a remoção do conteúdo.
No entanto, essa regra está sendo questionada no STF, que discute a possibilidade de alterar o regime vigente. A proposta em análise prevê a adoção de um regime de imputação automática de culpa, em que as empresas poderiam ser processadas e até condenadas independentemente de uma decisão prévia, ou seja, apenas pelo fato de a publicação estar disponível em seus domínios virtuais.
O ministro relator do processo se manifestou favoravelmente à mudança, defendendo que os canais devem assumir maior responsabilidade sobre os materiais que hospedam. Caso essa nova interpretação seja aprovada, o impacto no sistema de Justiça pode ser expressivo.
Estima-se que o novo modelo possa gerar até 754 mil novas ações entre 2025 e 2029, com impacto orçamentário de até R$ 777 milhões para o Poder Judiciário.
O tratamento internacional da responsabilidade digital
A eventual adoção da responsabilidade objetiva para serviços digitais no Brasil contrasta com os modelos adotados por países com sistemas jurídicos completos, como os Estados Unidos e a União Europeia. Assim, a imputação de culpa por publicações de terceiros geralmente exige notificação prévia e a não remoção do material considerado ilegal.
Nos Estados Unidos, o regime é regido principalmente pela seção 230 do Communications Decency Act, que garante imunidade às plataformas quanto ao conteúdo publicado por seus usuários, salvo em casos específicos como violação de propriedade intelectual ou crimes federais.
Já na União Europeia, o Digital Services Act estabelece que as redes não são obrigadas a monitorar o conteúdo de forma ativa, sendo passíveis de sanções apenas quando, após notificação adequada, não agirem para retirar informações ilícitas.
Esse contraste com os modelos internacionais acende um alerta sobre os riscos da adoção apressada de um regime mais rígido no Brasil.
Afinal, é possível que a adoção de um regime mais rígido, como o proposto pelo STF, possa colocar o Brasil em descompasso com o padrão internacional, além de gerar insegurança jurídica e inibir a inovação no setor de tecnologia. A comparação internacional tem sido usada como argumento por entidades civis e representantes do setor privado que defendem a manutenção do modelo atual do marco civil da internet.
Novo modelo pode abrir brecha para indústria da indenização
Um dos principais temores em torno da possível mudança no regime de responsabilização das plataformas digitais é o surgimento de uma nova "indústria da indenização", fenômeno já observado em setores como o bancário e o de consumo no Brasil.
A facilitação do acesso a indenizações sem a necessidade de decisão prévia pode incentivar o crescimento da litigância predatória quando ações são movidas em massa com o único objetivo de obter vantagens financeiras, muitas vezes sem base legal sólida.
Dessa forma, escritórios de advocacia poderiam estruturar esquemas automatizados de judicialização contra plataformas. Com ferramentas digitais, seria possível identificar conteúdos e acionar a Justiça repetidamente, criando um ciclo artificial de demandas.
Esse tipo de prática já foi identificado, por exemplo, em ações contra instituições financeiras e operadoras de telefonia, onde o volume excessivo de processos gerou distorções no sistema e sobrecarga do Judiciário.
No entanto, se replicado no ambiente online, esse modelo pode levar as companhias a adotarem políticas de remoção de conteúdo excessivamente cautelosas, gerando um efeito colateral de censura preventiva e comprometendo a liberdade de expressão.
Criar regras que facilitem ou incentivem o ajuizamento em massa de ações, sem critérios rigorosos ou necessidade de análise prévia, pode ser prejudicial. De certa forma, seria um retrocesso, porque pode gerar abusos, sobrecarregar os tribunais e prejudicar o funcionamento saudável da internet.
IA e inovação jurídica: As soluções para evitar o colapso
Diante dos desafios colocados pela crescente judicialização de conflitos digitais, o uso estratégico de tecnologia, especialmente da inteligência artificial, é uma alternativa mais eficiente e sustentável do que a adoção da responsabilidade objetiva para plataformas.
Uma das possibilidades é a automação da triagem de processos, utilizando ferramentas de IA para identificar padrões, classificar ações e auxiliar o Judiciário na gestão do alto volume de demandas. Esse tipo de tecnologia já vem sendo aplicado em tribunais brasileiros para acelerar a análise de petições e organizar fluxos internos, com ganhos expressivos de produtividade.
Além disso, os canais vêm investindo no uso de IA para moderação preventiva de conteúdo, com sistemas capazes de identificar discursos de ódio, desinformação e outros tipos de violação antes que esses materiais sejam amplamente divulgados. Esses mecanismos ainda estão em desenvolvimento, mas já mostram potencial para reduzir a necessidade de intervenção legal.
Outra frente promissora é a chamada jurisprudência preditiva, que utiliza IA para analisar decisões passadas e prever o provável desfecho de casos semelhantes. Essa ferramenta pode ser útil tanto para os tribunais quanto para advogados e empresas, permitindo resoluções mais consistentes e maior previsibilidade jurídica.
Diante do risco de aumento nas ações judiciais por conta das possíveis mudanças no marco civil da internet, soluções de alta performance tornam-se ainda mais essenciais para lidar com o volume e a complexidade das novas demandas.
Isso porque, em vez de sobrecarregar o sistema com uma avalanche de processos, essas soluções tecnológicas oferecem caminhos para aprimorar a governança digital, preservar a liberdade de expressão e garantir a responsabilização de forma mais proporcional, inteligente e conforme os avanços da sociedade da informação.
É importante frisar que plataformas jurídicas que integram automação e análise preditiva já oferecem suporte para enfrentar esses desafios com inteligência e eficiência.
Liberdade, equilíbrio e responsabilidade digital
O debate sobre a responsabilização das plataformas é, antes de tudo, um debate sobre o futuro da internet no Brasil. Isso não é somente sobre definir quem responde por um post ofensivo, mas de decidir que tipo de espaço digital queremos construir.
O desafio é garantir que a internet continue sendo um espaço equilibrado, onde os direitos individuais são protegidos, mas sem que seja preciso sufocar a liberdade de expressão. Caso contrário, há o risco de que o ambiente digital se transforme em um território inseguro, marcado por decisões precipitadas que podem gerar mais distorções do que soluções.


