COLUNAS

  1. Home >
  2. Colunas >
  3. Migalhas de Responsabilidade Civil >
  4. Questões acerca do sistema de responsabilidade civil do Marco Civil da Internet: Análise do artigo 19

Questões acerca do sistema de responsabilidade civil do Marco Civil da Internet: Análise do artigo 19

terça-feira, 21 de março de 2023

Atualizado às 08:21

Diante dos nove anos em vigor do Marco Civil da Internet (lei 12.965/14 - MCI) e do crescente aumento do uso das redes no País, verifica-se a necessidade de se revisitar temas abordados pela norma. De fato, os ambientes online tornaram-se mais complexos e as interações ali promovidas vêm provocando repercussões sociais e políticas relevantes. Nesse sentido, a discussão do Recurso Extraordinário 1.037.396 pelo Supremo Tribunal Federal mostra-se essencial para a proteção de direitos na rede e a manutenção de uma internet livre, aberta e democrática.

Discutir a constitucionalidade do artigo 19 do Marco Civil da Internet1 envolve diretamente a análise de direitos fundamentais e de possíveis limites ao discurso e à liberdade de expressão na rede. A preocupação com a temática, vale lembrar, não se encontra restrita ao Brasil. A Suprema Corte dos Estados Unidos, no início de 2023, realizou uma série de audiências no contexto dos casos Gonzalez vs. Google e Twitter vs. Taamneh. Na Europa, em novembro de 2022, o Digital Services Act e o Digital Market Act entraram em vigor. As duas normas europeias visam a proteger os direitos dos usuários de serviços digitais e estabelecer condições adequadas para a promoção da inovação, do crescimento e da competitividade, tanto no mercado único europeu quanto globalmente. Elas impactam diretamente a atuação de agentes intermediários e de plataformas online. No debate, há também a Lei Alemã para as Redes Sociais (NetzDG) de 2018.

Com base no panorama atual, é importante que a construção interpretativa do Marco Civil da Internet se dê em diálogo com as contemporâneas reflexões acerca da moderação de conteúdos online, as normas internacionais de direitos humanos e de governança da rede, a Lei Geral de Proteção de Dados brasileira (lei 13.709/18 - LGPD) e a estratégia nacional de inteligência artificial. Contudo, desenvolver tal interpretação traz mais dúvidas do que respostas ao intérprete. No presente texto, a partir de três eixos, pretende-se apresentar questões que envolvem a caracterização dos provedores, suas responsabilidades e deveres, seus papéis na moderação de conteúdos online e suas respectivas atuações no cenário público nacional.

I) Em primeiro lugar, é necessário esclarecer a definição e quais plataformas e/ou sujeitos podem ser qualificados como provedores de aplicações de internet no MCI. Seria possível pensar em outras categorias de provedores, para além dos mencionados nos artigos 18 e 19 do Marco Civil da Internet (respectivamente, o provedor de conexão à internet e o provedor de aplicações de internet)? O artigo 19 seria uma norma prioritariamente estruturada para contemplar as atividades das redes sociais virtuais e de seus usuários?

Em que medida a estrutura do provedor de aplicações, sua influência sobre o discurso público e sua possibilidade de exercer um controle prévio sobre os conteúdos postados pelos seus usuários podem impactar o tratamento legal a ele conferido? Como deverá ser desenhado o sistema de deveres e responsabilidades dos provedores de aplicações de internet?

II) Acerca do regime de responsabilidade civil aplicável, parece adequado tecer as seguintes questões: a possibilidade de análise e edição do conteúdo de terceiro poderia tornar o provedor de aplicações, em alguma circunstância, corresponsável em caso de dano? A remoção de conteúdos questionados só deverá ocorrer após ordem judicial específica, como regra? Não são incomuns as críticas e falas diversas e plurais nas redes. Como situações com um grau maior de subjetividade devem ser tratadas pelos provedores e pelo Poder Judiciário? Não se pode perder de vista que entre as cores branca e preta, há vários tons de cinza...

Quais exceções legais ao artigo 19 do MCI poderiam ser consideradas legítimas no ordenamento jurídico brasileiro? Seria possível aplicar outras exceções ao artigo 19, para além dos artigos 21 e 19, parágrafo 2º, do Marco Civil da Internet, os quais tratam, respectivamente, da divulgação não autorizada de imagens íntimas e de conteúdo protegido por direitos autorais? Essa é uma discussão extremamente interessante em nosso debate.

É necessário frisar que a responsabilização dos agentes deve se dar de acordo com as suas atividades (Art. 3º, VI, do MCI). Portanto, eventual regime de responsabilidade civil deverá ser desenvolvido com base no serviço efetivamente prestado pelo provedor em questão, nos sujeitos envolvidos na relação e no poder e gerência que ele possui sobre o conteúdo que é disponibilizado em seu ambiente.

O artigo 19 do Marco Civil da Internet - já aplicado pelo Superior Tribunal de Justiça (STJ) em diversas situações que envolveram, especialmente, redes sociais e conteúdos lesivos a terceiros publicados por seus usuários - traz relativo equilíbrio ao regime de responsabilidade civil de provedores de aplicações de internet por conteúdo de terceiro, bem como segurança jurídica acerca da regra aplicável à relação.

No caso, conforme o artigo 19 do Marco Civil, a responsabilidade civil do provedor de aplicações de internet será subjetiva por omissão e derivará do não cumprimento da ordem judicial que determinou a remoção do conteúdo danoso (inserido por terceiro em seu ambiente). Foi estipulado que a retirada de conteúdo deverá ocorrer no âmbito e nos limites técnicos do serviço prestado, orientação importante que considera as peculiaridades de cada provedor. Ao colocar o Poder Judiciário como instância legítima para definir o que é ou não um conteúdo ilícito, passível de remoção, o MCI determinou que a responsabilidade civil do referido provedor não nasceria imediatamente após o descumprimento de uma notificação privada / extrajudicial.

A lei 12.965/14 não impede que os provedores de aplicações possam determinar requisitos para a remoção direta de conteúdos em seus termos e políticas de uso e atendam a possíveis notificações extrajudiciais enviadas, quando serão responsáveis diretamente pela remoção e/ou filtragem do material. Ainda que essa perspectiva pareça interessante em certos casos, como nas questões envolvendo desinformação, deve-se evitar que os provedores abusem de suas posições e que venham a filtrar ou realizar bloqueios a conteúdos sem uma justificativa plausível (que deve estar de acordo com as normas constitucionais) e sem que sejam garantidos o contraditório e a ampla defesa às partes ali envolvidas. 

Na ausência de um sistema adequado de responsabilização, serão enfrentadas consequências negativas pela sociedade, como, por exemplo, a diminuição da confiança de usuários e intermediários no uso e no desenvolvimento de ferramentas de comunicação na Internet, além do estímulo de ações governamentais e de agentes privados a estabelecerem mecanismos de controle e censura na Internet, o que levaria a processos arbitrários de remoção de conteúdos e excessiva vigilância dos cidadãos.  

III) Diversos aspectos de nossa vida e sociedade vêm sofrendo interferências de algoritmos e serviços de plataformas. O mercado de tecnologia e seus sujeitos estabelecem continuamente tendências e necessidades, especialmente diante da concentração de players e atividades por eles desenvolvidas. Há, cada vez mais, tanto a análise e predição de comportamentos quanto a captura de nossa atenção.

Nesse cenário, muito se tem questionado acerca do papel das mídias sociais e dos canais de comunicação no debate público. Acerca da moderação de conteúdos e do desenvolvimento de políticas internas e normas legais, cabe indagar: quais parâmetros as plataformas deveriam utilizar na elaboração de seus termos de uso e na sua atividade de moderação? Como tornar a moderação de conteúdo mais objetiva, precisa e contextual, especialmente nos casos que envolverem disseminação em massa de desinformação? Como desenvolver um processo mais responsivo, transparente e participativo? 

Parece interessante, no cenário atual, que o controle acerca da moderação de conteúdos não seja integralmente transferido aos agentes de mercado. Cabe também ao Estado, às instituições públicas democráticas e entidades independentes apontarem premissas base e orientarem - de forma geral e mínima - plataformas e intermediários por meio, por exemplo, de políticas públicas, reuniões multissetoriais, resoluções e normas legais.

Nesse sentido, debate-se hoje a possibilidade de uma autorregulação regulada. Haveria, assim, apoio a uma auto-organi­zação dos agentes privados, de acordo com a expertise e as dinâmicas próprias do mercado, mas também o estabelecimento de parâmetros gerais de inte­resse público importantes ao Estado democrático.

Proteger os direitos humanos no ambiente digital mostra-se urgente e necessário, por meio de normas equilibradas e aplicáveis de forma ampla às diversas problemáticas. Normas e interpretações casuísticas, de viés autoritário ou meramente importadas sem um debate consistente, devem ser afastadas. É, aqui, que a discussão ampla, séria e acadêmica apresenta o seu relevo. Traçar as diretrizes desse debate é tarefa fundamental e exige uma reflexão constante, alinhada ao desenvolvimento tecnológico e às mudanças sociais, políticas e culturais.

__________

1 "Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições legais em contrário. § 1º A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do conteúdo apontado como infringente, que permita a localização inequívoca do material. § 2º A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos depende de previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas no art. 5º da Constituição Federal. § 3º As causas que versem sobre ressarcimento por danos decorrentes de conteúdos disponibilizados na internet relacionados à honra, à reputação ou a direitos de personalidade, bem como sobre a indisponibilização desses conteúdos por provedores de aplicações de internet, poderão ser apresentadas perante os juizados especiais. § 4º O juiz, inclusive no procedimento previsto no § 3º , poderá antecipar, total ou parcialmente, os efeitos da tutela pretendida no pedido inicial, existindo prova inequívoca do fato e considerado o interesse da coletividade na disponibilização do conteúdo na internet, desde que presentes os requisitos de verossimilhança da alegação do autor e de fundado receio de dano irreparável ou de difícil reparação."