Impressões Digitais

Novo ano começou com polêmicas: a permanente discussão do controle de conteúdo na internet e limites da inteligência artificial

O debate sobre o controle de conteúdo nas redes sociais teve um componente extra após os atos terroristas de 8 de janeiro em Brasília.

3/3/2023

Após um hiato imprescindível para retomarmos o fôlego para 2023, a coluna Impressões Digitais reinicia com dois assuntos de grande repercussão e que certamente estarão na pauta da mídia nos próximos meses: (i) as discussões em torno do controle de conteúdo na internet, com a imposição ou não de limites prévios de um lado e o combate a posteriori dos abusos de outro; e (ii) os benefícios e riscos no uso da inteligência artificial, em especial após o sucesso da ferramenta ChatGPT.

O debate sobre a possibilidade – ou, visto por outro ângulo, a necessidade – de controle do conteúdo publicado na internet, com destaque para as redes sociais, esteve presente durante todo ano de 2022, ganhando ainda maior relevância no período eleitoral. As discussões variaram entre os extremos dos que querem o controle prévio, algo que pode tangenciar verdadeira censura, aos que defendem a liberdade irrestrita de publicações, ainda que ofensivas, fake news ou até as atentatórias à democracia. Entre as duas fronteiras, abre-se verdadeiro leque de opções, desde a responsabilização civil e criminal posterior dos responsáveis pelo conteúdo ilícito, até o bloqueio temporário (suspensão) ou a exclusão dos perfis/usuários que praticaram as ilicitudes.

A ordem de suspensão ou exclusão de perfis de redes sociais costumava ser uma das últimas medidas passíveis de serem adotadas pela Justiça. Isso porque em geral os usuários não se limitam a um único assunto em seus perfis, de modo que nem todo conteúdo publicado pode ser enquadrado como ilícito e, portanto, não deve ser removido. Porém, tal determinação passou a se tornar mais corriqueira em decisões do ministro Alexandre de Moraes, do Supremo Tribunal Federal e do Tribunal Superior Eleitoral1.

O debate sobre o controle de conteúdo nas redes sociais teve um componente extra após os atos terroristas de 8 de janeiro em Brasília. Uma das medidas propostas pelo ministro da Justiça Flávio Dino nos dias seguintes à tentativa frustrada de golpe foi a edição de uma medida provisória para obrigar a remoção de postagens classificadas como crimes contra o Estado Democrático de Direito em até duas horas, sob pena de multa e responsabilização da plataforma2.

Embora o ministro tenha procurado restringir a incidência às práticas já tipificada em lei como tais e não a meras opiniões exacerbadas ou “postagens antidemocráticas de modo geral”, a iniciativa foi considerada polêmica – inclusive pelos que defendem a existência de mecanismo de controle – pela forma sugerida, uma vez que a conversão de medidas provisórias em lei tem um rito muito mais célere que um projeto de lei, restringindo as discussões legislativas sobre assunto tão sensível3, ao contrário do que ocorreu na aprovação tanto do Marco Civil da Internet (MCI), quanto da Lei Geral de Proteção de Dados Pessoais (LGPD), ambas sancionadas após amplo debate.

Ainda na esteira dos atos de vandalismo na capital federal, a Advocacia-Geral da União (AGU) teve forte atuação, ao requerer judicialmente que as empresas responsáveis pelas principais redes sociais identificassem as postagens incentivadoras da depredação ocorrida, as removessem e – muito importante – vetassem a monetização daquelas postagens, impedindo seus autores de, além de incentivar os atos, faturar com sua divulgação4.

O modo de identificar e classificar o conteúdo infringente segue sendo um problema de difícil solução. Como já tivemos a oportunidade de questionar ao abordarmos o combate às fake news, quem ficará responsável por decidir o que é ou não desinformação, mentira, fraude ou “incentivo” à invasão e depredação de prédios públicos?5 Deixar a cargo da autorregulação por parte dos provedores de aplicações não parece estar funcionando6, ao passo que a exigência da identificação precisa e inequívoca do conteúdo, tal qual previsto no artigo 19 do Marco Civil da Internet, já se mostra ultrapassada frente ao avanço da tecnologia. Atualmente, a circulação viralizada de conteúdo ofensivo via WhatsApp, Tik Tok e Telegram, é muito mais nociva que mera publicação ofensiva em um site ou blog, como ocorria em 2014, quando da promulgação do MCI.

O outro assunto que deve dominar a pauta do direito digital é a rápida popularização do ChatGPT7 e de seus concorrentes – atuais e futuros – no campo da inteligência artificial. Tudo leva a crer que tais ferramentas tenham rápida aceitação e, no médio ou longo prazo, venham até mesmo a substituir os provedores de busca como fonte primária de informações.

Com isso, as discussões sobre as consequências de possível mau uso de aparelhos ou aplicativos que funcionam graças à inteligência artificial e a responsabilização civil por parte de quem criou, desenvolveu, comercializou ou utilizou tais equipamentos ou programas ganha novo patamar. Aqui, não se está mais falando em eventual atropelamento causado por um carro que trafega sem a necessidade de motorista, mas do cometimento de fraudes ou dissimulações em provas, concursos, na advocacia ou – por que não? – no Judiciário?

Se a inteligência artificial é capaz de redigir uma petição inicial e passar na primeira fase do exame da OAB8, o que a impediria de elaborar sentenças e outras decisões, em especial em casos do chamado contencioso de massa? Absolutamente nada. O risco e a questão ética, em todos esses exemplos, residem em saber se a inteligência artificial apenas auxiliou o profissional em sua atividade – o que pode ser positivo – ou o substituiu, o que não pode ser aceito em nenhuma das profissões da área jurídica.

Paralelamente às questões éticas envolvendo a inteligência artificial, a discussão sobre o uso responsável dessas ferramentas deve chegar ao Judiciário e certamente levará a inúmeros debates, inclusive relativos à produção de provas, valorizando ainda mais a perícia em direito digital.

Esses temas serão acompanhados pela coluna, bem como as principais discussões sobre proteção de dados, tais como a recente publicação da dosimetria das sanções administrativas pela Autoridade Nacional de Proteção de Dados, tema de nossa próxima coluna.

Homenagem – Ettore Zamidi

Faleceu esta semana o amigo Ettore Zamidi. Advogado com sólida atuação no Contencioso Digital, contribuiu na formação de importantes teses jurídicas, como a que definiu a necessidade de guarda da ‘porta lógica de origem’ pelos provedores de aplicações9, em que atuou do primeiro grau até a decisão do STJ. Gentil e leal, Ettore deixa grandes amigos em todos os locais por onde passou.

____________

1 Vide reportagem do site Poder360 de 03/01/2023 com ordem de bloqueio de contas e do site G1 de 06/02 com determinação de desbloqueio por entender que, no caso, a usuária havia cessado a prática de disseminação de conteúdo ilícito.

2 Sobre o tema, vide reportagem do Correio Braziliense de 26/01/2023.

3 Nas palavras da Coalização Direitos na Rede, "soluções apressadas e inadequadas, mesmo que a partir de boas intenções, podem ter efeitos problemáticos sobre a internet brasileira". Confira a carta aberta da organização.

4 Uma boa análise sobre as medidas requeridas pela AGU foi feita por Carlos Affonso de Souza, em sua página no UOL.

6 Reportagem da Folha de S.Paulo de 15/02/2023 informou que apenas o Tik Tok respondeu a questionamento judicial sobre remoção de vídeos ligados ao 8 de janeiro. As demais empresas teriam apresentado dados genéricos ou sequer respondido, o que, no entender de Elio Gaspari em sua coluna de 18/02 no jornal, configuraria uma "atitude suicida", que "poderá alimentar avanços contra a liberdade de expressão'.

7 O ChatGPT é um algoritmo baseado em inteligência artificial que funciona como um modelo avançado de geração de texto. A partir de uma rede neural, essa ferramenta presta atenção nas palavras-chave, no contexto e nos diferentes significados que as palavras podem ter, oferecendo aos usuários uma forma simples de conversar e obter respostas.

8 O Estadão de 21/02 informou que o ChatGPT teria sido aprovado na primeira fase da OAB (confira reportagem de Migalhas sobre o tema)..

Veja mais no portal
cadastre-se, comente, saiba mais

Colunistas

Daniel Bittencourt Guariento é sócio da área contenciosa do Machado Meyer Sendacz e Opice Advogados, especialista em Direito Digital e tecnologia. Membro da Comissão Especial de Tecnologia e Informação da OAB, do Conselho de Tecnologia e Informação do IASP e do Comitê de Direito Digital do Centro de Estudos das Sociedades de Advogados (CESA). Ex-assessor de ministros do STJ, na sessão de Direito Privado.

Ricardo Maffeis Martins é advogado especialista no Contencioso Digital e de Proteção de Dados. Professor de Direito Processual Civil da Escola Paulista de Direito e do Curso Damásio. Foi assessor de ministros e coordenador da Segunda Seção do STJ. Certificado em Privacidade e Proteção de Dados pelo Data Privacy Brasil. Membro da Comissão de Direito, Inovação e Tecnologia do IASP.