COLUNAS

  1. Home >
  2. Colunas >
  3. Migalhas de IA e Proteção de Dados >
  4. Nudity Deep Fake e a necessidade de regulação da Inteligência Artificial no Brasil

Nudity Deep Fake e a necessidade de regulação da Inteligência Artificial no Brasil

sexta-feira, 26 de janeiro de 2024

Atualizado às 07:27

Certamente as leitoras e leitores desta coluna Migalhas de Proteção de Dados já ouviram ou leram sobre Techlash, um termo derivado de "tech" (tecnologia) e "backlash" (reação contrária), refere-se à reação negativa, crítica ou aversão direcionada à indústria da tecnologia, especialmente às gigantes como Meta, Alphabet, Amazon, Apple e Microsoft. Essa oposição é impulsionada por preocupações relacionadas à privacidade, proteção de dados dos usuários e ao potencial de manipulação política.1

A autora Nirit Weiss-Blatt diz que estamos vivendo a era dos grandes escândalos das Big Techs, que é fruto da ideia libertária de não regulação e liberdade de expressão abstrata e absoluta desde os idos pré redes sociais, como demonstra Max Fisher, em seu Máquina do Caos. Esses escândalos podem ser vistos através da já conhecida manipulação de pessoas em momentos eleitorais com a disseminação de desinformação (fake news); a coleta ilegal de dados de usuários pelas Big Techs, o aumento de grupos e comunidades online para disseminação e fabricação de discursos de ódio, como 4Chan, 8Chan2, as comunidades no Reddit3 e no Telegram4 e a utilização de deep fake, utilizado tanto para hostilização ou vingança (ciberbullying), quanto para difamação e injúria.

Deep fake, segundo Diogo Rais5, é a mistura de "deep learning" - o aprendizado profundo em que são treinadas as inteligências artificiais - e "fake news" - desinformação, assim, trata-se de um modo refinado de propagação de desinformação, através de vídeos, fotos, em sua maioria de personalidades, em que a imagem e áudio podem ser alteradas com o objetivo de manipular a população.

O uso de deep fake é preocupante, por exemplo, quando da aplicação de Inteligência Artificial para desnudar as pessoas, os "nudification AI". Esta tecnologia é capaz de transformar imagens comuns e fotos de redes sociais em falsas representações de nudez. No Rio de Janeiro, adolescentes do colégio particular Santo Agostinho utilizaram essa ferramenta para manipular fotos de mais de 20 meninas, sem a obtenção de seus consentimentos. O impacto nefasto desse incidente evidencia a urgente necessidade de conscientização sobre os riscos associados ao uso irresponsável da inteligência artificial, bem como a importância de proteger a privacidade e dignidade das pessoas online por meio da regulação, ainda inexistente no Brasil.

Antes de adentrarmos nas questões sobre regulação de IA e o que achamos ser necessário para evitar o mau uso de tecnologias, é imprescindível dizer que, neste caso do Rio de Janeiro, além de gerar traumas psicológicos nas adolescentes, esta forma de violência pode se tornar epidêmica. É válido ressaltar que no Brasil, a atriz Isis Valverde6 também sofreu esse tipo de violência e está buscando reparação jurídica e punição aos culpados.

Também é importante salientar que os impactos psicológicos nessas adolescentes do Rio de Janeiro podem ser devastadores, como ocorre em casos de revenge porn (a pornografia de vingança) - porque as imagens corrompidas são difíceis de serem removidas da rede e as meninas terão seus nomes ligados a estas imagens falsas por muito tempo, desvirtuando seus ciclos sociais de convivência.

No Brasil, temos o art. 241-C, do ECA, que prescreve como crime este tipo de simulação e divulgação de imagens pornográficas de menores, além de ser análogo ao crime de pedofilia; também há no Código Penal, o art. 218-C, que tipificou o crime de divulgar pornografia ou cena de nudez sem o consentimento da vítima.

Dessa maneira, podemos entender as consequências que uma tecnologia utilizada de forma criminosa pode acarretar, tanto familiar e pessoalmente quanto ao realizar as denúncias devido à vergonha e a exposição das vítimas. Então quais as possibilidades para a prevenção ao mau uso da tecnologia? Entendemos que as medidas principais devem passar por, pelo menos, 4 fatores, vejamos.

  • Desindexação do Link da Tecnologia Maléfica de Sites Buscadores 

Este pode ser um tema polêmico, mas em se tratando de nudez, aplica-se o art. 21, ou seja, o provedor de aplicações responde subsidiariamente em se tratando de divulgação de conteúdo de nudez, quando notificado pela vítima não agir de forma diligente. Entretanto, softwares como os utilizados no caso da escola no Rio de Janeiro, não possuem uma finalidade voltada à criação de artes através de imagens como, por exemplo, o Midjourney ou o BlueWilow. A finalidade dessa IA é tornar fotos casuais em fotos com nudez, portanto, a falta de consentimento é quase inerente ao usuário que, além de ofender o ECA, em caso de menores de idade, e o Código Penal, ainda ofendem a LGPD, pois se trata da utilização de dado sensível, somente podendo ser objeto de tratamento se tiver uma das bases legais previstas no art. 11 da LGPD, além de atentar aos fundamentos da proteção de dados pessoais previsto no inc. IV do art. 2º da LGPD, ao violar a privacidade, a honra e a imagem das vítimas; bem como o inc. VII do art. 2º da LGPD, pois atenta contra os direitos humanos, o livre desenvolvimento da personalidade e a dignidade da pessoa humana.

Portanto, a desindexação seria uma medida de caráter rápido, o que não impede a busca da responsabilização civil da vítima, sendo tal medida uma tutela que merece reflexão a cada caso, para não dar ensejo à revitimização com a quantidade de exposição de uma imagem com nudez falsa durante o trâmite processual.

Além disso, numa busca rápida por qualquer dos buscadores mais famosos, Bing (Microsoft) e Google (que também é a base dos dispositivos IOS, com o Safari), no Brasil, pode-se encontrar uma miríade de softwares com nudity machine learning, isto é, as IA foram treinadas com imenso banco de dados com nudez para se adequar a cor da pele e as nuances corporais da vítima, por isso entendemos que seja  inviável responsabilizar apenas uma dessas empresas produtoras destes softwares, assim, a desindexação seria a primeira forma de evitar o contato fácil de usuários com tais IA's. 

  • Regulação de IA no Brasil

Como podemos definir a regulamentação da Inteligência Artificial? Regulamentar implica estruturar um sistema intricado de termos, unidades e categorias para estabelecer uma base (complexa) que assegure ou aprimore a eficácia do objeto regulado, sem obstruir os avanços tecnológicos e econômicos. A legitimidade da tecnologia é crucial para evitar responsabilidades - em outras palavras, regulamentar envolve criar um conjunto de regras e normas que facilitem a interação da IA com a sociedade, promovendo a resolução eficaz de conflitos, prevenindo danos e otimizando sua eficiência7.

Quando estamos diante do debate sobre regulação de IA, é crucial que entendamos o que estamos almejando regular. Pois bem, IA são orientadas por humanos com sistemas que empregam algoritmos para compreender, interpretar e tomar decisões, seja na esfera física ou digital. Esses mecanismos processam dados adquiridos através de machine learning (v.g., deep learning and reinforcement learning), analisando informações estruturadas ou não, e aplicam raciocínio para determinar ações que melhor atendam aos objetivos estabelecidos8.

Apesar das tecnologias utilizando IA serem consumidas no Brasil, ainda não possuímos legislação adequada para regular o estado em que se encontra a utilização dessas ferramentas no país. Em 2021, o governo federal, através do Ministério da Ciência, Tecnologia e Inovações, lançou a EBIA9 (Estratégia Brasileira de Inteligência Artificial), um documento com pouco mais de 50 páginas que norteia o bom uso de IA e também serve de guia para pesquisas e inovações.

Entretanto, quem lê o documento perceberá que são citados todos os mecanismos e institutos para a implementação e criação de IA éticas, que respeitem a privacidade e os direitos fundamentais, contudo não há definições claras de como isso será instituído, quando e quais sistemas (modelos) merecem maior ou menor atenção. Como salientamos acima, é preciso dizer qual é a IA, qual sua finalidade, quais meios de accountability estão disponíveis (a) métodos de explicação; b) testes e validação; c) indicadores de qualidade do serviço; e d) desenvolvimento de uma IA guardiã10) e infelizmente o documento não nos dá nenhuma resposta.

Há também um projeto de Lei oriundo da Câmara dos Deputados e agora em trâmite no Senado Federal sob a relatoria do senador Rodrigo Pacheco (PSD/MG) que versa sobre a regulação de IA. O PL 2338/2023, corrigiu inúmeros erros e omissões daquele vindo da Câmara, como inserir no texto conceitos e princípios de governança como accountability, a privacidade, respeito aos dados pessoais, ao Estado de Direito e seus direitos fundamentais e etc.

Contudo, o PL 2338/2023, mesmo com as audiências públicas das quais participaram especialistas, ainda não avançou em temas relevantes para a regulação como, por exemplo, identificação de viés algoritmo; responsabilização sobre racismo algorítmico e, sobretudo, deveria ter como fundamento o respeito e proteção à criança e ao adolescente, como demonstra a nota técnica da Coalizão de Direitos na Rede sobre o PL11. 

Outro ponto relevante em que o PL é carente, é a escolha do modelo regulatório escolhido em seus dispositivos. Temos ao menos os modelos (i) clássico; (ii) modelo emergente; (iii) modelo ético e; (iv) modelo cautelar, cada um com suas peculiaridades, algumas omissões, mas ao menos é uma tentativa de regular estas tecnologias12, respeitando princípios como (i) não discriminação; (ii) possibilidade de revisão e previsão de viés algoritmico; (iii) privacidade e (iv) accountability, já utilizados na regulação de IA na União Europeia.

  • Regulação das Redes Sociais

A regulação de plataformas digitais no Brasil sofre do mesmo mal da regulação de IA. Os projetos não avançam em questões extremamente relevantes, mas em outros Estados eles prosperam com alguns erros e omissões, claro, porque a tecnologia avança mais rápido que a análise pontual dos legisladores, entretanto a União Europeia lidera e gera boas lições e debates sobre regulação, sobretudo a Alemanha com a NetzGD, que desde 2017 inseriu o Código Penal Alemão em seu corpo normativo numa tentativa de prevenir a desinformação e o discurso de ódio.

No Brasil, pelo menos desde 2018, há centenas de projetos de lei em trâmite ou ainda em análise em comissões no Congresso Nacional sobre regulação de redes sociais. O projeto que está à frente das discussões é o PL 2630/2020, de relatoria do deputado Orlando Silva (PCdoB/SP), oriundo do Senado Federal. O PL já sofreu grandes mudanças como, por exemplo, a retirada do dispositivo que criaria uma autoridade nacional de regulação - pressuposto para a constituição da autorregulação regulada, tornando indefinível o modelo de regulação que almeja o Legislativo brasileiro.

Pontos a serem considerados são: a adoção do Código Penal à temática da tipificação penal quanto à disseminação de desinformação, por exemplo. O tema é sensível, pois institutos penais precisam respeitar o princípio da subsidiariedade e o PL acerta em punir grupos que realizam ações coordenadas de disseminação de fake news e discurso de ódio, ao contrário da punição de apenas um indivíduo que divulga tais temáticas. Contudo, este projeto necessita de melhorias nos princípios de governança e transparência, melhor definição da responsabilização das redes em casos de conivência com a permanência de grupos e comunidades que exaltam o preconceito e a discriminação, além da divulgação e disseminação de pornografia infantil13.

O Projeto de Lei, atualmente, está em fase de votação, ainda incompleta, pois devido ao lobby robusto das Big Techs, que recebem valores altos em receita com o modelo de autorregulação, atuaram com propaganda e pressão em parlamentares da oposição ao governo para impedir a votação do projeto.14

  • Educação Digital

O tema da educação digital é abordado tanto em projetos de regulação de IA, quanto de redes sociais. A educação não apenas fomenta a desconfiança do que é consumido na rede, ensinando onde realizar a checagem de fatos, mas também ensina quais os direitos do usuário, quais seus limites e os limites da plataforma, fomenta denúncias a comportamentos danosos na rede e etc15.

Este tema é relevante, porque o perfil do usuário de redes sociais brasileiro já melhorou em relação a conteúdos com desinformação, entretanto, segundo pesquisa do InternetLab e Rede Conhecimento Social, dos participantes entrevistados no estudo, 44% expressaram sua convicção na autenticidade da informação quando depositam grande confiança na fonte que compartilhou a notícia. Ao analisar as inclinações políticas, aqueles que se identificam como adeptos da direita estão mais inclinados a confiar em seus círculos de confiança (57%), seguidos pelos da esquerda (47%) e do centro (43%)16.

Portanto, é necessário urgentemente regulamentar a inteligência artificial (IA) para preservar os direitos fundamentais dos indivíduos e usuários da internet. À medida que as gigantes da tecnologia enfrentam uma reação negativa devido a questões como privacidade e manipulação política, a regulação da IA emerge como um componente essencial para mitigar riscos e abusos de machine learning. A proteção de crianças e adolescentes ganha destaque nesse contexto, exigindo medidas rigorosas para salvaguardar esse público vulnerável contra conteúdo danoso online.

Destacamos mais uma vez a vital importância da regulação das redes sociais no enfrentamento ao impacto prejudicial da disseminação de desinformação, discursos de ódio e práticas nocivas na rede. A definição de diretrizes claras e a efetiva implementação dessas regras são passos indispensáveis para assegurar um ambiente digital seguro e responsável para as crianças e adolescentes e ao Estado.

__________

1 É o que ensina a pesquisadora Nirit Weiss-Blatt, em seu The Techlash and the Crisis Comunication. Los Angeles: Emerald Publishing Limited, 2021, p. 60.

2 FISHER, Max. Máquina do Caos: como as redes sociais reprogramaram nossa mente e nosso mundo. São Paulo: Todavia, 2023, p. 73.

3 Ibidem, p.95.

4 Disponível aqui.

5 RAIS, Diogo. SALES, Stela Rocha. Fake News, Deepfakes e Eleições. In. Fake News: a conexão entre a desinformação e o direito. (Coord.) Diogo Rais. São Paulo: Thomson Reuters Brasil, 2020, p. 28-29.

6 Disponível aqui.

7 Menengola, E., Gabardo, E. ., & González Sanmiguel, N. N. (2023). A Proposta Europeia de Regulação da Inteligência Artificial. Seqüência studos Jurídicos Políticos, 43(91), 1-27. Disponível aqui.

8 FACELI, Katti; LORENA, Ana Carolina; GAMA, João; CARVALHO, André Carlos Ponce de Leon Ferreira de. Inteligência Artificial: Uma Abordagem de Inteligência de Máquina. Rio de Janeiro: LTC, 2011.

9 Disponível aqui.

10 HARTMAN, Ivar A et al. Policy Paper: Regulação de Inteligência Artificial no Brasil. Disponível aqui.

11 Disponível aqui.

12 OLIVEIRA, Cristina Godoy Bernardo de. Regulação de IA e Modelos Jurídicos. 26 de maio de 2023. In: Reconhecimento facial: A tecnologia e os limites para sua utilização. ALESP. YouTube. Disponível em: Reconhecimento facial: A tecnologia e os limites para sua utilização.

13 CURZI, Yasmin. ZINGALES, Nicolo. GASPAR, Walter. LEITÃO, Clara. COUTO, Natália. REBELO, Leandro. OLIVEIRA, Maria Eduarda. Nota técnica do Centro de Tecnologia e Sociedade da FGV Direito Rio sobre o substitutivo ao PL 2630/2020. Rio de Janeiro: FGV Direito Rio, 2021.

14 Disponível aqui.

15 Educação Midiática.

16 Disponível aqui.