COLUNAS

  1. Home >
  2. Colunas

Migalhas de IA e Proteção de Dados

Oferecer uma visão 360º sobre a Lei Geral de Proteção de Dados.

Nelson Rosenvald, Cristina Godoy Bernardo de Oliveira, Evandro Eduardo Seron Ruiz, Cintia Rosa Pereira de Lima e Newton de Lucca
Na Era da Informação, as pessoas têm acesso a uma infinidade de dados disponíveis na Internet, os quais estão dispersos na rede mundial de computadores, dificultando o acesso, a localização e a análise sistematizada dos mesmos.  No mundo corporativo, as pessoas jurídicas geram uma infinidade de dados que são processados, armazenados em servidores, podendo ser consultados pelos sócios, empregados e colaboradores. Porém, esses dados "brutos" pouco revelam sobre o negócio, tendências de consumo, perfil de clientes, aderência do mercado a produtos e a serviços, a não ser que sejam tratados1. Os dados, portanto, ganham valor estratégico e negocial quando são tratados, quando se transformam em informação, o que se dá a partir da avaliação, da análise, inclusive estatística, da sistematização e da parametrização dos dados. Os players do setor da tecnologia, cientes dessa dificuldade inerente à nova Era e dessa oportunidade mercadológica na exploração comercial desses dados, colocaram-se em franca concorrência no mercado tecnológico, porque o desenvolvimento de um software consiste na sistematização de instruções em sequência e na definição de dados, sendo este o ato de programar, etapa essencial da criação de um software.2 Os agentes do setor da tecnologia iniciaram uma corrida em direção ao desenvolvimento de sistemas de BI3, APPS4, IA's5 e plataformas de streaming, entre outras soluções tecnológicas que têm os dados por insumo, seja como conteúdo, seja como direcionamento de navegação e do consumo do usuário, seja como estrutura informacional da concepção da ferramenta. Diante de tal cenário, é correto afirmar que muitas das soluções tecnológicas na atualidade surgem e são concebidas a partir da organização, da parametrização e da análise estatística, sistematizada e contextualizada desses dados, revelando que eles possuem valor econômico. A valorização e a exploração econômica de um bem, material ou imaterial, gera interesse por parte da Ciência Jurídica, e o Direito tende a discipliná-lo e a tutelá-lo juridicamente, seja para acomodar os interesses envolvidos e sanear os conflitos, seja para garantir maior segurança e previsibilidade jurídicas aos negócios empresariais. Assim se deu na época do surgimento do software como bem explorado economicamente de modo independente do hardware, ou seja, da máquina que o processava.   O Direito se posicionou e reconheceu que o software deveria ser entendido como uma obra autoral, equiparando-o à obra literária6.   O mercado do software ganhou em complexidade, surgindo ao longo do tempo diversos tipos, como já tive a oportunidade de detalhar em artigo publicado na Revista Científica Virtual da Escola Superior de Advocacia de São Paulo/SP, Edição 35 de 20207.  Para o presente artigo, vale destacar entre esses tipos, os aplicativos8, os APPS9, os videogames, entre outros, de modo que qualquer que seja o tipo de programa de computador, deve ser ele tratado, reconhecido e disciplinado como obra autoral. Não são apenas os softwares protegidos por Direito de Autor; o banco de dados também é reconhecido pela lei como obra autoral.10 Desse modo, os dados reunidos e organizados a partir de uma determinada lógica ou critério, passam a integrar um banco de dados. Tanto o banco de dados, como os programas de computador, sendo obras autorais, garantem ao desenvolvedor o direito de propriedade e, com ele o direito de uso, de exploração, de adaptação, de modificação, entre outros direitos previstos na lei. Os dados, a partir da perspectiva do banco de dados, deixam de ser apenas um insumo, para ser parte integrante de uma obra autoral, explorável economicamente, independentemente de um sistema de computador ou de outra criação intelectual. Os dados, assim considerados, ganham relevância e uma tutela diversa daquela consignada na Lei Geral de Proteção de Dados.  Individualmente considerados, os dados continuarão a pertencer a seus titulares, sujeitos à Lei Geral de Proteção de Dados.  Porém, os dados organizados e parametrizados poderão compor um banco de dados, passível de ser detido como propriedade autoral por uma outra pessoa, geralmente uma pessoa jurídica - o controlador, por exemplo11 -, e por ela explorado comercialmente.   Evidente que dessa relação poderão surgir conflitos entre os titulares dos dados e o proprietário do banco de dados. Outro fato da atualidade no tocante à indústria do software repousa no interesse dos empresários em perseguir uma proteção autônoma aos seus elementos (internos e externos).  Sob essa perspectiva, revela-se importante conhecê-los, a fim de perquirir qual proteção legal é possível12. Listo-os a seguir:  MICROCÓDIGOS - sequências de instruções internas acessíveis por microprocessador; PROGRAMA-OBJETO - consiste no registro ou na transcrição do código binário em fita, disco, disquete, placa de memória do programa-fonte;  LINGUAGEM DE PROGRAMAÇÃO - conjunto de regras gramaticais e de símbolos.  Envolve as regras da linguagem que traduzem o código binário; PASTA DE ESPECIFICAÇÕES E INFORMAÇÕES - dados e informações pesquisadas, desenvolvidas e utilizadas para a programação, para a idealização do programa;  ORGANOGRAMAS, AS ANÁLISES ORGÂNICAS E FUNCIONAIS - projetos ou roteiros, incluindo "projetos funcionais" que são resultados de cálculos científicos e organogramas, que podem consistir em uma compilação de dados com análise orgânica; ALGORITMOS E REGRAS - regras gerais e princípios matemáticos a partir dos quais se desenvolvem os programas e sistemas de criptografias; ESTRUTURA E ARQUITETURA DOS PROGRAMAS - entenda-se, aqui, o encadeamento ou a organização dos subprogramas;  PROGRAMA-FONTE - lista de instruções que compõe o programa; FUNCIONALIDADES, ASPECTO TELEVISUAL, INTERFACE DO USUÁRIO E CLONES DE PROGRAMAS - são desenhos ou modelos, expressão televisual, ícones, interface do usuário menus e comandos para interação do usuário com o sistema; DOCUMENTOS E MANUAIS DO USUÁRIO - textos explicativos de funcionamento do programa para leitura pelo usuário, utilizados para auxiliar a compreensão e o correto uso; BASE DE DADOS - conjunto de dados organizados consistente em arquivos eletrônicos de dados e de informações determinados e organizados para serem usados juntamente e pelo programa. A base de dados - ou banco de dados - é reconhecidamente um elemento do software, o qual é protegido de forma autônoma pelo Direito de Autor, como acima indicado.  Ou seja, além de o software, em si e em sua integralidade, ser uma obra autoral, o banco de dados que o integrar poderá ser protegido individualmente como obra autoral autônoma. Essa reflexão é importante porque, a depender de como o software é concebido e desenvolvido, pode se reservar e garantir a propriedade do banco de dados a uma pessoa (idealizador), e o programa de computador à outra (desenvolvedor), por exemplo.   Sarah A. Hinchliffe reconhece que o banco de dados pode ser envolvido na operação de um APP13, e, assim sendo, os direitos relativos a esse banco de dados devem ser observados e respeitados. Nesse diapasão se o banco de dados for prévio ao APP ou outro tipo de software, o desenvolvedor deverá obter autorização prévia do titular do banco de dados para uso no desenvolvimento (licença prévia para uso do banco de dados). Porém, segundo a teoria do fair use14, se forem utilizados apenas poucos elementos, ou se o uso for necessário para garantir a integração das tecnologias, então o licenciamento poderá ser dispensado.  Também é possível que um banco de dados público informe um APP, que poderá ser reconhecido como obra autoral e, consequentemente, como propriedade privada de um agente econômico em particular15. Por fim, outro elemento que merece reflexão é a pasta de informações. Os programas de computador, na atualidade, deixaram de ser horizontais (gerais que atendem a várias profissões, a vários setores da economia) para serem verticais (com aplicações específicas e próprias de um determinado setor), fato que inverte o valor da pasta de informações, que reúne dados e informações próprias daquele que encomenda o desenvolvimento de um software, justamente para que atenda às suas necessidades específicas.  O desenvolvedor não detém, via de regra, conhecimento prévio desses dados e informações que pertencem ao encomendante, e não são de domínio público.  Dito isso, a software house deverá obter autorização para usar economicamente a pasta das especificações e das informações no desenvolvimento de aplicativos e sistemas de computador que quiser comercializar por conta própria, cuja propriedade, via de regra, reclama para si, não obstante serem do encomendante os dados e as informações utilizadas na concepção do programa.  Em contrapartida, é possível ao encomendante reclamar para si a titularidade do programa, justamente porque o elemento central e chave é a pasta de informações, de titularidade do encomendante, informações essas relevantes ao negócio. Também é possível que a pasta de informações seja protegida pelo dever de confidencialidade, a ser estabelecido contratualmente, e, ainda, pelo Direito Concorrencial, se o uso sem autorização do seu titular configurar ato de concorrência desleal16.   As reflexões apostas resumidamente neste artigo apenas revelam que a Economia 4.0 está alicerçada nos dados e no uso que deles se faz, de modo que eles ganham cada vez mais relevância para o mundo dos negócios e, consequentemente, para o Direito, merecendo mais estudos a partir dos diversos interesses que em torno deles gravitam, das variadas aplicações econômicas e das implicações jurídicas que os envolvem. __________ 1 A Lei Geral de Proteção de Dados (LGPD) define tratamento de dados como: Art. 5º Para os fins desta Lei, considera-se: (...) X - tratamento: toda operação realizada com dados pessoais, como as que se referem a coleta, produção, recepção, classificação, utilização, acesso, reprodução, transmissão, distribuição, processamento, arquivamento, armazenamento, eliminação, avaliação ou controle da informação, modificação, comunicação, transferência, difusão ou extração; 2 GOMES, Orlando. A Proteção dos Programas de Computador. 1-16. GOMES, Orlando et al. A proteção Jurídica do "Software". Rio de Janeiro: ed. Forense, 1985. p. 2 e 4 3 Sistemas de computador que realizam a análise dos dados direcionada para a estratégia do negócio, gerando uma inteligência negocial. 4 Sistemas computacionais desenvolvidos para serem usados em dispositivos eletrônicos móveis, como smartphones e tablets. 5 Inteligência Artificial. 6 Lei 9.609/1998 (Lei dos Programas de Computador) Art. 2º O regime de proteção à propriedade intelectual de programa de computador é o conferido às obras literárias pela legislação de direitos autorais e conexos vigentes no País, observado o disposto nesta Lei. 7 DOMINGUES, Alessandra de Azevedo Domingues. O Mercado dos APPS e as Possíveis Proteções Legais. Revista Científica Virtual da Escola Superior de Advocacia OAB/SP, Direito, Inovação e Tecnologia Desafios da Economia 4.0, DOMINGUES, Alessandra de Azevedo (coord.), n. 35, verão de 2020, p.10-32. disponível em: Revista Científica da Escola Superior de Advocacia: Direito, Inovação e Tecnologia - Ed. 35 by ESA OAB SP - Issuu. 8 Aplicativos são programas de computador operados pelo usuário; resolvem um problema determinado, sendo específicos quando tratam de uma necessidade do usuário, ou padrão quando concebidos para tratar a necessidade de uma categoria de usuários.  9 APPS são programas destinados aos equipamentos móveis, como tablets e smartphones, que funcionam da mesma maneira como um navegador da web por meio de comunicação via Internet. Tradução livre do trecho: "are software programs that run on devices including mobile, tablets and smartphones , and work in the same manner as a web browser by communication over the internet. (...)" in HINCHLIFFE, Sarah A. So, You've Created an App? disponível aqui, acesso em 09 de abril de 2016, p. 2. 10 A Lei de Direitos Autorais elenca, no artigo 7º., diversas criações do homem como obras autorais, entre as quais estão os programas de computador e o banco de dados (ou base de dados), conforme abaixo:  Art. 7º São obras intelectuais protegidas as criações do espírito, expressas por qualquer meio ou fixadas em qualquer suporte, tangível ou intangível, conhecido ou que se invente no futuro, tais como: XII - os programas de computador; XIII - as coletâneas ou compilações, antologias, enciclopédias, dicionários, bases de dados e outras obras, que, por sua seleção, organização ou disposição de seu conteúdo, constituam uma criação intelectual. 11 LGPD - Art. 5º Para os fins desta Lei, considera-se: VI - controlador: pessoa natural ou jurídica, de direito público ou privado, a quem competem as decisões referentes ao tratamento de dados pessoais; 12 Vide BERTRAND, André. A Proteção Jurídica dos Programas de Computador: notas de SOUZA, Marco Antonio Costa, ROCHA, Manuel Lopes. tradução DRESCH, Vanise Pereira. Porto Alegre: Livraria do Advogado, 1996, WACHOWICZ, Marcos. Propriedade Intelectual do Software & Revolução da Tecnologia da Informação. 1. ed. 3a. tir.  Curitiba: Juruá, 2006 e LOBO, Carlos Augusto da Silveira. A Proteção Jurídica dos Programas de Computador. 95-113. in GOMES, Orlando et al. A proteção Jurídica do "Software". Rio de Janeiro: ed. Forense, 1985. 13 HINCHLIFFE, Sarah A. So, You've Created an App? disponível aqui, acesso em 09 de abril de 2016, p.2. 14 O Fair Use é instituto constante da lei de Copyright americana, que representa uma relativização da propriedade do autor, em benefício do acesso ao conhecimento, através do qual, portanto, se busca conciliar os interesses privados e o público comum e coletivo. Para aplicar o Fair Use há que se levar em consideração os seguintes fatores: ü  O propósito e o caráter do uso, em especial sem natureza comercial e para fins educativos não lucrativos. ü  A natureza da obra (ficção ou não ficção, inédita ou publicada). ü  A quantidade e a substancialidade da porção usada em relação ao conjunto da obra (no Brasil entendimento Judiciário é que trecho seria até 10%, internacionalmente entendimento é que seria de até 25%) - quem usa está ajudando a divulgar a obra original (uso social). ü  O efeito do uso sobre o mercado potencial da obra protegida ou sobre o seu valor. A lei brasileira não agasalhou explicitamente essa figura, mas há entendimento na doutrina de que haveria a previsão do fair use no artigo 46 que reza: Art. 46. Não constitui ofensa aos direitos autorais: II - a reprodução, em um só exemplar de PEQUENOS TRECHOS, para uso privado do copista, desde que feita por este, sem intuito de lucro; VIII - a reprodução, em quaisquer obras, de PEQUENOS TRECHOS de obras preexistentes, de qualquer natureza, ou de obra integral, quando de artes plásticas, sempre que a reprodução em si não seja o objetivo principal da obra nova e que não prejudique a exploração normal da obra reproduzida nem cause um prejuízo injustificado aos legítimos interesses dos autores. Sobre o critério "pequenos trechos", leia-se as seguintes ponderações: "(...) A questão é saber o que se entende por 'pequeno trecho', uma vez que a lei não traz essa explicação, cabendo interpretá-la com base no bom senso. Obviamente, a reprodução de cinquenta por cento de uma obra não caracterizaria um 'pequeno trecho'. Apesar de a quantificação não ser a melhor forma de interpretar a extensão desse conceito, (...) Dessa forma, é importante saber o tamanho da obra reproduzida para que se possa verificar se a reprodução pode ou não ser caracterizada como 'pequeno trecho', de forma a ser utilizada sem necessidade de autorização. (...)" CARBONI, Guilherme. Fonte Conjur, acessado em 25.05.2016.   "Normalmente, entende-se por 'pequeno trecho' a reprodução de uma parte da obra que não prejudique a sua exploração normal, isto é, que as pessoas não deixem de comprar o original da obra por se darem por satisfeitas com a reprodução do pequeno trecho. Portanto, não se trata de uma questão meramente quantitativa da reprodução. Para conferir maior segurança jurídica, normalmente se deve levar em conta o tamanho da obra como um todo para verificar se a extensão da reprodução." Disponível aqui,  acessado em 25.05.2016. 15 vide LEE, Melissa, ALMIRALL, Esteve Ewareham, JONATHAN. Open Data & Civic Apps: 1st Generation Failures - 2nd Generation Improvements, disponível aqui, acesso em 15 de abril de 2016. 16 Segundo o artigo 195 da Lei da Propriedade Industrial (lei 9.279/96), comete crime de concorrência desleal quem: (...) XI - divulga, explora ou utiliza-se, sem autorização, de conhecimentos, informações ou dados confidenciais, utilizáveis na indústria, comércio ou prestação de serviços, excluídos aqueles que sejam de conhecimento público ou que sejam evidentes para um técnico no assunto, a que teve acesso mediante relação contratual ou empregatícia, mesmo após o término do contrato; XII - divulga, explora ou utiliza-se, sem autorização, de conhecimentos ou informações a que se refere o inciso anterior, obtidos por meios ilícitos ou a que teve acesso mediante fraude; (...) (grifei)
sexta-feira, 6 de setembro de 2024

A falta que faz um X

O fechamento de uma big-tech de redes sociais no Brasil, como ocorreu com o X (ex-Twitter) no último dia de agosto, pode ter uma série de consequências significativas que vão além de afetar diretamente quase que 10% da população brasileira que usa seus serviços1. A saída do X do Brasil trará consequências econômicas, sociais, científicas e políticas. Vamos iniciar esse tempo comentando um pouco sobre o X para ajudar a montar um contexto sobre a expulsão dos seus serviços no Brasil. Quem é o X da questão? A empresa original, Twitter, foi fundada em 2006 por três visionários (Jack Dorsey, Biz Stone, e Evan Williams) sob o conceito de ser uma plataforma de microblog que permitia aos usuários enviar mensagens curtas de até 140 caracteres, conhecidas como tweets. O Twitter rapidamente ganhou popularidade como uma plataforma para comunicação rápida e disseminação de informações em tempo real, especialmente durante eventos ao vivo e notícias de última hora. Ao longo dos anos, o Twitter enfrentou uma série de desafios relacionados ao crescimento de usuários, rentabilidade e, como sempre, às questões de moderação de conteúdo. Essas mesmas situações continuaram, mesmo depois de outubro de 2022, quando Elon Musk adquiriu o Twitter por aproximadamente US$ 44 bilhões e fechou seu capital. Ainda no mesmo ano, Musk anunciou várias mudanças na plataforma e na sua estrutura organizacional, incluindo alterações de políticas, promovendo demissões de pessoal e lançamentos de novas funcionalidades. Em 2023, Musk anunciou um rebranding do Twitter para "X," refletindo sua visão de transformar a plataforma num "super app", ou seja, expandir o escopo da plataforma além de sua função original de rede social, incorporando serviços financeiros e outros tipos de funcionalidades integradas, similar ao que é feito por super apps como o WeChat da China. O X, atualmente, não é uma empresa independente, mas é uma das três empresas coligadas que formam a X Corp., que também nasceu no mesmo ano de 2023. Só para formar um contexto mais amplo, uma das duas outras empresas foi criada com a intenção única de adquirir um empréstimo de US$ 13 bilhões justamente para adquirir o Twitter. Ainda sobre o conglomerado, a X Corp., é uma subsidiária da X Holding Corporation. Ambas as X, são empresas sediadas no estado de Nevada, nos EUA. Com um escritório no Brasil desde 2012, o X encerrou suas operações no último dia 17 de agosto, citando a ameaça do Ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), de prender a representante legal da empresa no país. Na época, o X local era uma empresa com cerca de 40 funcionários dirigidos Linda Yaccarino, diretora-executiva da big tech. Antes do período de instabilidade da empresa no Brasil, o X empregava 150 funcionários2. Alguns conjecturam sobre a pouca relevância da plataforma no Brasil relativamente a outros países. No entanto, conforme dados públicos do Statista, de abril deste ano, o Brasil era o sexto país com o maior número de usuários ativos no X, totalizando 21,48 milhões de usuários, ficando atrás do Reino Unido (24.3), Indonésia (24.8), Índia (25.4), Japão (69.2) e Estados Unidos (106.2). Por outro lado, a plataforma sofreu uma queda de 40% na receita um ano após a aquisição de Elon Musk, de acordo com o Wall Street Journal. O último relatório financeiro público da X é referente ao segundo trimestre de 2022, quando a empresa reportou uma receita de US$ 1,18 bilhão e um prejuízo de US$ 270 milhões3. Voltemos agora para analisar os eventuais impactos da saída desta empresa do Brasil. Consequências econômicas Perda de Empregos: Essa é a consequência mais óbvia. Os funcionários locais do X já perderam seus empregos, no entanto, como a empresa também tinha como fonte de rendimento a propaganda, diversos postos indiretos dos produtores de conteúdo de marketing digital também perderam uma fonte de recurso. Impacto em Negócios Locais: Muitas pequenas e médias empresas que dependem de plataformas de redes sociais para marketing e vendas diretas podem enfrentar desafios de encontrar seus clientes potenciais em novas redes sociais. A saída do X reduz o alcance de mercado destas empresas e afeta potencialmente suas receitas. Investimentos Estrangeiros: Pode haver uma redução no investimento estrangeiro direto, à medida que outras empresas de tecnologia reconsiderarem suas operações e investimentos futuros no país, temendo condições regulatórias, instabilidade jurídica ou sujeição às políticas semelhantes do STF.  Consequências sociais e acadêmicas Alteração na Dinâmica de Comunicação: Os usuários que dependiam desta rede social para manter conexões pessoais e profissionais precisam migrar para outras plataformas, o que pode alterar a dinâmica social. Três dias após o fechamento do X, seu concorrente mais próximo, a BlueSky, atraiu mais de 2 milhões de novos usuários4. Só por curiosidade, o próprio STF já abriu um perfil nesta plataforma que ainda não tem um representante legal no país, como exigido ao X5. Impacto na Informação e Mídia: Esta rede social recentemente se tornou uma fonte crítica de notícias e informações para muitos usuários. Seu fechamento afeta o acesso à informação e a pluralidade das fontes. Acadêmica: Entre as redes sociais, o atual X e o seu antecessor Twitter, eram as únicas fontes abertas de informação em redes sociais usadas por pesquisadores em todo o mundo. Particularmente, eu iniciei minhas pesquisas sobre um tema de Análise de Opinião/Sentimentos usando o Twitter em 2014. Os interessados em saber mais sobre o uso desta plataforma para a pesquisa podem utilizar o link nesta referência bibliográfica6.  Consequências políticas  Regulação e Censura: O fechamento do X é uma consequência clara de desentendimentos sobre políticas de regulação das mídias sociais, e também sobre censura e políticas de privacidade. A consequência é a intensificação de debates sobre temas anteriormente consagrados na sociedade e no arcabouço legal, tais como a liberdade de expressão e controle governamental sobre serviços privados. Um dos motores do desentendimento partiu de Alexandre de Moraes na inclusão de Elon Musk como investigado no inquérito das milícias digitais (INQ 4874). Como se não bastasse, o ministro instaurou um inquérito para investigar as ações de Musk em relação a crimes de obstrução à Justiça, organização criminosa e incitação ao crime. Impacto em Campanhas e Mobilização: Partidos políticos e ativistas de todos os espectros políticos e ideológicos sempre usaram as plataformas sociais para mobilizar e engajar cidadãos nos seus temas de campanhas. A descontinuidade da ferramenta de divulgação irá dificultar a replicação desses esforços em outras plataformas. Alinhamento político: A partir deste bloqueio o Brasil passa a fazer parte de um pequeno número de países que já usaram do mesmo expediente de exclusão digital, ou seja, figura ao lado da China que baniu também o Facebook, o Flickr e o Hotmail em 2009; o Iran que também baniu o X em 2009; a Rússia que em 2022 restringiu o acesso ao X, Facebook e Instagram; a Korea do Norte que em 2016 excluiu o então Twitter, o Facebook, YouTube e vários outros serviços web; o Turcomenistão que em 2018 bloqueou aplicativos de mídias sociais como X, WhatsApp e Facebook, além de sites de notícias estrangeiras e de oposição; Mianmar que após um golpe de estado em 2021 baniu o Instagram e o X; além do Uzbequistão que também pertence ao seleto grupo. Consequências tecnológicas Surgimento de Alternativas: O que se espera é que os usuários continuarão pautando seus serviços, informações e opiniões eventualmente em novos espaços digitais que impulsionarão o crescimento de plataformas sociais locais, regionais ou internacionais que preencham o vácuo deixado, incentivando e estimulando o desenvolvimento de novas tecnologias. As tecnologias de informação e comunicação social (TICS) abriram não só um novo mundo de comunicação dando voz a todos os cidadãos, como também passou a fornecer recursos aos pequenos empreendedores e assim facilitar sua projeção no mundo virtual. É também notável que essas mesmas TICS criaram e promoveram um espaço de difusão e expressão de ideias de grupos anteriormente dispersos geograficamente. Nós, usuários das redes sociais, criamos um universo virtual e paralelo de opções sem fazermos oposição ao mundo analógico anterior. Nos apossamos da liberdade de expressão e nos regulamos internamente pelos recursos de criação e movimentação entre os diversos grupos de discussão que nos acolhe na web. Criamos um espelho digital das interações sociais físicas que transcende barreiras geopolíticas e nos aproxima pelos interesses comuns. Já são quase 30 anos da internet comercial no Brasil. Nesse tempo formamos uma geração inteira, jovem e brilhante, criada nos moldes da livre expressão. Não há luz no fim do túnel para iniciativas que rompam essa nova realidade, com esse novo mundo. Para entender melhor esse drama: uma timeline parcial do X no Brasil Nov./2022 Equipes de moderação do Twitter são reduzidas e, depois, terceirizadas Dez./2022 Elon Musk suspende perfis de jornalistas que publicam localização em tempo real de pessoas, inclusive do seu jato particular Jan./2023 Twitter começa a ser denunciado por ocorrências do 8 de janeiro Abr./2023 Depois de ataques em escolas públicas, a justiça exige maior controle no conteúdo das mensagens postadas Abr./2023 Dia 24, nasce o X Abr./2023 Surgem notícias que o X cumpre pedidos de remoção e de moderação de perfis específicos Mai./2023 Linda Yaccarino é a nova CEO da empresa 03 de Abr./2024 Começam os Twitter Files Brasil 06 de Abr./2024 Musk compartilha os Twitter Files Brasil. Avisa que divulgará todos os pedidos de informação feitos por Alexandre de Moraes e removerá todas as restrições impostas à perfis do X feitas por ordem judicial 07 de Abr./2024 Moraes inclui Elon Musk no inquérito das milícias digitais 03 de Mai./2024 X para de exibir anúncios políticos no Brasil. Segue a decisão da Google Jul./2024 X começa a treinar IAs com os dados dos usuários 18 de Ago./2024 X recebe mandado de intimação e anuncia o fim da operação no Brasil 28 de Ago./2024 STF intima X a apresentar representante legal no Brasil em até 24h 30 de Ago./2024 Moraes determina o bloqueio do X por operadoras, redes de telefonia e lojas de aplicativos 31 de Ago./2024 X é bloqueado no Brasil. Não tenho conclusão. Talvez o desfecho fosse outro se tivéssemos seguido os trâmites usuais vistos num estado democrático de direito: denúncia, investigação, inquérito, acusação, audiência, julgamento, veredito, sentença, apelação execução da sentença. Cada etapa cumprida pela instância competente assegurando os direitos das partes.  __________ 1 X perde usuários no Brasil e seu bloqueio deve esvaziar ainda mais o portfólio de anunciantes. Valor Econômico. Disponível aqui. Último acesso em 3 de setembro de 2024. 2 Na gestão de Elon Musk, relevância da X no Brasil é posta em xeque. InfoMoney. Disponível aqui. Último acesso em 3 de setembro de 2024. 3 X's Tumultuous First Year Under Elon Musk, in Charts. Wall Street Jornal. Disponível aqui. Último acesso em 3 de setembro de 2024. 4 Com queda do X, BlueSky conquista mais de 2 milhões de novos usuários. Metrópoles. Disponível aqui. Último acesso em 3 de setembro de 2024. 5 Why Brazil's Supreme Court blocked X and what it means for the platform. Economic Times. Disponível aqui. Último acesso em 3 de setembro de 2024. 6 Exemplo de aplicações do Twitter no âmbito acadêmico. Link para teste aqui. Último acesso em 3 de setembro de 2024.
Considerações Iniciais  As garantias adequadas para a transferência internacional são de extrema relevância para se assegurar o livre fluxo de informações e do bem-estar do comércio em âmbito global. A discussão sobre os parâmetros e hipóteses de transferência de dados entre países, ou grupos de países, envolve aspectos técnicos, econômicos, jurídicos, de circulação de dados da internet, de modelos globais de negócio, a respeito das leis aplicáveis aos dados armazenados ou em circulação.1 A grande diversidade de modelos de proteção de dados traz consigo a necessidade de um esforço de convergência e interoperabilidade entre esses diferentes sistemas a fim de que tais fluxos sejam permitidos. Devido à necessidade de harmonização entre legislações de diferentes países, as operações além das fronteiras nacionais de um país implicam maiores riscos aos direitos e liberdades dos titulares2.  De acordo com a Portaria nº 11 de 27 de janeiro de 2021, que tornou pública a agenda regulatória da Autoridade Nacional de Proteção de Dados (ANPD) para o biênio 2021-2022, os artigos 33, 34 e 35 da LGPD começassem a ser regulamentados no segundo semestre de 20223.  Nessa direção, a ANPD seguiu com os procedimentos necessários ao andamento às exigências da regulação do fluxo internacional de dados na  Lei Geral de Proteção de Dados (LGPD)4 e publicou, em 23 de agosto de 2024, a Resolução CD/ANPD Nº 19, que aprova o Regulamento de Transfere^ncia Internacional de Dados e o conteu´do das cla´usulas-padra~o contratuais (CPCs).5 Diante da necessária busca de que o Brasil esteja dentro dos padrões internacionais relacionados às melhores práticas de proteção aos dados pessoais, ressalta-se a importância da matéria. A seguir objetiva-se uma breve análise sobre: 1. Lei Geral de Proteção de Dados e o Fluxo Internacional de Informações; 2. A Diferença entre Transferência Internacional de Dados e o Trânsito de Dados Pessoais; 3. 1. LEI GERAL DE PROTEÇÃO DE DADOS E O FLUXO INTERNACIONAL DE INFORMAÇÕESA partir da lei 13.7096, de 14 de agosto de 2018, conhecida como LGPD, o Brasil passou a ter normas específicas sobre o tratamento de dados pessoais. A proteção de dados pessoais, anteriormente tratada de maneira esparsa no ordenamento jurídico nacional, estruturou-se em uma legislação específica7. A LGPD inaugurou um sistema que está focado na prevenção e na criação de uma cultura de proteção de dados pessoais8. A legislação brasileira dialoga9 com outros diplomas legais vigentes, garantindo a ampla tutela aos titulares de dados10. Apresenta diferentes hipóteses para operações transfronteiriças, tratando do tema, especificamente, no Capítulo V, intitulado "Da Transferência Internacional de Dados", respectivamente, nos artigos 33 a 36.  A LGPD traz a previsão da transferência internacional de dados pessoais abordando os aspectos relacionados às regras aplicáveis ao fluxo para países e organismos internacionais. Ao total, são apresentadas nove hipóteses em que se permite o fluxo internacional de dados, sendo este considerado como um rol taxativo. Importa destacar que não há hierarquia entre entre os mecanismos de transfere^ncia, sendo que o me´todo escolhido dependera´ da finalidade e do contexto para o tratamento dos dados pessoais11. Em rol taxativo, o artigo 33 define as hipóteses em que a transferência internacional é permitida12. Alternativamente, o fluxo de informações pessoais para fora do território nacional só é permitido caso, i) os países ou organismos internacionais proporcionarem grau de proteção de dados pessoais adequado ao previsto na LGPD; ii) o controlador oferecer e comprovar garantias de cumprimento dos princípios, dos direitos do titular e do regime de proteção de dados previsto na LGPD; iii) a transferência for necessária para a cooperação jurídica internacional entre órgãos públicos de inteligência, de investigação e de persecução, de acordo com os instrumentos de direito internacional; iv) a transferência for necessária para a proteção da vida ou da incolumidade física do titular ou de terceiros; v) a autoridade nacional autorizar a transferência; vi) a transferência resultar em compromisso assumido em acordo de cooperação internacional; vii) a transferência for necessária para a execução de política pública ou atribuição legal do serviço público; viii) o titular tiver fornecido o seu consentimento específico e em destaque para a transferência, com informação prévia sobre o caráter internacional da operação, distinguindo, claramente, esta e outras finalidades; e ix) é necessária para atender às hipóteses previstas nos incisos II, V e VI do artigo 7º da LGPD. O artigo 34 está relacionado aos tópicos que devem ser levados em conta quando da definição de nível de proteção adequado de país estrangeiro ou organismo internacional13. O dispositivo 35 trata sobre a definição das CPCs e verificação de outras salvaguardas14, enquanto o artigo 36 apresenta observância aos princípios gerais de proteção e dos direitos do titular15. 2. A DIFERENÇA ENTRE TRANSFERÊNCIA INTERNACIONAL DE DADOS E O TRÂNSITO DE DADOS PESSOAIS Segundo Robert Bond, "'transferência" não é o mesmo que "trânsito" de informações16. Os dados pessoais podem passar pelo país B no caminho do país A para o país C, sem, no entanto, nenhuma operação de processamento substancial ocorrer neste caminho, já que a transferência é para o país C17. Por exemplo, no caso de uma empresa sediada na Alemanha enviar dados para uma empresa baseada nos Estados Unidos da América (EUA), mas, durante a transferência, os dados passarem pelo território uruguaio, sem, de fato, acontecer qualquer tratamento das informações no país. Casos como este servem de modelos para diferenciar "tranferência" e "trânsito", porque, na situação supramencionada, a operação internacional é realizada apenas entre a empresa alemã e a empresa norte-americana, sendo que os dados apenas transitaram no Uruguai18. Diante do fluxo internacional de dados, considera-se como "exportador" o agente de tratamento que transferirá os dados pessoais para um "importador", localizado em outro país. Considera-se como "importador" o agente de tratamento situado fora do território nacional, que receberá esses dados do "exportador". No exemplo acima, o "importador" seria a empresa norte-americana e o "exportador", a empresa alemã. 3. RESOLUÇÃO CD/ANPD Nº 19, DE 23 DE AGOSTO DE 2024  1. Publicada em 23 de agosto de 2024, a Resolução CD/ANPD Nº 19 aprova o Regulamento de Transfere^ncia Internacional de Dados e o conteu´do das cla´usulas-padra~o contratuais. As novas normas sobre o fluxo transfronteiriço de informações pessoais entram em vigor na data de sua publicac¸a~o, sendo assim, necessário que os agentes de tratamento se adequem às exigências sobre os procedimentos e regras aplicáveis a tais operações. 2. Em relação às cla´usulas contratuais para realizar transfere^ncias internacionais de dados devera~o incorporar as cla´usulas-padra~o contratuais aprovadas pela ANPD, existe o prazo de ate´ 12 (doze) meses, contados da data de publicac¸a~o da Resoluc¸a~o, para a adequação por parte dos agentes de tratamento. 3. A Resolução destaca os requisitos necessários para as operações que envolvam decisões de adequação, cláusulas contratuais específicas para determinada transferência, cláusulas-padrão contratuais e normas corporativas globais. Além disso, ressalta que é possível a realizac¸a~o de transfere^ncia internacional de dados com base nos mecanismos previstos no art. 33 da LGPD que na~o dependam de regulamentac¸a~o, desde que atendidas as  especificidades do caso concreto e os requisitos legais aplica´veis. 4. Destaca que a transfere^ncia internacional de dados pessoais deve ser realizada em conformidade com o disposto na LGPD e na Resolução, observadas as seguintes diretriz garantia de cumprimento dos princi´pios, dos direitos do titular e de ni´vel de protec¸a~o equivalente ao previsto na legislac¸a~o nacional, independentemente do pai´s onde estejam localizados os dados pessoais objeto da transfere^ncia. 5. Reitera a necessária a implementac¸a~o de medidas efetivas de transpare^ncia, assegurando o fornecimento de informac¸o~es claras, precisas e facilmente acessi´veis aos titulares. Além disso, a adoc¸a~o de boas pra´ticas e de medidas de prevenc¸a~o e seguranc¸a apropriadas e compati´veis com a natureza dos dados pessoais tratados, a finalidade do tratamento e os riscos envolvidos na operac¸a~o. 6. Defende que o fluxo internacional de informações deve estar limitado ao mi´nimo necessa´rio para o alcance de suas finalidades, com abrange^ncia dos dados pertinentes, proporcionais e na~o excessivos em relac¸a~o a`s finalidades do tratamento de dados. 7. Toda a operação somente será realizada para atender a propo´sitos legi´timos, especi´ficos, expli´citos e informados ao titular, sem possibilidade de tratamento posterior de forma incompati´vel com essas finalidades, e desde que amparada em uma das hipo´teses legais previstas no art. 7º ou no art. 11 da LGPD ou em um dos seguintes mecanismos va´lidos de realizac¸a~o da transfere^ncia internacional. 8. A aplicac¸a~o da legislac¸a~o nacional a` transfere^ncia internacional de dados independe do meio utilizado para sua realizac¸a~o, do pai´s de sede dos agentes de tratamento ou do pai´s onde estejam localizados os dados. 9. Estabelece que a LGPD é aplicável aos dados pessoais provenientes do exterior sempre que estes sejam objeto de tratamento no territo´rio nacional. A LGPD na~o se aplica aos dados pessoais provenientes do exterior somente quando ocorrer: a) tra^nsito de dados pessoais, sem a ocorre^ncia de comunicac¸a~o ou uso compartilhado de dados com agente de tratamento situado em territo´rio nacional; b) retorno dos dados pessoais, objeto de tratamento no territo´rio nacional, exclusivamente ao pai´s ou organismo internacional de provenie^ncia, desde que:o pai´s ou organismo internacional de provenie^ncia proporcione grau de protec¸a~o de dados pessoais adequado, reconhecido por decisa~o da ANPD; c) a legislac¸a~o do pai´s ou as normas aplica´veis ao organismo internacional de provenie^ncia se apliquem a` operac¸a~o realizada; d) a situac¸a~o especi´fica e excepcional de na~o aplicac¸a~o da LGPD. 10. Cabe ao controlador verificar se a operac¸a~o de tratamento:  a) caracteriza transfere^ncia internacional de dados;      b) submete-se a` legislac¸a~o nacional de protec¸a~o de dados pessoais; c) esta´ amparada em hipo´tese legal e em mecanismo de transfere^ncia internacional va´lidos. 11. A transfere^ncia internacional de dados sera´ caracterizada quando o exportador transferir dados pessoais para o importador. A coleta internacional de dados na~o caracteriza transfere^ncia internacional de dados e observara´ as disposic¸o~es da LGPD, quando verificada uma das hipo´teses indicadas no art. 3º da LGPD. 12. Quaisquer operações que envolvam aspecto transnacional devem respeitar os princípios de proteção de dados e salvaguardar os direitos dos titulares. A lei preve^ um conjunto de normas destinadas a garantir a higidez das operac¸o~es de transfere^ncia internacional19, estabelecendo que os países interessados neste tipo de transação devem oferecer garantias em mesmo grau que aquele oferecido pela LGPD. 13. O controlador ou o operador que deixem de adotar as medidas de segurança cabíveis respondem pelos danos decorrentes de violação da segurança dos dados. A LGPD imputa responsabilidade aos agentes de tratamento a definição sobre medidas técnicas, administrativas e de segurança, aptas a proteger os dados pessoais de acessos não autorizados e de situações acidentais, ou ilícitas, de destruição, perda, alteração, comunicação ou qualquer forma de tratamento inadequado ou ilícito20.  14. As CPCs aprovadas pela ANPD garantem que exportadores e importadores de dados apliquem as mesmas medidas técnicas e organizacionais, em termos de proteção de dados no Brasil. Dessa forma, garantindo a proteção dos direitos e liberdades dos titulares dos dados. 15. Em todos os casos de fluxo internacional de dados, deve-se realizar avaliação de todas as circunstâncias da transferência e deve-se considerar a adoção de medidas adicionais para garantir proteção suficiente aos titulares. 16. As cláusulas-modelo elaboradas pela autoridade brasileira, contém as obrigações das partes envolvidas na transferência e os direitos dos titulares dos dados a serem transferidos. Caso o controlador adote as CPCs sugeridas pela autoridade, vincular-se-á a todos os requisitos e as obrigações estipuladas no documento, podendo realizar a transferência dos dados pessoais sem a necessidade de anuência da ANPD ou dos respectivos titulares. CONSIDERAÇÕES FINAIS A Resolução CD/ANPD nº 19 integra os esforços para que o Brasil conte com um sistema robusto de definição, aprovação e fiscalização do fluxo transnacional de dados pessoais, garantindo a efetividade internacional do sistema de proteção brasileiro. Ao regulamentar o tema da transferência internacional de dados, a ANPD se posicionou no cenário internacional, defendendo o sistema de proteção de dados brasileiro. O estabelecimento de regras e procedimentos direcionados à garantia dos direitos dos titulares é fundamental para a eficácia da LGPD. A disponibilização de cláusulas-tipo auxilia os agentes de tratamento diante do cumprimento de seus deveres e justa proteção de direitos dos titulares, ainda que existam diferentes níveis legislações de proteção de dados ao redor do mundo. __________ 1 LIMA, Cíntia Rosa Pereira de. Autoridade Nacional de Proteção de Dados e a efetividade da Lei Geral de Proteção de Dados. São Paulo: Almedina, 2019. 2 FUNDAÇÃO GETULIO VARGAS (FGV). Guia de Proteção De Dados Pessoais: Transferência Internacional. São Paulo: FGV. 2020, p. 15. Disponível aqui. Acesso em: 10 fev. 2022. 3 BRASIL. Portaria nº 11, de 27 de janeiro de 2021. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2021. Disponível aqui. Acesso em: 25 jan. 2022.          4 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS (ANPD). Proposta de realização de Tomada de Subsídios para regulamentação de transferência internacional de dados pessoais, nos termos dos arts. 33 a 35 da Lei nº 13.709, de 14 de agosto de 2018. Brasília. 2021. Disponível aqui. Acesso em: 12 jun. 2022. 5 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS.  Resolução CD/ANPD nº 19, de 23 de agosto de 2024. Brasília. Disponível em: < RESOLUÇÃO CD/ANPD Nº 19, DE 23 DE AGOSTO DE 2024 - RESOLUÇÃO CD/ANPD Nº 19, DE 23 DE AGOSTO DE 2024 - DOU - Imprensa Nacional (in.gov.br)>, acessado em 29 de agosto de 2024. 6 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados (LGPD). Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022 7 DONEDA, Danilo . [et al.]. Tratado de Proteção de Dados Pessoais. Prefácio. Rio de Janeiro: Forense, 2021. 8 MENDES, Laura Schertel Ferreira. Habeas data e autodeterminação informativa: os dois lados da mesma moeda. Direitos Fundamentais & Justiça, Belo Horizonte, n. 39, jul./dez. 2018, p. 186. 9 MARQUES, Claudia Lima. Diálogo das Fontes: do conflito à coordenação de normas no direito brasileiro. São Paulo: Revista dos Tribunais. 2012, p. 23. 10 Carta de apoio à sanção da Lei de Proteção de Dados do Presidente do Brasilcon, Diógenes Carvalho, e da Ex-Presidente do Brasilcon, Cláudia Lima Marques, RDC 119, p. 517-520. 11 LEONARDI, Marcel. Transfere^ncia Internacional de Dados Pessoais. In: DONEDA, Danilo . [et al.]. Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021, p. 303. 12 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022. Art. 33. "A transferência internacional de dados pessoais somente é permitida nos seguintes casos: I - para países ou organismos internacionais que proporcionem grau de proteção de dados pessoais adequado ao previsto nesta Lei; II - quando o controlador oferecer e comprovar garantias de cumprimento dos princípios, dos direitos do titular e do regime de proteção de dados previstos nesta Lei, na forma de: a) cláusulas contratuais específicas para determinada transferência; b) cláusulas-padrão contratuais; c) normas corporativas globais; d) selos, certificados e códigos de conduta regularmente emitidos; III - quando a transferência for necessária para a cooperação jurídica internacional entre órgãos públicos de inteligência, de investigação e de persecução, de acordo com os instrumentos de direito internacional; IV - quando a transferência for necessária para a proteção da vida ou da incolumidade física do titular ou de terceiro; V - quando a autoridade nacional autorizar a transferência; VI - quando a transferência resultar em compromisso assumido em acordo de cooperação internacional; VII - quando a transferência for necessária para a execução de política pública ou atribuição legal do serviço público, sendo dada publicidade nos termos do inciso I do caput do art. 23 desta Lei; VIII - quando o titular tiver fornecido o seu consentimento específico e em destaque para a transferência, com informação prévia sobre o caráter internacional da operação, distinguindo claramente esta de outras finalidades; ou IX - quando necessário para atender as hipóteses previstas nos incisos II, V e VI do art. 7º desta Lei." 13 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022. Art. 34 da Lei Geral de Proteção de Dados. Art. 34. "O nível de proteção de dados do país estrangeiro ou do organismo internacional mencionado no inciso I do caput do art. 33 desta Lei será avaliado pela autoridade nacional, que levará em consideração: I - as normas gerais e setoriais da legislação em vigor no país de destino ou no organismo internacional; II - a natureza dos dados; III - a observância dos princípios gerais de proteção de dados pessoais e direitos dos titulares previstos nesta Lei; IV - a adoção de medidas de segurança previstas em regulamento; V - a existência de garantias judiciais e institucionais para o respeito aos direitos de proteção de dados pessoais; e VI - outras circunstâncias específicas relativas à transferência.". 14 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022. Art. 35 da Lei Geral de Proteção de Dados. Art. 35. "A definição do conteúdo de cláusulas-padrão contratuais, bem como a verificação de cláusulas contratuais específicas para uma determinada transferência, normas corporativas globais ou selos, certificados e códigos de conduta, a que se refere o inciso II do caput do art. 33 desta Lei, será realizada pela autoridade nacional. § 1º Para a verificação do disposto no caput deste artigo, deverão ser considerados os requisitos, as condições e as garantias mínimas para a transferência que observem os direitos, as garantias e os princípios desta Lei. § 2º Na análise de cláusulas contratuais, de documentos ou de normas corporativas globais submetidas à aprovação da autoridade nacional, poderão ser requeridas informações suplementares ou realizadas diligências de verificação quanto às operações de tratamento, quando necessário. § 3º A autoridade nacional poderá designar organismos de certificação para a realização do previsto no caput deste artigo, que permanecerão sob sua fiscalização nos termos definidos em regulamento. § 4º Os atos realizados por organismo de certificação poderão ser revistos pela autoridade nacional e, caso em desconformidade com esta Lei, submetidos a revisão ou anulados. § 5º As garantias suficientes de observância dos princípios gerais de proteção e dos direitos do titular referidas no caput deste artigo serão também analisadas de acordo com as medidas técnicas e organizacionais adotadas pelo operador, de acordo com o previsto nos §§ 1º e 2º do art. 46 desta Lei. 15 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022. Art. 36 da Lei Geral de Proteção de Dados. Art. 36. As alterações nas garantias apresentadas como suficientes de observância dos princípios gerais de proteção e dos direitos do titular referidas no inciso II do art. 33 desta Lei deverão ser comunicadas à autoridade nacional.". 16 BOND, Robert. International Transfers of Personal Data - an update. Business Law International. v. 5, n. 3, 2014, p. 424. De acordo com o autor, "'transfer' is not the same as 'transit'. Personal data may pass through country B on the way from country A to country C, but if no substantive processing operation takes place en route, the transfer is to country C.". 17 BOND, Robert. International Transfers of Personal Data - an update. Business Law International. v. 5, n. 3, 2014, p. 424. 18 INFORMATION COMMISSIONER'S OFFICE (ICO). Guide to the General Data Protection Regulation (GDPR). London: Information Commissioner's Office (ICO). 2021, p. 228. Disponível aqui. Acesso em: 3 jul. 2022. 19 CARVALHO, Angelo Gamba Prata de. Transfere^ncia internacional de dados na lei geral de protec¸a~o de dados - Forc¸a normativa e efetividade diante do cena´rio transnacional. In: FRAZA~O, Ana; TEPEDINO, Gustavo; OLIVA, Milena Donato (coord.). A Lei Geral de Protec¸a~o de Dados Pessoais e suas repercusso~es no direito brasileiro. Sa~o Paulo: Revista dos Tribunais. 2019, p. 623. 20 CENTRE FOR INFORMATION POLICY LEADERSHIP (CIPL); CENTRO DE DIREITO, INTERNET E SOCIEDADE DO INSTITUTO BRASILIENSE DE DIREITO PÚBLICO (CEDIS-IDP). O papel da Autoridade Nacional de Proteção de Dados Pessoais (ANPD) conforme a nova Lei Geral de Proteção de Dados Pessoais (LGPD). 2020, p. 7. Disponível aqui. Acesso em: 25 jan. 2022.
A certidão imobiliária é fruto da publicidade inerente aos registros públicos, seja para desencadear a eficacização dos direitos reais erga omnes, seja para garantir certeza e segurança jurídica às transações imobiliárias.1 Justamente por isso, os artigos 16 e 17 da Lei nº 6.015/1973 (Lei de Registros Públicos - LRP), impõem ao registrador a emissão de certidões e de informações quando solicitado, independentemente de motivação. Contudo, após o advento da LGPD, Lei nº 13.709/2018, ganhou força o discurso contra a publicidade registral e notarial de forma indistinta. Assim, tornou-se necessário ressignificar a publicidade registrária, elemento basilar dos direitos reais, e compatibilizá-la com os dispositivos de proteção e tratamento de dados pessoais e da privacidade, posto que, aparentemente, apontam em sentidos opostos, evidenciando a atualidade e a relevância do tema. Em outra ocasião, reforçamos a ideia de que a LGPD não trouxe no rol dos direitos dos titulares de dados previsto no art. 18 da lei o direito ao sigilo ou mitigação da publicidade.2 Muito embora, a proteção à privacidade (inc. I) e à intimidade (inc. IV) sejam alguns dos fundamentos do sistema de proteção de dados pessoais nos termos do art. 2º da LGPD, in verbis: Art. 2º A disciplina da proteção de dados pessoais tem como fundamentos: I - o respeito à privacidade; II - a autodeterminação informativa; III - a liberdade de expressão, de informação, de comunicação e de opinião; IV - a inviolabilidade da intimidade, da honra e da imagem; V - o desenvolvimento econômico e tecnológico e a inovação; VI - a livre iniciativa, a livre concorrência e a defesa do consumidor; e VII - os direitos humanos, o livre desenvolvimento da personalidade, a dignidade e o exercício da cidadania pelas pessoas naturais. Observe-se que tão importante quanto os fundamentos acima destacados, a LGPD traz no inciso V outro, qual seja: "o desenvolvimento econômico e tecnológico e a inovação". Neste sentido, deve-se compreender a importância da certidão imobiliária para o desenvolvimento econômico do país, pois é um instrumento imprescindível para a segurança dos negócios jurídicos imobiliários. Isto porque a inscrição de um título no assento imobiliário, seja em decorrência de ato de registro ou ato de averbação (artigo 167 da LRP), ocorre somente após a devida qualificação registrária, realizada à luz do sistema legal e normativo vigentes, uma vez que os atos desempenhados pelos delegatários no exercício da função fundamentam-se, preponderantemente, no regime jurídico de direito público, no qual vigora o princípio da legalidade estrita. Destaca-se que o princípio da legalidade está diretamente relacionado ao princípio da publicidade registrária, posto que não há como o registro ser público se não for conhecido e não há como ter oponibilidade erga omnes se o ato não estiver em consonância com os preceitos legais e não puder ser comprovado documentalmente.3 Logo, o registro lato sensu de um título gera presunção relativa de veracidade, prevalecendo a favor ou contra quem por ele for atingido, o que faz com que o efeito em face da coletividade decorra da publicidade da inscrição.4 As certidões, por sua vez, instrumentalizadas em papel de segurança ou de forma eletrônica, podem ser expedidas em inteiro teor (transcrição integral, ipsis litteris da matrícula); em breve relatório (informações essenciais e atuais do imóvel e dos titulares); por quesitos (respostas às indagações formuladas pela parte, embora se imponha a indicação das alterações posteriores ao ato cuja certidão é emitida, independentemente do pedido); ou ainda, expedidas em forma de certidão da situação jurídica atualizada do imóvel, nos termos do artigo 19 da LRP, com nova redação dada pela lei 14.382/2022. Importante consignar a existência da certidão eletrônica, em qualquer destas modalidades, e pode ser solicitada por intermédio do SERP (Registro Eletrônico dos Registros Públicos) e materializada por qualquer registrador, mediante o uso de assinatura avançada ou qualificada, assim como pode ser visualizada eletronicamente e impressa pelo próprio usuário, conforme artigo 17 da LRP, tratando-se de grande facilitador para propagação da publicidade dos assentos imobiliários.   Diante deste complexo contexto, um debate crucial é se definir se a emissão de certidão seria ou não compartilhamento de dados, o que nos parece que não, na medida em que se trata de uma atividade fim do Registro de Imóveis em virtude do que determina a lei e as normas regulamentadoras.5 Então qual seria o impacto da Lei Geral de Proteção de Dados às atividades de notas e de registros, uma vez que é aplicável por expressa determinação dos §§ 4ª e 5º do art. 23 da LGPD. Nesta coluna, foi objeto de análise a regulamentação da aplicação da LGPD às serventias extrajudiciais em âmbito federal, pois o Provimento n. 134/2022 do CNJ, já estabeleceu regras importantes sobre controlador, a necessidade de indicação do encarregado de dados, a exigência de políticas de boas práticas e governança, o mapeamento das atividades de tratamento e a definição de procedimentos para o cumprimento de medidas técnicas e administrativas, além de outros, demandando análise cuidadosa de seu escopo de incidência.6 Este provimento foi incorporado no Código Nacional de Normas do Foro Extrajudicial da Corregedoria Nacional de Justiça do Conselho Nacional de Justiça (Provimento nº 149/2023), notadamente quanto à identificação do requerente e a indicação de finalidade para emissão de certidão de registro lato sensu e prestação de informação (arts. 123 a 128). Na realidade, o citado artigo contém conceito aberto, qual seja, "finalidade do pedido", que possui conteúdo e valoração eminentemente subjetivos, de modo com que mais parece uma tentativa de adequação formal da privacidade e proteção de dados à atividade registrária do que, propriamente, uma via concreta de efetivação de tais direitos. Isso devido ao fato de que não se mostra razoável atribuir ao registrador emitir juízo de valor quanto à finalidade indicada pelo requerente: uma porque o conceito aberto de finalidade permite a pluralidade de interpretação entre as serventias e impede a adequada prestação do serviço público, em prejuízo ao usuário; outra porque acarreta mitigação da publicidade dos atos registrários, comprometendo toda a sistemática imobiliária, que se fundamenta no efeito erga omnes do registro. Por outro lado, a submissão de tal pedido ao Juízo competente mostra-se em dissonância com a exegese do artigo 18 da lei 6.015/73, do artigo 10, inciso IV e do artigo 13, inciso III da lei 8.935/947 e, ainda, pode causar potencial problema de ordem pública, uma vez que a grande demanda de pedidos no país ensejaria maior burocratização do serviço, tornando-o menos eficiente e célere, o que, nitidamente, não é o intuito.8 Nesse cenário, imputar ao requerente da certidão imobiliária a indicação da finalidade do pedido aparenta descabido, já que não tem o condão de evitar eventuais danos ao titular do direito real, porque após a emissão de tais documentos inexiste qualquer controle daquilo que será feito com os dados fornecidos. Por fim, há de se pontuar que a ética é, acima de tudo, produto cultural e não jurídico, de modo com que aquilo que será feito com os dados pessoais contidos em um assento imobiliário transcende o campo do direito, que não deve ser utilizado como ferramenta para mitigação da ampla publicidade inerente ao registro imobiliário, sob pena de ao se valer de normas protetivas de tratamento e de dados pessoais, acabar por comprometer a confiabilidade e a transparência do sistema registrário, mundialmente conhecido por sua segurança e eficácia. __________ 1 KÜMPEL, Vitor Frederico. Sistema de Transmissão da Propriedade Imobiliária sob a Ótica do Registro. São Paulo: YK, 2021. 2 LIMA, Cintia Rosa Pereira de; LIMA,  Marilia Ostini Ayello Alves de. Proteção de dados pessoais e publicidade registral: uma longa caminhada de um tema inesgotável. In: Migalhas de IA e Proteção de Dados. Disponível aqui, acesso em 22 de agosto de 2024. 3 ALMADA, Ana Paula P. L. Registro de imóveis. In: GENTIL, Alberto (Coord.). Registros públicos. 2. ed. Rio de Janeiro: Forense, 2021.p.363. 4 CARVALHO, Afranio de. Registro de imóveis. 3. ed. Rio de Janeiro: Forense, 1982, p. 163 e p. 194. Para o referido autor, o princípio da inscrição configura a versão contemporânea da tradição do direito romano, já que o direito real imobiliário decorre de dois elementos diferentes: o título, que consubstancia a vontade das partes e a inscrição, que transforma o direito obrigacional em direito real e possui efeito perante toda a coletividade. Dessa forma, a inscrição tem o mesmo papel da tradição do direito romano. 5 LIMA, Cintia Rosa Pereira de; LIMA,  Marilia Ostini Ayello Alves de. Proteção de dados pessoais e publicidade registral: uma longa caminhada de um tema inesgotável. In: Migalhas de IA e Proteção de Dados. Disponível aqui, acesso em 22 de agosto de 2024. 6 FALEIROS JÚNIOR, José Luiz de Moura; PERROTTA,  Maria Gabriela Venturoti. O provimento 134/22 do CNJ e a aplicação da LGPD aos serviços notariais e de registro. In: Migalhas de IA e Proteção de Dados. Disponível aqui, acesso em 22 de agosto de 2024. 7 KÜMPEL, Vitor Frederico. Tratado Notarial e Registral.São Paulo: YK Editora, 1ª Ed., 2020, vol.5, tomo I, p.550. 8 CHEZZI, Bernardo. Aplicação da LGPD ao registro de imóveis. In: GALHARDO, Flaviano;  PARO, João Pedro; NALINI, José Renato; BRANDELLI, Leonardo (Coords). Direito registral e novas tecnologias. Rio de Janeiro: Forense, 2021, p. 140. 
sexta-feira, 16 de agosto de 2024

A automação de documentos no Direito

A automação de documentos na área jurídica refere-se ao uso de tecnologia para criar, gerenciar e armazenar documentos legais de forma eficiente e precisa. Esta tecnologia utiliza softwares avançados e IA para preencher automaticamente formulários padrão com informações de casos específicos, reduzir o tempo gasto em tarefas repetitivas e mitigar erros humanos.1 Um dos objetivos é usar partes de textos entre os diversos documentos legais. Digamos, um "copia e cola" inteligentes.Além destas tarefas, a automação permite a padronização dos formatos de documentos, facilitando a busca e recuperação, o que é essencial em ambientes jurídicos dinâmicos e de alto volume de trabalho. Hipoteticamente, como em tudo na computação, com a implementação da automação, escritórios de advocacia e departamentos jurídicos podem dedicar mais tempo a tarefas estratégicas e ao atendimento aos clientes, melhorando a eficiência operacional e a qualidade dos serviços prestados.2 Contudo, a incorporação dessa tecnologia exige atenção à conformidade com regulamentos de proteção de dados e à manutenção da segurança e privacidade das informações, um aspecto crucial no cenário jurídico atual.3 Eficiência e Produtividade no Setor Jurídico A automação de documentos jurídicos tem se tornado uma necessidade crucial para aumentar a eficiência e produtividade em escritórios de advocacia e departamentos jurídicos no Brasil. Isso ocorre devido à capacidade das tecnologias de automação de melhorar significativamente a forma como os profissionais gerenciam e produzem documentos legais. Um dos principais benefícios da automação é a redução do tempo gasto em tarefas repetitivas. Ferramentas de automação permitem a criação de documentos padronizados a partir de modelos que podem ser preenchidos automaticamente com informações específicas de cada caso. Segundo Susskind3, a automação pode cortar o tempo de elaboração de documentos em até 80%, liberando tempo para os advogados se concentrarem em atividades mais estratégicas. Além disso, a automação melhora a precisão e consistência dos documentos, minimizando os erros humanos que são comuns em tarefas manuais de elaboração de documentos. Estudos, como os de Markoff4, mostram que erros em documentos jurídicos manuais podem levar a complicações legais e financeiras, enquanto a automação ajuda a garantir que todos os detalhes críticos sejam processados corretamente. No caso específico do Brasil, a carga de trabalho nos escritórios é geralmente elevada devido ao grande volume de litígios. Segundo Oliveira e Cunha5, a adoção de soluções tecnológicas no setor jurídico ajuda a aliviar essa carga, permitindo que os profissionais gerenciem casos de maneira mais eficiente e com menos estresse. Além das melhorias internas nos escritórios, a automação também tem um impacto positivo sobre os clientes. A utilização de tecnologias para agilizar processos pode resultar em custos mais baixos para os clientes, visto que as horas de trabalho advocatício necessárias são reduzidas.6 Além de tudo, a adequação às tecnologias de automação pode proporcionar uma vantagem competitiva significativa. Escritórios que adotam tais tecnologias frequentemente destacam-se no mercado por sua eficiência e capacidade de entregar resultados com maior rapidez e precisão.7 Impacto na Prática Jurídica e no Acesso à Justiça Uma das mudanças mais notáveis da automação de documentos é a democratização do acesso aos serviços jurídicos. Automação permite que pequenas empresas de advocacia e advogados autônomos ofereçam serviços de alta qualidade a preços mais acessíveis, ou seja, mais pessoas podem ter acesso a serviços jurídicos, ampliando a cobertura do sistema judicial.8 A automação também está influenciando a educação e formação jurídica. Com o aumento do uso dessas tecnologias, há uma necessidade crescente de que novos profissionais do direito sejam treinados em habilidades tecnológicas além do conhecimento jurídico tradicional. Muitas escolas de direito estão começando a incorporar cursos sobre tecnologia e automação em seus currículos para preparar seus alunos para essas mudanças.9 Outro aspecto relevante é a utilização de tecnologia para a resolução de disputas online (ODR - Online Dispute Resolution), que tem funcionado como um meio eficaz de resolver conflitos sem a necessidade de procedimentos judiciais complexos. Plataformas automatizadas de resolução de disputas podem auxiliar na redução da carga dos tribunais, tornando a justiça mais ágil e acessível, especialmente em áreas rurais ou menos desenvolvidas. Desafios Éticos e Regulatórios No entanto, a automação de documentos jurídicos não traz apenas avanços tecnológicos, mas também uma série de desafios éticos e regulatórios que precisam ser abordados para garantir sua implementação segura e eficaz no Brasil. Um dos principais desafios é a segurança e privacidade dos dados. Com a crescente digitalização de documentos e o uso de inteligência artificial, existe uma preocupação significativa quanto à proteção de informações confidenciais. A LGPD, estabelece diretrizes rigorosas para o tratamento de dados pessoais. Portanto, há a necessidade de garantir que as ferramentas de automação de documentos estejam em total conformidade com a LGPD, protegendo os dados pessoais dos clientes. Outro ponto crítico é a transparência dos algoritmos usados em ferramentas de automação. A falta de clareza sobre como essas tecnologias tomam decisões, principalmente aquelas que usam IA, pode levar a questões de responsabilidade e confiabilidade. A comunidade de Direito já trabalha para criar diretrizes claras para a explicabilidade dos algoritmos no campo jurídico, assegurando que os advogados entendam e possam confiar nas decisões assistidas por inteligência artificial.10 Adicionalmente, há preocupações sobre o impacto da automação na ética profissional e no emprego. A automação pode potencialmente reduzir a demanda por trabalho humano em tarefas rotineiras, levantando discussões sobre a necessidade de requalificação profissional. Embora a automação possa substituir algumas atividades, ela também pode criar novas oportunidades para advogados que se posicionam como especialistas em tecnologia legal.11 A adoção da automação de documentos na área do direito representa uma oportunidade transformadora para escritórios de advocacia e departamentos jurídicos em todo o Brasil. Ao incorporar esta tecnologia, os profissionais do direito não apenas têm a chance de aumantar a eficiência e precisão de suas operações, mas também podem dedicar mais tempo ao desenvolvimento de estratégias jurídicas inovadoras e ao atendimento personalizado de seus clientes. Além de reduzir custos operacionais e minimizar erros humanos, a automação permite que os serviços jurídicos sejam mais acessíveis, tornando a justiça mais equitativa e inclusiva. À medida que o setor jurídico se adapta às demandas do século XXI, aqueles que abraçam a automação estarão na vanguarda, oferecendo soluções mais rápidas, precisas e eficazes. Portanto, investir em automação não é apenas uma decisão estratégica inteligente, mas também um passo essencial rumo a um futuro jurídico mais moderno e eficiente. _________ 1 Casey, A. J., & Niblett, A. (2019). The Technology of the Law: The Automation of Legal Technology. Journal of Law and Technology. 2 Ashley, K. D. (2017). Artificial Intelligence and Legal Analytics: New Tools for Law Practice in the Digital Age. Cambridge University Press. 3 Susskind, R. (2017). Tomorrow's Lawyers: An Introduction to Your Future. Oxford University Press. 4 Markoff, J. (2020). Machines of Loving Grace: The Quest for Common Ground Between Humans and Robots. HarperCollins. 5 OLIVEIRA, Fabiana Luci de; CUNHA, Luciana Gross. Os indicadores sobre o Judiciário brasileiro: limitações, desafios eo uso da tecnologia. Revista direito GV, v. 16, n. 1, p. e1948, 2020. Disponível aqui. 6 FARIAS, Pedro Lima Gondim de. A advocacia na era digital: uma análise sobre possíveis impactos práticos e jurídicos das novas tecnologias na dinâmica da advocacia privada. 2020. UFRN. Disponível aqui. 7 TEIXEIRA, Fernando Gil. O Direito enquanto recurso indispensável às empresas e potenciador de vantagem competitiva. 2020. Dissertação de Mestrado. Universidade da Beira Interior (Portugal). 8 BRESCIA, Raymond H. et al. Embracing disruption: How technological change in the delivery of legal services can improve access to justice. Alb. L. Rev., v. 78, p. 553, 2014. 9 FORNASIER, Mateus de Oliveira. Legal education in the 21st century and the artificial intelligence. Revista Opinião Jurídica, v. 19, n. 31, p. 1-32, 2021. Disponível aqui. 10 FERRARI, Isabela. Accountability de Algoritmos: a falácia do acesso ao código e caminhos para uma explicabilidade efetiva. Inteligência Artificial: 3º Grupo de Pesquisa do ITS, ITS-Instituto de Tecnologia e Sociedade do Rio, 2018. 11 FORNASIER, Mateus de Oliveira. The impact of the introduction of artificial intelligence in advocacy: skills and professional ethics necessary for the future lawyer. Revista da Faculdade de Direito UFPR, Curitiba, v. 66, n. 2, p. 69-94, maio/ago. 2021. ISSN 2236-7284. Disponível aqui.
sexta-feira, 9 de agosto de 2024

Deep fake e propaganda eleitoral 2024

Atualmente, com o avanço frenético das plataformas tecnológicas de Inteligência Artificial, há, também, como já trabalhado em outras colunas neste Migalhas, preocupações nas discussões acerca dos impactos negativos e positivos consequentes do descompasso entre o desenvolvimento de IA e a dificuldade de regulação. Dentre os impactos negativos, as deep fakes têm se tornado alvo de análises e críticas, visto que são conteúdos de imagem e voz altamente realistas criados a partir de comandos de IA generativa, de modo a juntar inúmeras informações das redes neurais profundas. Desse modo, as deep fakes são ferramentas extremamente eficazes para as campanhas de desinformação em diversos âmbitos, principalmente para as eleições municipais que se avizinham, afetando o direito à informação aos sujeitos afetados, o princípio da transparência e a lisura da propaganda eleitoral. Já há inúmeros exemplos de deep fakes que vêm sendo utilizadas em larga escala, mesmo que haja proibição pela resolução 23.610/2019, com seu novo texto produzido pelo TSE na resolução 23.732/2024, quanto ao uso de deep fakes nas propagandas eleitorais e obrigação de aviso de utilização de IA quando esta for utilizada. Além disso, o atual Projeto de Lei 2.338/2023 tenta apresentar um arcabouço legislativo para regulamentar a IA, entretanto não apresenta formas de proteção efetiva dos usuários, não adere ao princípio de vulnerabilidade dos usuários e apresenta vaga definição das responsabilidades em termos de transparência. Vejam, a preocupação quanto a má utilização da tecnologia com fins de campanha eleitoral são mais do que válidas, o histórico não é dos melhores. De acordo com o calendário eleitoral de 2024, a propaganda eleitoral se inicia em 16 de agosto e se define, basicamente, com a divulgação de propostas dos candidatos e candidatas, seus currículos com intuito de captação de votos e convencimento dos eleitores. Com a utilização massiva das novas tecnologias com fins eleitorais, principalmente a partir de 2018 no Brasil, os números de propaganda eleitoral contendo desinformação cresceram vertiginosamente. Como exemplo, nas eleições de 2022, o TSE aplicou mais de R$ 940 mil em multas por uso de desinformação na internet, mesmo com toda a campanha realizada pelo Tribunal, com os canais de comunicação criados para denúncias, o momento adequado para divulgação de propostas é usado para divulgação de desinformação. O uso das deep fakes pelo TSE ocorreram devido ao amplo acesso a ferramentas como o ChatGPT, da OpenAI e o Gemini, da Google, por exemplo. É imprescindível ressaltar que a utilização de deep fakes em contextos eleitorais não é recente, desde 2018, como dissemos acima, este tipo de conteúdo pode ser constatado e, em sua grande maioria, usado com fins de sátira. Entretanto, não é permitido utilizar em campanhas eleitorais conteúdo fabricado ou manipulado que tenha como fim a desinformação, seja descontextualizando a realidade ou até mesmo criando fatos não verdadeiros. A nosso ver, essa é uma deliberação correta do TSE, pois deep fakes estão cada vez mais verossímeis e isso pode realmente causar prejuízos significativos ao equilíbrio das eleições ou à integridade de todo o processo eleitoral. Dessa forma, candidatos e candidatas, partidos políticos e/ou a federação partidária que se envolver na produção e disseminação desse tipo de conteúdo podem enfrentar a cassação do registro da candidatura ou do mandato, comprometendo assim a legitimidade da eleição. Além disso, tal conduta configura crime eleitoral, conforme previsto no art. 323 do Código Eleitoral (Lei n° 4737/65), resultando em pena de detenção que pode variar de 2 meses a 1 ano, além do pagamento de multa. A imposição dessas sanções é essencial para garantir um processo eleitoral justo e transparente, protegendo os eleitores de manipulações tecnológicas maliciosas. Todavia, há outra questão a ser considerada1: a padronização das decisões judiciais envolvendo deep fakes. Atualmente, não há uma legislação específica que delineie as condutas gerais para orientar essas decisões, como princípios e diretrizes, o que pode resultar em uma falta de uniformidade nos julgamentos. Além disso, há uma necessidade crescente de conhecimentos especializados em Techlaw por parte do Judiciário, o que gera outro desafio significativo. A natureza dinâmica da tecnologia, que se altera rapidamente à medida que avança, significa que as decisões judiciais podem não acompanhar a melhor interpretação jurídica. Essa lacuna pode levar a inconsistências e a uma aplicação inadequada da justiça em casos envolvendo deep fakes, prejudicando a proteção dos direitos dos cidadãos e a integridade do processo eleitoral. Como exemplo, poderíamos citar: Tábata Amaral (PSB) v. Ricardo Nunes (MDB) ocorrido no início de 2024, em contexto de pré candidatura à prefeitura da cidade de São Paulo. No vídeo, o rosto do prefeito Nunes aparece no corpo de Ryan Gosling atuando no filme Barbie com o trocadilho "Quem", ao invés de "Ken", sugerindo que o atual prefeito é desconhecido. O caso foi levado por Nunes ao TRE/SP e foi decidido que o vídeo não possui conteúdo vexatório, portanto não há como inferir que há ofensa à honra do prefeito e não há qualquer menção às eleições de 2024, portanto, não se configuraria abuso ou propaganda eleitoral antecipada. Pergunta: Como a Resolução nº 23.732/2024 estabelece quais conteúdos podem gerar ofensas à honra ou configuração de abuso de poder político? Não seria todo ou qualquer conteúdo manipulado ou criado que se incorreria em sanção? Outro caso: em São Pedro da Aldeia (RJ), um administrador de um perfil no Instagram publicou vários áudios simulando a voz do prefeito em uma conversa com teor sexual com seu assessor de gabinete. O caso foi judicializado e o perfil não foi excluído, apenas a liminar com pedido de remoção do conteúdo foi deferida, contudo, o perfil continuou publicando outros áudios manipulados (deep fakes) e, então, ocorreu a decisão para exclusão do perfil e a suspensão do acesso àquela conta no Instagram por 180 dias. Pergunta: quando e quais são os limites entre liberdade de expressão e censura em casos de deep fakes? Mais um caso: em Santa Rita (PB), foi publicado um vídeo criado a partir de deep fake, simulando a voz do atual do prefeito e pré candidato a reeleição Nilvan Ferreira (Republicanos), em que ele tece muitos elogios a seu adversário de pleito, o pré candidato Jackson Alvino (PSD), mas até o momento não encontramos a decisão do TRE/PB sobre o caso. Pergunta: E se a deep fake for produzida por um(a) eleitor(a), não filiado a nenhum partido político ou militante político partidário, como será aplicada a regra? As inteligências artificiais generativas são complexas e transparência, explicabilidade e opacidade são conceitos inerentes a essas tecnologias, como já citamos aqui neste Migalhas2, por isso, a educação dos operadores do direito é imprescindível para a análise envolvendo as novas tecnologias. Os exemplos citados ilustram claramente os desafios complexos que o uso de deep fakes apresenta ao sistema eleitoral brasileiro. A falta de padronização nas decisões judiciais, a necessidade de conhecimentos especializados em Techlaw e a rápida evolução da tecnologia são fatores que complicam ainda mais a situação. A Resolução nº 23.732/2024 do TSE é um passo importante, mas é evidente que é necessário um esforço contínuo para adaptar e fortalecer o arcabouço legal que rege o uso de tecnologias emergentes nas eleições. É crucial que as autoridades eleitorais, legisladores e a sociedade civil trabalhem juntos para garantir que a integridade do processo eleitoral seja protegida. A criação de mecanismos eficientes para detecção e enfrentamento de deep fakes, combinada com uma educação ampla sobre o tema para operadores do direito e eleitores, é essencial. Além disso, a implementação de canais de denúncia, como o número de telefone 1491, criado pelo TSE, representa uma iniciativa importante para envolver os cidadãos na identificação e reporte de conteúdos desinformativos. A interseção entre liberdade de expressão e a necessidade de proteger a honra e a integridade dos candidatos deve ser cuidadosamente equilibrada para evitar tanto a censura quanto o abuso de direito. No entanto, a prioridade deve ser a manutenção de um ambiente eleitoral justo e transparente. À medida que avançamos para as eleições municipais de 2024, a vigilância e a ação proativa serão fundamentais para garantir que a verdade nas campanhas eleitorais prevaleça e que os eleitores possam tomar decisões informadas, livres de manipulações tecnológicas manipuladas. __________ 1 Disponível aqui. 2 Disponível aqui.
Ataques cibernéticos são os acessos não autorizados ao sistema de informação para a prática de condutas ilícitas, tais como, roubo de identidade, transações eletrônicas indevidas, sequestros, frutos e etc. Um estudo de 2010 mostrou que um hacker pode se infiltrar em apenas uma das muitas unidades de controle eletrônico de um veículo para manipular o sistema crítico de segurança e controlar as funções, como desativar os freios, travar seletivamente as rodas e parar o motor, tudo isso usando apenas o Bluetooth e conexões celulares existentes.1 Estes ataques acontecem comumente diante de sistemas de compartilhamento de informações, ou seja, o compartilhamento de informações cibernéticas frequentemente usado para promover a disseminação da ciberinteligência seja entre os entes privados e entre estes e os entes públicos.2 Em virtude desta ameaça concreta, a regulamentação sobre carros autônomos deve enfrentar o tema exigindo que o fabricante ateste que o sistema utilizado no carro autônomo possui, por exemplo, recursos de auto diagnóstico, capazes de detectar e responder a ataques cibernéticos, intrusões não autorizadas, bem como um sistema de alerta ao operador do sistema operacional e ao motorista sobre estes ataques. Em outras palavras, o veículo deve alertar o operador de um ataque cibernético e permitir que os comandos do operador prevaleçam sobre os comandos gerados pelo hacker.3 Neste sentido, já ficou demonstrada a viabilidade destes ataques cibernéticos, com a possibilidade de falsificação de GPS, interferência e visão ofuscante, dentre outros, isto porque o sistema usado em carros autônomos funciona a partir de diversas conexões entre os sensores e outros sistemas como o Lidar da Google. Este contexto foi analisado por Jonathan Petit e Steven E. Shladover.4 É evidente que o sistema de automação terá acesso às informações pessoais do dono do veículo, como os locais, o horário, a rotina de sua vida cotidiana, se ele ou ela transporta outras pessoas no veículo, dentre outras. Portanto, o fabricante deve observar as regras legais para o tratamento de dados pessoais, no Brasil, reguladas pela LGPD e outras leis esparsas. Um dos pontos cruciais é a obtenção do consentimento, que é uma das bases de tratamento de dados pessoais conforme o art. 7o, inc. I da LGPD, como já tivemos oportunidade de analisar nesta coluna.5 Assim, ao adquirir um carro autônomo, o proprietário tem o direito de tomar ciência de maneira efetiva sobre a política de proteção de dados e privacidade, com a qual deverá concordar para poder utilizar as funcionalidades do sistema autônomo.6 Mas as bases de tratamento de dados não se resumem ao consentimento, o fabricante poderá realizar a coleta, o armazenamento, e todas as demais atividades descritas de maneira exemplificativa no art. 5o, inc. X da LGPD, sob o fundamento de uma ou mais bases legais para o tratamento de dados elencadas no art. 7o da LGPD, quais sejam: - cumprimento de obrigação legal ou regulatória (inc. II); - quando necessário para a execução do contrato (inc. V); - para o exercício regular de direito em processo judicial, administrativo ou arbitral (inc. VI); - para a proteção da vida ou da incolumidade física do titular ou de terceiro (inc. VII); ou - para atender aos interesses legítimos do fabricante (inc. IX). Por isso, as empresas devem ser claras sobre as medidas contra os ataques cibernéticos em suas políticas de privacidade e de proteção de dados, sob pena de responder por prática comercial abusiva como no caso conhecido como Federal Trade Commission - FTC v. Wyndham Worldwide Corp.7 Enfim, estes ataques cibernéticos devem ser combatidos pelas empresas de maneira eficiente, podendo ser um vício do produto que deve ser analisado com cautela, estando o responsável legal obrigado às consequências legais. Outro ponto sensível diz respeito aos limites éticos na programação dos carros autônomos, ou seja, escolhas diante de circunstâncias adversas como uma possível colisão do veículo. Sobre estes problemas e outras importantes questões envolvendo o desenvolvimento, testes e uso dos carros autônomos conferir a obra "Sistema de Responsabilidade Civil para Carros Autônomos", da Editora Foco. __________ 1 MARKOFF, John. Researchers Show How a Car's Electronics Can Be Taken Over Remotely. In: New York Times (09 de março de 2011). Disponível aqui, acessado em 20 de março de 2020. 2 NOLAN, Andrew. Cybersecurity and Information Sharing: Legal Challenges and Solutions. In: Congressional Research Service, de 13 de março de 2015. Disponível aqui, acessado em 10 de março de 2020. 3 CRANE, Daniel A.; LOGUE, Kyle D.; PILZ, Bryce C. A Survey of Legal Issues Arising From The Deployment of Autonomous and Connected Vehicles. In: Michigan Telecommunications and Technology Law Review, vol. 23, pp.  191 - 320 (2017). Disponível aqui, acessado em 10 de março de 2024. p. 222. 4 PETIT, Jonathan; SHLADOVER, Steven. Potential Cyberattacks on Automated Vehicles. In: IEEE Transactions on Intelligent Transportation Systems, vol. 16, (2015), pp. 546 - 557. Disponível aqui, acessado em 20 de março de 2024. P. 06: "An autonomous automated vehicle can perceive its environment using multiple sensors. Recent implementations use different combinations of components: ranging sensors (lidar, radar), GPS, and map for Stanford autonomous automated vehicle; stereo camera and laser for Oxford RobotCar; stereo cameras, 3-D lidar, radar, and GPS for Annie WAY's autonomous automated vehicle. However, future autonomous automated vehicles may integrate more components, and thus, we consider the following attack surfaces." 5 Sobre os termos e condições de uso, cf. DE LIMA, Cíntia Rosa Pereira. Políticas de proteção de dados e privacidade e o mito do consentimento. In: Migalhas de IA e Proteção de Dados. Disponível aqui, acessado em 31 de julho de 2024. 6 LIMA, Cíntia Rosa Pereira de. Sistema de Responsabilidade Civil para Carros Autônomos. Indaiatuba (SP): Foco, 2023. 7 Wyndham Worldwide Corp., 799 F.3d 236, 241 (3d Cir. 2015).
Introdução Os smart contracts ou "contratos inteligentes" foram idealizados por Nick Szabo1 em trabalhos apresentados na década de 1990, nos quais o autor defendia que a revolução tecnológica afetaria diversos institutos da sociedade, dentre eles a o campo negocial e do direito contratual, aumentando o número de técnicas utilizadas nos contratos tradicionais - da "era do papel" até sua eventual integração em smart contracts. Um dos principais objetivos dos smart contracts é minimizar os riscos de descumprimento contratual, acidental ou intencional, além de diminuir a necessidade de terceiros intermediários, tais como bancos, advogados, contadores, corretores etc., o que representa economia importante em custos de transação, bem como de cobrança judicial ou extrajudicial. 1 Os smart contracts Smart contracts podem ser definidos como contratos realizados por meio de um sistema computadorizado cuja formação e/ou execução ocorre de forma automatizada, sem intermediação de terceiros, quando preenchidos os requisitos preestabelecidos nos protocolos (algoritmos) do sistema2-3, assim, regido pelo princípio do code is law (código é a lei) na linguagem da programação. Szabo compara o instituto com as máquinas de venda automáticas (vending machines), cujo mecanismo funcionaria como portador do produtor e qualquer pessoa que realiza o pagamento conforme sinalizado recebe o produto de forma automatizada. Observe-se que a máquina que contém os produtos funciona como proteção contra terceiros, a fim de diminuir os riscos de descumprimento do contrato e, em certa medida, contra furtos. Considerando a arquitetura proposta, Eliza Mik4 destaca que a analogia dos smart contracts com as máquinas de venda automática levam à falsa suposição que a automação da transação, com a entrega do produto em resposta do pagamento, ou de certos aspectos do contrato transforma o mecanismo em um contrato inteligente ou torna a própria negociação smart. O que não é verdade. O funcionamento das vending machines inspiraram o ideal dos denominados contratos inteligentes, mas não se resume à automação. O que tornou "inteligente" um contrato para que possa ser caracterizado como smart contract foi a criação da tecnologia blockchain, em 2008, por pessoa ou grupo de pessoas autodominadas Satoshi Nakamoto,5 juntamente com a idealização da criptomoeda (moeda digital) bitcoin. Isto porque essa tecnologia possibilita que todos os seus integrantes verifiquem as cláusulas do contrato, o cumprimento das obrigações e o adimplemento ou inadimplemento contratual, com a execução automática na forma previamente colocada no algoritmo. O blockchain utiliza uma tecnologia descentralizada (DLTs, distributed ledgers technologies) que, por sua vez, pode ser definido como um livro-razão (ledger), ou ainda, um banco de dados potencialmente global que pode armazenar virtualmente qualquer tipo de informação, transações financeiras, registros imobiliários, votos, contratos, entre outras. A segurança dos dados é garantida pela criptografia dos dados por meio da tecnologia hash e do "carimbo de data-hora (timestamp)"6 contendo uma referência com o bloco anterior, evitando fraudes e ataques ao blockchain. Em termos simples o blockchain é um livro-razão criptografado, descentralizado e validado por pares que fornece publicidade, cronológica e com registro permanente das transações anteriores, o que a torna uma base de dados segura e incorruptível que permite a realização de transações entre pessoas desconhecidas, sem necessidade de confiança entre os envolvidos (trustless transactions), consequentemente sem a necessidade intermediários garantindo seus riscos. Inicialmente, a Bitcoin blockchain era estruturada para operar transações descentralizadas da criptomoeda. Somente em 2014, com a criação da Ethereum, foi adicionado ao blockchain outras funcionalidades para serem executadas de forma decentralizada na rede, função denominada de smart contracts, a qual permite a interação tanto com humanos quanto com outros smart contracts no mesmo blockchain, além de poder interagir com o mundo físico por meio de Oracles (oráculos). Nesse sentido, conforme ressalta Stephanie Trindade Cardoso, na evolução computacional tecnológica, os smart contracts possuem diversas finalidades no blockchain, desde a criação de tokens, criação de sistemas de votação eletrônicas até mesmo mecanismos de micropagamentos, não correspondendo necessariamente a contrato em sua concepção jurídica. Para que um smart contract possa ser compreendido no sentido jurídico, o programa deverá transcrever total ou parcialmente os termos de um contrato. 2 Natureza jurídica dos smart contracts Vale lembrar a definição técnico-jurídica de contratos, como espécie de negócio jurídico bilateral, pois envolve a manifestação de vontade de, no mínimo, duas pessoas. Portanto, Caio Mário da Silva Pereira7 reforça que "o contrato é um acordo de vontades, na conformidade da lei, e com a finalidade de adquirir, resguardar, transferir, conservar, modificar ou extinguir direitos". Contudo, os smart contracts correspondem a programas de computador, inseridos em um blockchain ou em tecnologia descentralizada similar, e não necessariamente se encaixam na definição acima transcrita de contratos propriamente ditos. É bem verdade que poderão conter conteúdo contratual transcrito total ou parcialmente em seu programa. Portanto, a primeira dificuldade é definir a natureza jurídica dos denominados smart contracts. Os contratos eletrônicos são gêneros que pode se ramificar em contratos informáticos, quando o objeto for um bem informático; ou contratos telemáticos, quando a formação dos contratos envolve o uso de sistemas telemáticos, como e-mail, whatsapp e etc.8 Cabe destacar, ainda, que o sistema jurídico nacional não inviabiliza a contratação eletrônica, pois, adotou como regra geral no art. 107 do Código Civil, o princípio da liberalidade de formas. O que difere os smart contracts dos demais contratos eletrônicos, não é sua autoexecutoriedade, que pode ser programada em outras formas eletrônicas de contrato, mas na natureza descentralizada do vínculo que se pretende estabelecer entre as partes. É desse aspecto que decorre a autoexecutoriedade do smart contract porque não existindo intermediários nas redes, os programas (smart contracts) com seus códigos inseridos na rede, rodarão de forma automatizada. O mesmo pode ser extraído da definição proposta pela Subcomissão de Direito Digital9 na discussão da reforma do Código Civil de 2002: São considerados contratos inteligentes (smart contracts) aqueles nos quais alguma ou todas as obrigações contratuais são definidas e/ou executadas automaticamente por meio de um programa de computador, utilizando uma sequência de registros eletrônicos de dados e garantindo a integridade e a precisão de sua ordenação cronológica. Da definição apresentada se extrai o reconhecimento da natureza jurídica de forma (ou instrumento) dos smart contracts, cujo contrato ou parte dele será convertido/traduzido de linguagem natural (tradicional) para linguagem de código, tendo sido utilizada pela doutrina a metodologia dos Ricardian contracts, desenvolvida por Ian Grigg10 nos anos 1990, com o uso de templates, inserindo o programa na tecnologia descentralizada a ser utilizada. 3 Aspectos da relação jurídica contratual nos smart contracts É inegável a aplicabilidade dos smart contracts no âmbito contratual, podendo o programa conter partes ou a totalidade de um contrato, típico ou atípico, desde que havendo a alteridade própria dos contratos, observados os requisitos mencionados no art. 104 do Código Civil, partes capazes e objeto lícito, possível e determinado ou determinável. Quanto à forma, em regra sendo livre, é possível que seja celebrado um contrato por meio eletrônico, desde que não se exija forma específica como venda e compra de imóveis acima de 30 salários mínimos que deve ser feita por escritura pública nos termos do art. 108 do Código Civil. Os smart legal contracts, inseridos no blockchain ou em tecnologia descentralizada similar, pela sua própria arquitetura (enforcement, observability, verifiability e privity) atende ao princípio da relatividade dos efeitos do contrato, produzindo efeito entre as partes, impedindo a intervenção de terceiros externos ao contrato (função externa do princípio da função social do contrato). A tecnologia descentralizada na qual se operam os smart legal contracts lhe possibilitam a característica de imutabilidade e intangibilidade, correlato ao princípio do pacta sunt servanda, sendo a autoexecutoriedade (self-enforcement) elemento útil para a gestão de risco contratual, como apontam Gustavo Tepedino e Rodrigo da Guia Silva, por possibilitar o cumprimento contratual e a aplicação de remédios ou sanções contratuais em caso de descumprimento, destacando os autores a possibilidade de "automação da oposição da exceção de contrato não cumprido", prevista no art. 476 do Código Civil. A utilidade da tecnologia e do instrumento "inteligente" de contrato não afasta as críticas a esta ferramenta contratual, pois pode apresentar riscos e restrições que lhe são próprias, como erros ou bugs do próprio código. O fato de não haver intervenção ou modificação humana não pressupõe que a programação dos smart contracts sejam perfeitas, restando à parte lesada buscar reparação posterior, tendo em vista a autoexecutoiedade, a única alternativa será a reparação civil com base na vedação do enriquecimento sem causa ou pagamento indevido. A inevitabilidade dos smart contracts também apresenta restrições nos casos de inadimplemento fortuito, nos termos do art. 393 do Código Civil, sem culpa das partes porque o programa não extingue o contrato com a ocorrência do evento fortuito ou de força maior, o mesmo ocorre nos casos de invalidade contratual, porque a tecnologia não permite que as partes retornem ao status quo ante, possibilitando apenas respostas reparatórias (ex post). A insegurança se estende no campo da revisão contratual, seja em âmbito de relações civis ou das relações de consumo, em especial a limitação ou mesmo impossibilidade de exercício do direito de arrependimento, o que deve ser vislumbrado pelo legislador, ou seja, a compatibilização dos smart contracts com os direitos assegurados aos consumidores. Além disso, os smart contracts desafiam os princípios sociais da boa-fé objetiva e da função social do contrato, pois são incompatíveis com inadimplemento positivo do contrato, por violação dos deveres anexos ou laterais da boa-fé, bem como os aspectos da função social, seja em relação a modulação de efeitos do contrato preterindo interesses individuais em prol de interesses sociais, de proteção dos vulneráveis, ou no aspecto de proteção do equilíbrio contratual. Isto porque estas situações envolvem análise casuística o que dificulta ou mesmo impossibilita este tipo de programação. A solução seria abranger previamente no código do smart contract o maior número de situações possíveis, mas a medida aumentaria os custos pré-contratuais, o que poderia inviabilizar esta ferramenta contratual ou até mesmo afastá-la de seu escopo original, que é a busca por maior segurança jurídica. Inclusive a conversão da linguagem natural, do contrato tradicional, em linguagem de código corresponde à outra limitação dos smart legal contracts porque não são todas as cláusulas contratuais de um contrato que são compatíveis com a automação; a polissemia das palavras conduziria a interpretação errônea do programa; a linguagem de código não é compatível com cláusulas gerais que contêm conceitos abstratos como "boa-fé", "razoabilidade" utilizados por algumas espécies contratuais. Tais restrições não impossibilitam o uso dos smart legal contracts, apenas conduzem a reflexão de soluções possíveis para adequá-lo ao ordenamento jurídico nacional. Dando destaque para inclusão do tema no corpo do Projeto de revisão e atualização do Código Civil apresenta progressão no caminhar do instituto, com a proposição de soluções como código kill switch, que permite reiniciar, parar ou interromper o smart legal contract, do reforço ao dever de informar a parte contratante das condições contratuais e dos riscos envolvidos. Nas relações de consumo destaca o Projeto de Lei n° 3.514/2015 cujo art. 45-E, I, estabelece a obrigação do fornecedor disponibilizar previamente o contrato eletrônico (do qual o smart contract pode ser espécie) em língua portuguesa e com linguagem acessível e de fácil visualização aos consumidores, bem como, no inciso IV a facilitação do exercício do direito de arrependimento por formulário ou link deste disponibilizado ao consumidor. Conclusão Os smart contracts se apresentam como um instrumento "inteligente" valioso de formação dos contratos, sendo uma realidade em âmbito internacional, com reflexos no âmbito nacional, a tecnologia apresenta utilidade promovendo maior celeridade e segurança às relações contratuais. As reflexões, restrições e limitações apontadas demonstram a necessidade do debate sobre o assunto, a fim de apresentar soluções viáveis para adequar o instrumento com as regras e princípios do ordenamento jurídico nacional, objetivando o uso da tecnologia sem preterir interesses sociais a interesses individuais. __________ 1 SZABO, Nick. Smart contracts. 1994. Disponível aqui, acessado em 24 de julho de 2024. 2 MOREIRA, Rodrigo. Investigação preliminar sobre a natureza e os critérios de interpretação dos smart contracts. Revista de Direitos e as Novas Tecnologias, vol. 2, n. 3, 2019. Disponível aqui, acessado em 24 de julho de 2024. 3 SZABO, Nick. Op. cit. 4 MIK, Eliza. Smart contracts: teminology, technical limitations and real world complexity. Disponível aqui. 5 Apud MOREIRA, Rodrigo. Op. cit., p. 20. 6 CARDOSO, Stephanie Trindade. Smart contracts: caracterização e aplicação no direito contratual brasileiro. Disponível aqui. 7 PEREIRA, Caio Mário da Silva. Instituições de direito civil: contratos. atual. colab. Caitlin Mulholland. 26. ed. Rio de Janeiro: Forense, 2024. 8 DE LUCCA, Newton. Aspectos Jurídicos da Contratação Informática e Telemática. São Paulo: Saraiva, 2003. LIMA, Cíntia Rosa Pereira de. Contratos de adesão eletrônicos (shrink-wrap e click-wrap) e os termos e condições de uso (browse-wrap). In: LIMA, Cíntia Rosa Pereira; NUNES, Lydia Nunes Bastos Teles (Org.). Estudos Avançados em Direito Digital. 1 ed. São Paulo: Campus Elsevier, 2014. 9 BRASIL. Senado Federal. Parecer n° 1, de 2024. Subcomissão de direito digital da Comissão de Juristas responsável pela revisão e atualização do Código Civil. Brasília, DF: Senado Federal, 2024. Disponível aqui. Acesso em: 30 maio 2024. 10 GRIGG, Ian. The ricardian contract. 2004. Disponível aqui, acesso em 25 de julho de 2024.
A Resolução CD/ANPD 18, de 16 de julho de 2024, define diretrizes essenciais sobre a atuação do encarregado pelo tratamento de dados, complementando as disposições da Lei Geral de Proteção de Dados Pessoais (LGPD)1. Como se sabe, o artigo 41 da LGPD define que o controlador deve indicar um encarregado, cuja identidade e informações de contato devem ser divulgadas publicamente, de forma clara e objetiva, preferencialmente no sítio eletrônico do controlador. Previsão similar consta do artigo 23, III, da LGPD, quanto aos agentes sujeitos ao regime de tratamento público de dados pessoais. Segundo João Victor Rozatti Longhi, "o que se pode ao menos destacar é que é obrigatória a indicação, pelo Poder Público, do encarregado de dados quando houver tratamento de dados, nos termos do art. 39 da Lei (a do citado art. 23, III, da LGPD), lembrando sempre que os relatórios de impacto à proteção de dados deverão ser solicitados pela ANPD aos que se encontram na exceção à proteção legal (art. 4º, inciso III, c/c o §3º, LGPD)"2. De modo geral, em linha com o conceito do artigo 5º, VIII, da LGPD, pode-se dizer que as atividades do encarregado incluem aceitar reclamações e comunicações dos titulares, receber comunicações da ANPD, orientar funcionários sobre práticas de proteção de dados e executar demais atribuições determinadas pelo controlador ou previstas em normas complementares3. O artigo 3º da resolução estabelece que a indicação do encarregado pelo tratamento de dados pessoais deve ser realizada por meio de um ato formal do agente de tratamento, sendo obrigatória ao controlador, mas facultativa ao operador, "considerada política de boas práticas de governança para fins do disposto no art. 52, § 1º, inciso IX, da Lei nº 13.709, de 14 de agosto de 2018, e no art. 13, inciso II, do anexo da Resolução CD/ANPD nº 4, de 24 de fevereiro de 20234, desde que observadas as normas deste Regulamento" (artigo 6º da resolução). Esse ato formal é definido como um documento escrito, datado e assinado que demonstra de maneira clara e inequívoca a intenção do agente de tratamento em designar uma pessoa natural ou jurídica como encarregado. Essa formalidade parece estar alinhada ao princípio da transparência (art. 6º, VI, LGPD), pois visa assegurar a clareza na designação da pessoa que atuará como ponto focal de interlocução com os interessados pelo resultado positivo da atividade de tratamento de dados pessoais, garantindo que suas funções e atividades sejam claramente delineadas. O § 1º do artigo 3º ainda especifica que o documento deve ser claro e inequívoco, reforçando a importância de uma comunicação transparente e precisa sobre a nomeação do encarregado. O § 2º prevê que esse documento deve estar disponível para apresentação à ANPD quando solicitado. No mais, o novo regulamento reforça a obrigatoriedade da nomeação de um encarregado para todas as entidades que realizam o tratamento de dados pessoais, ressalvados os agentes de tratamento de pequeno porte, aos quais se aplicam as disposições da Resolução CD/ANPD nº 2, de 27 de janeiro de 20225. Para estes, o § 3º adapta a exigência, dispensando-os de indicar um encarregado, mas exigindo que disponibilizem um canal de comunicação com os titulares de dados. Isso garante que, mesmo em situações de menor escala, os direitos dos titulares de dados sejam respeitados e atendidos. Já o artigo 5º da resolução estabelece a obrigatoriedade de que pessoas jurídicas de direito público indiquem um encarregado pelo tratamento de dados pessoais ao realizarem operações nesse contexto. A norma especifica que a indicação deve recair preferencialmente sobre servidores ou empregados públicos com reputação ilibada, garantindo transparência e responsabilidade ao processo. A publicação dessa indicação deve ocorrer no Diário Oficial correspondente à esfera de atuação da entidade, seja federal, estadual, distrital ou municipal. Os artigos 12, 13 e 14 da resolução tratam das condições para a assunção da função de encarregado pelo tratamento de dados, sendo inequívoco que pode ser tanto uma pessoa natural, interna ou externa à organização, quanto uma pessoa jurídica, proporcionando versatilidade na escolha do profissional ou entidade mais adequada às necessidades do controlador, mas sufragando o entendimento expressado no Enunciado 680 da IX Jornada de Direito Civil do CJF, segundo o qual seria admissível a indicação de ente despersonalizado.6 O art. 13 enfatiza a importância da comunicação clara e precisa em língua portuguesa com os titulares e a ANPD, garantindo acessibilidade e transparência. Por fim, o art. 14 elimina a exigência de inscrição em entidades ou certificações específicas, focando na competência prática do encarregado, o que facilita a nomeação e promove uma abordagem mais inclusiva e prática para a proteção de dados. Ademais, confirmando diversos entendimentos que já constavam de seu "Guia Orientativo para Definições dos Agentes de Tratamento de Dados Pessoais e do Encarregado", versão 2.0, a ANPD consolidou o entendimento de que as atribuições do encarregado incluem, mas não se limitam, a receber reclamações dos titulares, prestar esclarecimentos, adotar providências, orientar colaboradores sobre práticas de proteção de dados e outras atribuições estabelecidas pelo controlador ou previstas em normas complementares, sendo imprescindível indicar a identidade e as informações de contato do encarregado de forma clara e objetiva. A Seção II do Capítulo III da resolução (artigos 15, 16 e 17) é inteiramente dedicada às atividades e às atribuições do encarregado, e fica claro que, além das atribuições já definidas na LGPD, compete ao encarregado prestar assistência na elaboração de registros de incidentes de segurança, relatórios de impacto, medidas de segurança e políticas internas, além de auxiliar em transferências internacionais de dados e assegurar o cumprimento dos regulamentos da ANPD. Importante destacar que, ao realizar estas funções, o encarregado não é responsável diretamente perante a ANPD pela conformidade dos dados tratados pelo controlador, destacando-se como um facilitador e orientador para que o agente de tratamento atenda às exigências legais e normativas. Esse profissional deve ter conhecimento adequado sobre práticas de proteção de dados e segurança da informação. Por isso, a escolha de um encarregado qualificado é elemento-chave para a conformidade do controlador com a lei, pois seu indicado atuará como o ponto de contato com os titulares dos dados e a ANPD. Com efeito, o artigo 41, §2º, da LGPD já estabelece que uma das principais funções do encarregado é receber reclamações e comunicações dos titulares, bem como prestar esclarecimentos e adotar providências, o que se alinha com o princípio da responsabilização e prestação de contas (accountability), previsto no artigo 6º, X, da LGPD. Outro aspecto positivo é a ênfase no treinamento e conscientização dos funcionários. O encarregado deve promover programas que garantam que todos os colaboradores estejam cientes de suas responsabilidades e das melhores práticas de segurança. Isso é fundamental, pois a segurança da informação não depende apenas de tecnologias, mas também do comportamento humano. A resolução também aborda a necessidade de monitoramento contínuo e auditorias internas. O encarregado deve conduzir auditorias regulares para avaliar a conformidade com as políticas de proteção de dados e identificar possíveis falhas. Essa abordagem proativa é vital para prevenir incidentes de segurança e garantir a eficácia das medidas de proteção. Em caso de incidentes de segurança que comprometam dados pessoais, a resolução estabelece que o encarregado deve agir prontamente para mitigar os impactos, notificando o controlador, a ANPD e os titulares dos dados afetados. Essa exigência está em linha com o artigo 48 da LGPD7, que determina a comunicação de incidentes de segurança que possam acarretar risco ou dano relevante aos titulares. A interação contínua com a ANPD é outro ponto destacado. O encarregado deve manter uma comunicação aberta com a autoridade reguladora, reportando violações significativas e colaborando em investigações. Essa transparência é crucial para manter a confiança pública e assegurar que a proteção de dados pessoais seja levada a sério pelas organizações. Por fim, a resolução descreve as sanções para o descumprimento das diretrizes estabelecidas, que podem incluir multas e restrições operacionais, conforme previsto na LGPD. A responsabilidade do encarregado é garantir que todas as obrigações legais sejam cumpridas, evitando sanções que possam comprometer a reputação e a operação da entidade. Os artigos 18 a 21 da resolução abordam a questão do conflito de interesse no exercício das funções do encarregado pelo tratamento de dados pessoais. Esses dispositivos reforçam a necessidade de o encarregado atuar com ética, integridade e autonomia técnica, assegurando que suas atividades não sejam comprometidas por conflitos que possam macular a postura íntegra e isenta que é esperada. Assim, a resolução permite que o encarregado acumule funções e atue para mais de um agente de tratamento, desde que consiga atender plenamente às suas atribuições sem incorrer em conflitos. No mais, a identificação de conflitos de interesse pode ocorrer tanto internamente, em um único agente de tratamento, quanto entre agentes distintos, especialmente se o encarregado tiver influência sobre decisões estratégicas de tratamento de dados. Para garantir a transparência e a imparcialidade, o encarregado deve declarar qualquer situação que possa configurar conflito de interesse. A resolução também descreve o múnus assumido pelo agente de tratamento no sentido de evitar que o encarregado desempenhe funções que possam resultar em conflitos, exigindo que medidas sejam adotadas para mitigar esses riscos, como não designar a pessoa, implementar medidas de mitigação ou substituir o encarregado. Em último caso, na hipótese de um conflito de interesse ser verificado, o agente de tratamento pode enfrentar sanções conforme o artigo 52 da LGPD, enfatizando a importância de uma gestão cuidadosa e ética no tratamento de dados pessoais. Em conclusão, a Resolução CD/ANPD nº 18 de 16 de julho de 2024 é um avanço importante para a proteção de dados pessoais no Brasil, pois detalha a atuação de uma das mais importantes figuras relacionadas às atividades de tratamento de dados pessoais. A implementação dessas diretrizes é essencial para fortalecer a cultura de proteção de dados no país e garantir que os direitos dos titulares sejam respeitados, protegidos e efetivados. ________________ 1 BRASIL. Autoridade Nacional de Proteção de Dados. Resolução CD/ANPD nº 18, de 16 de julho de 2024. Aprova o Regulamento sobre a atuação do encarregado pelo tratamento de dados pessoais. Diário Oficial da União: seção 1, Brasília, DF, 17 jul. 2024. Disponível em: https://www.in.gov.br/en/web/dou/-/resolucao-cd/anpd-n-18-de-16-de-julho-de-2024-572632074 Acesso em: 18 jul. 2024. 2 LONGHI, João Victor Rozatti. Artigo 41. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Comentários à Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018). 2. ed. Indaiatuba: Foco, 2024, p. 395. 3 Para maiores detalhes sobre o tema, conferir, por todos, QUEIROZ, Renata Capriolli Zocatelli. Encarregado de proteção de dados pessoais - DPO: regulamentação e responsabilidade civil. São Paulo: Quartier Latin, 2022. 4 BRASIL. Autoridade Nacional de Proteção de Dados. Resolução CD/ANPD nº 4, de 24 de fevereiro de 2023. Aprova o Regulamento de Dosimetria e Aplicação de Sanções Administrativas. Diário Oficial da União: seção 1, Brasília, DF, 27 fev. 2023. Disponível em: https://www.in.gov.br/en/web/dou/-/resolucao-cd/anpd-n-4-de-24-de-fevereiro-de-2023-466146077 Acesso em: 18 jul. 2024. 5 BRASIL. Autoridade Nacional de Proteção de Dados. Resolução CD/ANPD nº 2, de 27 de janeiro de 2022. Aprova o Regulamento de aplicação da Lei nº 13.709, de 14 de agosto de 2018, Lei Geral de Proteção de Dados Pessoais (LGPD), para agentes de tratamento de pequeno porte. Diário Oficial da União: seção 1, Brasília, DF, 28 jan. 2022. Disponível em: https://www.gov.br/anpd/pt-br/documentos-e-publicacoes/regulamentacoes-da-anpd/resolucao-cd-anpd-no-2-de-27-de-janeiro-de-2022 Acesso em: 18 jul. 2024. 6 Enunciado 680/CJF - "A Lei Geral de Proteção de Dados Pessoais não exclui a possibilidade de nomeação pelo controlador de pessoa jurídica, ente despersonalizado ou de mais de uma pessoa natural para o exercício da função de encarregado pelo tratamento de dados pessoais" (Aprovado na IX Jornada de Direito Civil). 7 Cfr. BRASIL. Autoridade Nacional de Proteção de Dados. Resolução CD/ANPD nº 15, de 24 de abril de 2024. Aprova o Regulamento de Comunicação de Incidente de Segurança. Diário Oficial da União: seção 1, Brasília, DF, 25 abr. 2024. Disponível em: https://www.in.gov.br/en/web/dou/-/resolucao-cd/anpd-n-15-de-24-de-abril-de-2024-556243024 Acesso em: 18 jul. 2024.
Quando no verão de 1955, John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon compartilharam com o mundo a ideia de que qualquer aspecto da aprendizagem ou atividade humana poderiam ser descritos de forma precisa, permitindo que uma máquina fosse construída para simulá-la1, cunhando-lhe o termo "inteligência artificial" ("IA"), despertou-se na sociedade uma legítima expectativa - tão promissora quanto incerta. E, embora o termo continue a chamar atenção mais de meio século depois de seu primeiro uso, há controvérsias quanto a sua proposição. Isso porque além de não ser consistente fazer uma analogia entre a autonomia de robôs e a racionalidade humana - dotado de ética, moral e valores que refletem não apenas a personalidade individual, mas a compreensão coletiva da sociedade -, a própria intenção de associar o termo autonomia (lato sensu) à máquina pode não ser ideal, tendo em vista que, muitas vezes, o que se chama autonomia na verdade representa uma "variedade de combinações algorítmicas viabilizadas por um software"2. Portanto, trata-se muito mais de uma reprodução de certos tipos de comando do que, de fato, uma escolha, realizada de forma livre e consciente. As divergências terminológicas e conceituais quanto à IA refletem o fato de se tratar de um campo em aberto, com significativos avanços nas últimas décadas - especialmente em função do advento do deep learning3 -, mas que ainda está longe de suas potencialidades. Nesse sentido, Kai-Fu Lee4 defende que é possível explicar a evolução da IA a partir de "quatro ondas": (i) da internet, por exemplo, por meio do uso de algoritmos de IA que aprendem nossas preferências e passam a nos recomendar conteúdos; (ii) de negócios, como utilizado por bancos e seguradoras que realizam mineração de dados5; (iii) de percepção, por exemplo, o aumento do uso de sensores inteligentes; e (iv) de autonomia, referindo-se à união das três ondas anteriores, permitindo a fusão das capacidades otimização quanto aos grandes conjuntos de dados complexos e percepção sensorial do ambiente externo, por exemplo, os carros autônomos. Entretanto, o regulador precisa estar atento aos riscos que a IA apresenta. Um caso emblemático, julgado em julho de 2022, após o Departamento de Justiça dos Estados Unidos ter reconhecido o uso de critérios raciais, étnicos, religiosos, sexuais e de renda para definir anúncios de moradia para usuários do Facebook, atentando contra o Fair Housing Act (Lei de Habitação Justa).6 Outro caso que vale a pena ser mencionado é o escândalo envolvendo a Amazon após o preterimento de candidaturas de mulheres em detrimento a de homens por um sistema de IA para recrutamento, implicando em discriminação de gênero.7 Nota-se, ainda, o fato de influenciadores negros terem menor "entrega" e, portanto, engajamento de seus conteúdos em redes sociais8, diminuindo a possibilidade deles se tornarem influenciadores competitivos no mercado digital. Isso ocorre porque existem "vieses algorítmicos",9 termo cunhado para descrever as distorções e/ou injustiças resultantes das decisões automatizadas feitas por algoritmos de inteligência artificial10.  A evolução do conceito de viés algorítmico para o direito internacional tem sido gradual, mas significativa. Organizações internacionais, como a União Europeia e as Nações Unidas, têm reconhecido a importância de abordar vieses algorítmicos em suas políticas e diretrizes. Por exemplo, o Regulamento Geral de Proteção de Dados ("GDPR") da UE inclui disposições que abordam a transparência e responsabilidade no uso de algoritmos de IA que impactam os direitos e liberdades das pessoas11. Além disso, iniciativas globais, como a "Declaração de Montreal pelo Desenvolvimento Responsável da Inteligência Artificial" (2018)12, destacam a necessidade de garantir a equidade e a não discriminação em sistemas automatizados. No entanto, apesar do reconhecimento crescente, desafios persistem na aplicação efetiva do direito internacional para mitigar vieses algorítmicos, pois sua complexidade técnica e a falta de transparência em sua implementação continuam a ser obstáculos importantes. Confira aqui a íntegra do artigo.
1. Contexto  Quando o assunto são Big Techs, avanço de tecnologia e suas implicações no Direito, o tempo é um fator crucial. A ideia inicial deste artigo era outra, por óbvio, relacionava-se profundamente com o texto que aqui se apresenta, contudo, era diferente. A velocidade com que os fatos se desenrolam no vasto e intricado campo da TechLaw impõe aos operadores do direito uma dedicação incansável ao estudo e um cuidado meticuloso. O tempo, como um mestre severo e implacável, sempre a ensinar com rigor, nos obriga a reavaliar e a adaptar nossas perspectivas diante de cada nova inovação. Inicialmente, pensou-se em analisar os problemas da utilização de dados pessoais dos usuários pela Meta (Facebook, Messenger, Instagram, Threads e Whatsapp) para treinar sua IA generativa, a Llama 3, destacando a falta de transparência e a dificuldade do exercício assegurado ao titular de dados de se opor ao tratamento de dados pessoais como assegurado pelo § 2º do art. 18 da LGPD. Além disso, pensou-se em analisar a tormentosa questão envolvendo o uso de dados pessoais de crianças, adolescentes e de terceiros para esta prática. Entretanto, a Autoridade Nacional de Proteção de Dados (ANPD)1 foi instada pelo Instituto Brasileiro de Defesa do Consumidor (IDEC)2 a se manifestar sobre este tema, acarretando na suspensão deste tratamento de dados pela Meta de maneira cautelar. Desta forma, o presente, além destes pontos, irá analisar aspectos cruciais do voto nº 11/2024, proferido pela Diretora da ANPD, Miriam Wimmer. Este voto é paradigmático e elucida questões cruciais sobre a utilização de dados pessoais para o treinamento de IA fornecendo uma análise detalhada e robusta dos desafios, preocupações e das implicações dessa prática, demonstrando a importância de uma legislação como a LGPD para a efetiva proteção dos titulares de dados neste contexto. Para entender a problemática que ensejou o referido voto, importante fazer uma breve exposição de fatos decisivos. No dia 22 de maio de 2024, a Meta alterou sua política de proteção de dados e privacidade no mundo todo, a empresa iria utilizar todo conteúdo gerado por seus usuários em seus feed de notícias (Facebook e Instagram) como, por exemplo, textos, legendas de foto, reflexões, e etc. - ou seja - tudo que qualquer usuário publicasse nessas redes, incluindo fotos e vídeos, excetuando apenas mensagens privadas. Todas essas informações seriam utilizadas como base de treinamento para a Llama 3, a Inteligência Artificial generativa da Meta. Confira aqui a íntegra da coluna.
A ideia de inteligência artificial surgiu a partir do trabalho de Warren McCulloch e Walter Pitts, em 19431. Este trabalho foi estruturado em três premissas: conhecimento da fisiologia básica e função dos neurônios no cérebro; análise formal da lógica proposicional ("e", "ou", "não"); e a teoria da computação de Turing (que será descrita abaixo). O resultado foi a proposta de um modelo de neurônios artificiais capazes de responder a estímulos.2 A partir destes estudos, a expressão foi utilizada pela primeira vez por John McCarthy,3 considerado como o "pai" da Inteligência Artificial (IA ou Artificial Intelligence - AI). John McCarthy, professor assistente de matemática em Dartmouth College (Hanover, Nova Hampshire), juntamente com outros três pesquisadores: Marvin Minsky de Harvard, Nathan Rochester da IBM e Claude Shannon do Bell Telephone Laboratories, passaram a estudar as possibilidades da IA. McCarthy, um visionário à época, acreditava que um computador poderia simular muitos ou todas as funções cognitivas humanas avançadas, chegando a afirmar: "Every aspect of learning or any other feature of intelligence can be so precisely described that a machine can be made to simulate it."4 Assim como no mito de Pigmalião, no qual este personagem da mitologia grega cria uma estátua tão perfeita que se apaixona por ela e pede aos deuses que a tornem humana. Semelhantemente, McCarthy, tão entusiasmado com as possibilidades da aplicação da inteligência artificial, acabou passando a ideia de que estes sistemas podem parecer ter características humanas, como aprendizado, adaptação e até mesmo "personalidade". Há quem defenda que estes entes, por ficção jurídica, teriam personalidade como as pessoas jurídicas, e assim como estas teriam um representante legal.5 Todavia tal alegação não pode prosperar,6 na medida em que se deve questionar a conveniência e possibilidade de se atribuir à inteligência artificial personalidade jurídica. Para tanto tais funcionalidades devem demonstrar a capacidade de sentir e raciocinar como seres humanos singulares e não meramente "imitando seres humanos". Todavia, diante do atual desenvolvimento tecnológico não se pode chegar à tal conclusão, razão pela qual não seria possível atribuir personalidade jurídica às funcionalidades de IA.7 No âmbito da União Europeia, o Parlamento Europeu editou a Recomendação 2015/2103 (INL), de 16 de fevereiro de 20178, com recomendações à Comissão de Direito Civil sobre Robótica. Quanto à responsabilidade civil, o documento sugere a aplicação das modalidades de responsabilidade objetiva ou de gestão de riscos (art. 53),9 o que foi levado em consideração pelo Regulamento Europeu sobre Inteligência Artificial, conhecido como AI Act, objeto de análise em diversos textos desta coluna. A resolução recomenda, ainda, que a solução a ser adotada não minimize os danos causados pelo fato de não terem sido provocados por um agente humano, máxime sob a perspectiva da pessoa lesada (art. 52). Segundo o entendimento da Comissão, atualmente a responsabilidade deve ser imputada a um ser humano, não a um robô, aniquilando qualquer intenção de se atribuir ao robô personalidade jurídica para fins de responsabilidade civil. Todavia, em sendo o regime atual insuficiente para solucionar alguma controvérsia futura envolvendo o surgimento de uma IA mais complexa e autônoma, o regime de responsabilidade civil objetiva ou de gestão de riscos deverá considerar proporcionalmente o nível de autonomia da máquina e o tempo de aprendizado que lhe for proporcionado, ressalvado o machine learning (art. 56). O regime de responsabilidade objetiva ali proposto pode ser suportado pelo usuário/consumidor ou pelo produtor/fornecedor. No primeiro caso, imputa-se a responsabilidade pelo comportamento da IA à pessoa jurídica em nome de quem ela age, aplicando-se a ideia de IA como ferramenta, em um regime de responsabilidade similar a dos pais por danos causados por seus filhos, ou donos de animais, relativamente aos danos causados por estes. No segundo caso, o produtor ou fornecedor pode ser responsabilizado pelo fato do produto, ou seja, quando não adotar os cuidados necessários ou legalmente exigidos de segurança e de informação ao consumidor sobre os riscos da IA.10 No caso da abordagem pela gestão de riscos, a responsabilidade por danos provocados pela IA se justifica pelo ônus de prova extremamente gravoso que poderá recair ao consumidor em algumas hipóteses de responsabilidade pelo fato do produto, especialmente devido à autoaprendizagem da máquina.11 Daí a importância de se prever a inversão do ônus da prova como o faz o Projeto de Lei brasileiro n. 2.338 (§2º do art. 27 do PL n. 2.338). Por outro lado, a responsabilidade por gestão de riscos também pode ser fundamentada na teoria do deep-pocket, importada do direito estadunidense, segundo a qual o beneficiário possui o dever de compensar os danos causados por sua atividade lucrativa que gera riscos à sociedade. Neste sentido, o atual parágrafo único do art. 927 do Código Civil brasileiro, bem como o Código de Defesa do Consumidor parecem estar alinhados a tal concepção. O Projeto de Lei 2.338 de 202312 traz uma classificação de risco arts. 14 a 16 (sobre o risco excessivo) e arts. 17 e 18 (sobre alto risco), para determinar a responsabilização objetiva na primeira hipótese (§ 1º do art. 27) e responsabilização subjetiva com culpa presumida (§ 2º do art. 27), com previsão de inversão do ônus da prova. Deve-se atentar, é verdade, para o justificável chilling effect ("efeito de medo") provocado por tentativas de lege ferenda de responsabilização civil de agentes e empresas que trabalham na linha de desenvolvimento e produção de IA, independentemente de culpa. No entanto, o melhor caminho a ser seguido no plano legislativo brasileiro consiste na aplicação de uma tipologia múltipla e setorial de responsabilidade civil por danos causados por IA. Em outras palavras, deve-se considerar o tipo mais apropriado para cada IA em concreto. Do mesmo modo, o interesse de todos os atores no desenvolvimento tecnológico e otimização do bem-estar que pode ser promovido pelo avanço da IA exige uma solução equilibrada de repartição dos riscos entre desenvolvedores, fornecedores e consumidores desses mecanismos inteligentes, o que torna bastante pertinentes as iniciativas como a exigência de seguros e de certificação por parte dos usuários para manejo de alguns tipos mais complexos e sujeitos a riscos de IA. Em suma, toda e qualquer "idealização" da IA seja no sentido de que são ferramentas perfeitas e, portanto, não causarão risco algum; seja no sentido contrário, que pelo desconhecido a responsabilização tem que ser a mais gravosa possível, não são adequadas e vão na contramão do necessário desenvolvimento sustentável das tecnologias para a melhoria da qualidade de vida humana. Inteligência artificial não é perfeita e nem pretende sê-lo; assim como os seres humanos não são perfeitos como na reflexão feita por Ray Kurzweil:13 The idea stems from the realization that as software systems become more complex, like humans, they will never be perfect, and that eliminating all bugs is impossible. As humans, we use the same strategy: we don't expect to be perfect, but we usually try to recover from inevitable mistakes. __________ 1 McCULLOCH, Warren; PITTS, Walter. A Logical Calculus of Ideas Immanent in Nervous Activity. In: Bulletin of Mathematical Biophysics, vol. 5, no. 4 (1943), pp. 115-133. 2 RUSSELL, Stuart J.; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 3. ed. New Jersey: Prentice-Hall, 2010. pp. 17. 3 McCARTHY, John; MINSKY, M. L.; ROCHESTER, N.; SHANNON, C. E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. In: Stanford Edu, 1955. Disponível aqui, acessado em 20 de dezembro de 2019. 4 McCARTHY, John; MINSKY, M. L.; ROCHESTER, N.; SHANNON, C. E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. In: AI Magazine, vol. 27, número 4 (2006), pp. 12 - 15. p. 12. Disponível aqui, acessado em 20 de dezembro de 2019. 5 SOLUM, Lawrence B. Legal Personhood for Artificial Intelligences. In: North Carolina Law Review, vol. 70, n. 4, 1992, pp. 1.231 - 1.287. Disponível aqui, acessado em 17 de junho de 2024; KERR, Ian. Spirits in the material world: intelligent agents as intermediaries in electronic commerce. In: Dalhousie Law Journal, vol. 22, 1999, pp. 189 - 249. Disponível aqui, acessado em 17 de junho de 2024. 6 Em sentido contrário à personalidade jurídica dos sistemas de inteligência artificial: RUSSEL, Stuart; NORVIG, Peter. Op. cit., p. 1.036: "To our knowledge, no program has been granted legal status as an individual for the purposes of financial transactions; at present, it seems unreasonable to do so. Programs are also not considered to be "drivers" for the purposes of enforcing traffic regulations on real highways. In California law, at least, there do not seem to be any legal sanctions to prevent an automated vehicle from exceeding the speed limits, although the designer of the vehicle's control mechanism would be liable in the case of an accident." 7 LIMA, Cíntia Rosa Pereira de; OLIVEIRA, Cristina Godoy Bernardo de; RUIZ, Evandro Eduardo Seron. Inteligência Artificial e Personalidade Jurídica: Aspectos Controvertidos. In: BARBOSA, Mafalda Miranda [et alli] Direito Digital e Inteligência Artificial: diálogos entre Brasil e Europa. Indaiatuba: Foco, 2020. 8 UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica. Disponível aqui, acessado em 27 de junho de 2024. 9 53.  Considera que o futuro instrumento legislativo deverá basear-se numa avaliação aprofundada da Comissão que determine se a abordagem a aplicar deve ser a da responsabilidade objetiva ou a da gestão de riscos; 10 PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Heidelberg: Springer, 2013. p. 33. 11 CERKA, Paulius; GRIGIENE, Jurgita; SIRBIKYTE, Gintare. Liability for damages caused by Artificial Intelligence. Computer Law & Security Review, Elsevier, v. 31, n. 3, p. 376-389, jun. 2015. p. 386. 12 BRASIL. Senado Federal. Projeto de Lei n. 2.338 de 2023. Disponível em: , acessado em 27 de junho de 2024. 13 The Singularity Is Near: When Humans Transcend Biology. Nova York: Viking (Penguin Group), 2005. p. 191: "A ideia deriva da percepção de que, à medida que os sistemas de software se tornam mais complexos, como os humanos, eles nunca serão perfeitos e que é impossível eliminar todos os erros. Como seres humanos, usamos a mesma estratégia: não esperamos ser perfeitos, mas geralmente tentamos nos recuperar de erros inevitáveis." (tradução livre)
sexta-feira, 21 de junho de 2024

Dados pessoais e IA: problemas e soluções

A utilização de sistemas de inteligência artificial coloca especiais problemas em relação aos dados pessoais. Sendo os dados, em geral, e os dados pessoais, em particular, a matéria-prima que alimenta o software inteligente, garantindo a sua aprendizagem, não se podem ignorar os riscos que, neste horizonte, emergem. Entre tais riscos, e no tocante à ligação entre a IA e a utilização de dados pessoais, conta-se o risco de invasão à privacidade, pelo potencial intrusivo que o processamento de certos dados comporta, permitindo, em alguns casos, a sequenciação dos movimentos do titular daqueles ao longo de toda a sua vida; o risco de violação da igualdade, pelo perigo de discriminação que pode resultar da análise dos dados pessoais, tendo em conta as correlações estatísticas operadas pelos sistemas de inteligência artificial que, incapazes de aceder à dimensão semântica dos signos que mobilizam, podem gerar enviesamentos, e tendo em conta os próprios enviesamentos induzidos ao algoritmo; o risco de perturbação da liberdade, pelo fomento de fenômenos como o boxing, que tem expressão em termos comerciais e em termos políticos e ideológicos, abrindo-se as portas a formas de manipulação informativa, agravada pelas hipóteses de difusão de falsidades geradas pelos algoritmos generativos; o risco de perturbação da integridade psíquica do sujeito, como consequência de uma eventual manipulação emocional, resultante da criação de um espaço de interação pretensamente subjetiva que encerra o sujeito sobre si mesmo; o risco de violação da honra e do direito à identidade e verdade pessoal, pela produção de fake news e deep fake news a partir dos dados pessoais que são computados. A tudo isto acresce o potencial de distorção dos próprios resultados a que os sistemas, em geral, podem chegar, se e quando alimentados por dados de segunda geração (isto é, dados gerados por sistemas autónomos) corrompidos. Na verdade, tendo os algoritmos potencial para gerar novos dados a partir dos que foram inicialmente transmitidos, coloca-se o problema de saber se o fundamento que licitude do tratamento que deles seja feito é suficiente ou não para abarcar esta segunda geração de dados. Por outro lado, o modo de funcionamento da máquina, baseado no estabelecimento de correlações estatísticas - que estão muito longe de representar relações de causalidade -, pode estar na base de corrupção de dados que, posterior e sequencialmente, poderão ser utilizados como matéria prima para a aprendizagem algorítmica. Quer isto dizer que, para além do potencial de discriminação que os algoritmos encerram, eles exponenciam a possibilidade de se chegar a soluções erradas, eventualmente lesivas de direitos alheios, agravando-se, assim, um problema atinente aos vieses de programação que possam já existir. Acresce a tudo isto que nem sempre é fácil, atenta a autonomia e a opacidade dos sistemas, perceber quais os conjuntos de dados efetivamente utilizados na aprendizagem algorítmica. Num outro plano, as dificuldades comunicam-se à eventual concretização de uma pretensão indemnizatória. Na verdade, ainda que no tocante aos dados pessoais se parta, nos termos do artigo 82º RGPD, de uma presunção de culpa, esta poder ser facilmente ilidida pela prova do cumprimento de todas as regras decorrentes do regulamento. Lidando com sistemas autónomos, as lesões podem ser causadas pela corrupção de dados provocada pelo funcionamento algorítmico. E, nessa medida, as lesões deixam de poder ser imputadas ao controller, mesmo tendo em conta que ele pode responder pelos atos do processor, exceto se convocarmos, para fundamentar a responsabilidade, um regime diverso daquele que assenta no RGPD ou na disciplina privatística do Código Civil. É este um dos principais problemas da existência de dados de segunda geração que podem ou não ser dados pessoais, atenta a possível anonimização que deles venha a ser feita, a suscitar problemas atinentes não só à culpa como à causalidade. Mas o problema pode também ser causado com base nos dados de primeira geração: ou porque com base neles se podem criar deep fake news, ou porque podem conduzir a hipóteses de discriminação, ou porque podem gerar situações de manipulação (ideológica ou emocional), suscitando-se o problema de saber a quem pode ser imputada a lesão. Dir-se-ia, quanto à relação entre os dados pessoais usados ou gerados pela inteligência artificial e a responsabilidade civil, que as dificuldades são de dois tipos: em primeiro lugar, os dados que permitem o funcionamento da inteligência artificial podem sofrer uma corrupção, podendo não ser viável descobrir-se a sua origem ou não sendo o utilizador, distribuidor ou fabricante responsável por eles; em segundo lugar, os dados gerados pelo sistema autónomo, podendo eles próprios não ser fiáveis, podem resultar dos processos automáticos de autoaprendizagem. Os problemas em torno da proteção de dados pessoais parecem, contudo, agravar-se quando lidamos com algoritmos generativos, capazes de, por si próprios, a partir da análise de biliões de dados, gerar textos, obras de arte, responder a questionários, compreender e reproduzir imagens, gerar códigos de programação, etc. Em primeiro lugar, questionam os autores acerca da qualidade e atualização dos dados que são utilizados para os treinar, no âmbito de uma aprendizagem supervisionada. Na verdade, baseando-se a sua aprendizagem no deep learning, são utilizadas para os treinar técnicas de aprendizagem supervisionada e por reforço1, o que determina que os resultados possam ser mais fidedignos, mas, ao mesmo tempo, que os dados inseridos têm de ser constantemente atualizados. Por outro lado, servindo os dados utilizados para treinar o algoritmo para gerar respostas no que respeita aos mais diversos domínios e destinando-se o algoritmo generativo a ser integrado noutros sistemas de inteligência artificial (isto é, tratando-se de um sistema de inteligência artificial de finalidade geral), somos necessariamente confrontados com um problema de não pequena monta: qual a base jurídica que justifica a recolha em massa dos dados que são utilizados? Nos termos do artigo 6º RGPD, a licitude do tratamento fica dependente da existência do consentimento do seu titular ou, em alternativa, da verificação de uma das situações nele previstas: se o tratamento for necessário para a execução de um contrato no qual o titular dos dados é parte, ou para diligências pré-contratuais a pedido do titular dos dados; se o tratamento for necessário para o cumprimento de uma obrigação jurídica a que o responsável pelo tratamento esteja sujeito; se o tratamento for necessário para a defesa de interesses vitais do titular dos dados ou de outra pessoa singular; se o tratamento for necessário ao exercício de funções de interesse público ou ao exercício da autoridade pública de que está investido o responsável pelo tratamento; se o tratamento for necessário para efeito dos interesses legítimos prosseguidos pelo responsável pelo tratamento ou por terceiros, exceto se prevalecerem os interesses ou direitos e liberdades fundamentais do titular que exijam a proteção dos dados pessoais, em especial se o titular for uma criança. Por seu turno, tratando-se de categorias especiais de dados (dados que revelem a origem racial ou étnica, as opiniões políticas, as convicções religiosas ou filosóficas, a filiação sindical, dados genéticos, dados biométricos que identifiquem uma pessoa de forma inequívoca, dados relativos à saúde, dados relativos à vida sexual ou orientação sexual), as condições de licitude do tratamento tornam-se mais rigorosas. Ainda que o titular dos dados autorize, nos termos da relação firmada com a OpenIA para utilização do ChatGPT, o tratamento de dados, devendo o consentimento ser específico (isto é, orientado para as finalidades a que o responsável se propõe, nos termos dos artigos 12º e seguintes RGPD), sob pena de invalidade, e devendo o referido tratamento respeitar o princípio da limitação de finalidades, tornam-se percetíveis as dificuldades. Dito de outro modo, o consentimento deve ser prestado para um específico tratamento ao qual preside uma específica finalidade, o que está de acordo com o princípio da limitação das finalidades, nos termos do qual os dados pessoais são recolhidos para finalidades determinadas, explícitas e legítimas, não podendo ser tratados posteriormente de uma forma incompatível com as mesmas. Este princípio da limitação das finalidades é, contudo, mais amplo, não derramando a sua eficácia apenas no que toca à especificidade do consentimento. Na verdade, o referido princípio determina uma ligação incindível entre o fundamento que se invoca para o tratamento de dados e as concretas atividades que posteriormente podem ser legitimadas. Nos termos do artigo 13º/1 c) e do artigo 14º/1 c) RGPD, o responsável pelo tratamento de dados deve informar o titular dos dados acerca do fundamento desse tratamento, antes de ele iniciar e relativamente a uma finalidade específica. Admitem-se, é certo, tratamentos de dados posteriores, que não sejam considerados incompatíveis com as finalidades iniciais. Assim, os fins de arquivo de interesse público, os fins de investigação científica ou histórica e os fins estatísticos estão salvaguardados. A questão que se coloca é a de saber se o tratamento de dados posterior que seja feito, por exemplo, pela OpenIA ou por terceiros a quem sejam divulgados os dados - sejam estes dados originários ou dados gerados pelo algoritmo - é ou não compatível com este princípio. Além disso, os dados recolhidos devem ser adequados, pertinentes e limitados ao que é necessário relativamente às finalidades para as quais são tratados (princípio da minimização de dados). Assim, qualquer que seja o fundamento invocado, ele não legitima o tratamento de dados para além do que se revele essencial às finalidades invocadas. Há que estabelecer-se, portanto, um juízo ponderativo de exigibilidade no que respeita às diversas categorias de dados recolhidos. O problema com que lidamos, ao confrontarmo-nos com algoritmos generativos, é, porém, o de saber se este princípio pode ser cumprido atenta a falta de limitação de finalidades. Em causa pode estar, também, o princípio da exatidão. Os dados pessoais devem ser exatos e atualizados sempre que necessário, devendo-se adotar todas as medidas adequadas para que, em caso de inexatidão, sejam apagados ou retificados sem demora. Na verdade, nos termos do artigo 16º RGPD, o titular dos dados tem direito a obter, sem demora injustificada, do responsável pelo tratamento a retificação dos dados pessoais que lhe digam respeito e que sejam inexatos, ou que sejam completados os dados incompletos. O certo é que, por força da incapacidade de aceder a uma dimensão semântica, um sistema como o ChatGPT produz inúmeras vezes conteúdos que, podendo contender com dados pessoais, não são exatos. E ainda que haja direito a uma retificação, sendo esses dados transmitidos a terceiros que podem ser desconhecidos, coloca-se a questão de saber como pode ser operacionalizado o direito à retificação por parte do titular dos dados. Igualmente problemático pode ser o princípio da integridade e confidencialidade. Ausente do elenco de condições a que devem obedecer os dados pessoais de acordo com a lei 67/98, é explicitamente introduzido pelo RGPD, comunicando-nos que os referidos dados devem der tratados de uma forma que garanta a sua segurança, incluindo a proteção contra o seu tratamento não autorizado ou ilícito e contra a sua perda, destruição ou danificação acidental, adotando as medidas técnicas ou organizativas adequadas. Ora, há a possibilidade de os dados tratados por um sistema como o ChatGPT virem a ser expostos ou perdidos, faltando em muitos casos a transparência necessária para se compreender o processo. Parece, portanto, que os algoritmos generativos colocam, do ponto de vista normativo, muitas dificuldades no que respeita à compatibilização com a intencionalidade do RGPD. Além disso, se tivermos em conta que os princípios e deveres impostos pelo RGPD visam salvaguardar os titulares dos dados pessoais, mantendo-os incólumes nos direitos que, numa relação de interioridade constitutiva, subjazem ao direito à proteção de dados pessoais, haveremos de ter em conta que estes algoritmos generativos, como quaisquer outros, mas de forma incrementada, potenciam os riscos a que aludimos ab initio. Torna-se, por isso, fundamental ter em conta o Regulamento do Parlamento Europeu e do Conselho relativo à IA. A disciplina estabelecida pelo Regulamento estrutura-se em função de diversos níveis de risco, resultado da combinação da probabilidade de ocorrência de danos com a gravidade desses danos. Desde logo, há determinados sistemas que são considerados de risco inaceitável, sendo absolutamente proibidos. Por seu turno, os sistemas de IA de risco elevado são os sistemas destinados a ser usados como um componente de um produto ou os sistemas que sejam produtos e que estejam previstos no anexo I; os produtos cujo componente de segurança seja um sistema de IA ou os sistemas que sejam sujeitos a uma avaliação de conformidade por terceiros com vista à sua colocação em serviço, nos termos dos atos enumerados no anexo I; os sistemas constantes do anexo III, desde que cumpram as especificações previstas no regulamento. Este elenco não é fixo, podendo ser alargado ou diminuído, segundo os critérios do artigo 7º. Assim, um sistema de IA a que se refere o Anexo III não pode ser considerado de risco elevado se não representar um risco significativo de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares, nomeadamente se não influenciarem de forma significativa o resultado da tomada de decisões. Mas, os sistemas de IA a que se refere o anexo III devem ser sempre considerados de risco elevado nos casos em que executarem a definição de perfis de pessoas singulares. Prevê-se, ainda, que a qualquer momento a comissão possa atualizar a listagem do anexo III. Para tanto, é necessário que se preencham determinados requisitos: os sistemas de IA destinem-se a ser utilizados em qualquer um dos domínios enumerados no anexo III; e os sistemas de IA representem um risco de danos para a saúde e a segurança ou de repercussões negativas nos direitos fundamentais, e esse risco seja equivalente ou superior ao risco de danos ou repercussões negativas representado pelos sistemas de IA de risco elevado já referidos no anexo III, estabelecendo-se diversos critérios para o efeito. Para além do risco elevado, prevê-se a existência de sistemas de risco moderado e limitado. São, ademais, tratados de forma específica os sistemas de inteligência artificial de finalidade geral, isto é, aqueles que têm capacidade para servir para diversas finalidades, tanto para utilização direta, como para integração noutros sistemas de IA. Quanto a estes há que estabelecer uma linha divisória entre os que importam risco sistémico e os que não envolvem. Os primeiros são os que apresentam capacidades de alto impacto, avaliadas com base em ferramentas e metodologias técnicas apropriadas, incluindo indicadores e referências, ou que, com base em uma decisão da Comissão, ex officio ou após um alerta qualificado pelo painel científico, sejam vistos como modelos de IA que tenham capacidades ou impacto equivalentes àqueles. Esta linha divisória será fundamental para se determinarem os deveres que vinculam os prestadores destes modelos. Aos sistemas de risco elevado está associado um conjunto mais exigente de deveres: deveres de conceção e de desenvolvimento, assumindo particular importância, para o tema que tratamos, a obrigação resultante do artigo 10º, passando a exigir-se que os dados que sirvam para treino e aprendizagem da máquina cumpram diversos critérios de qualidade ali previstos; e deveres dos prestadores de serviços (os prestadores de sistemas de IA de risco elevado devem assegurar que os seus sistemas de IA de risco elevado cumpram os requisitos previstos no regulamento; indicar no sistema de IA de risco elevado ou, se tal não for possível, na embalagem ou na documentação que o acompanha, consoante o caso, o seu nome, o nome comercial registado ou a marca registada e o endereço no qual podem ser contactados; dispor de um sistema de gestão da qualidade que cumpra o disposto no artigo 17º; conservar a documentação nos termos do artigo 18º; quando tal esteja sob o seu controlo, manter os registos gerados automaticamente pelos sistemas de IA de risco elevado que disponibilizam, conforme previsto no artigo 19º; assegurar que o sistema de IA de risco elevado seja sujeito ao procedimento de avaliação da conformidade aplicável, tal como previsto no artigo 43º, antes da colocação no mercado ou da colocação em serviço; elaborar uma declaração UE de conformidade, nos termos do artigo 47º; apor a marcação CE no sistema de IA de risco elevado ou, se tal não for possível, na embalagem ou na documentação que o acompanha, para indicar a conformidade com o regulamento; respeitar as obrigações de registo a que se refere o artigo 49º; adotar as medidas corretivas necessárias e prestar as informações, tal como estabelecido no artigo 20º; mediante pedido fundamentado de uma autoridade nacional competente, demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos pelo regulamento); deveres dos responsáveis pela implantação (dever de adotar medidas técnicas e organizativas adequadas para garantir que utilizam esses sistemas de acordo com as instruções de utilização que os acompanham; dever de atribuir a supervisão humana a pessoas singulares que possuam as competências, a formação e a autoridade necessárias, bem como o apoio necessário; nas hipóteses em que exerça controlo sobre os dados de entrada, dever de assegurar que os dados de entrada sejam pertinentes e suficientemente representativos tendo em vista a finalidade prevista do sistema de IA de risco elevado; dever de controlar o funcionamento do sistema de IA de risco elevado com base nas instruções de utilização; dever de manter os registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo, por um período adequado à finalidade prevista do sistema de IA de risco elevado; dever de realizar uma avaliação de impacto sobre a proteção de dados; tratando-se de sistemas de risco elevado previstos no anexo III, que tomam decisões ou ajudam a tomar decisões relacionadas com pessoas singulares, dever de informar as pessoas singulares de que estão sujeitas à utilização do sistema de IA; dever de cooperar com as autoridades competentes em todas as medidas que essas autoridades tomarem em relação a um sistema de IA de risco elevado). Estabelecem-se, igualmente, especiais deveres de transparência relativamente a certos sistemas, nos termos do artigo 50º, bem como para os sistemas de finalidade geral, deveres esses que, neste último caso, divergirão consoante o sistema apresente risco sistémico ou não. Fundamental será, portanto, articular de forma compatibilizadora as regras resultantes do Regulamento IA com o regime instituído pelo RGPD. Os desafios, contudo, são muitos. E mais serão se pensarmos que uma eventual tutela ressarcitória não está ainda, sempre que se lide com a IA, totalmente assegurada, atentas as dificuldades que a esse nível se enfrentam. 1 Pedro Nunes, Um sistema de inteligência artificial nas bocas do mundo, Observatório Almedina, 2023.
A judicialização da saúde pública é um fenômeno cada vez mais presente em diversos países, incluindo o Brasil, caracterizado pelo aumento de demandas judiciais como meio para garantir o acesso a tratamentos médicos e medicamentos. Essa tendência reflete desafios significativos para o sistema de saúde, desde a alocação de recursos até a equidade no acesso aos serviços de saúde. No entanto, diante desses desafios, emergem oportunidades para explorar novas ferramentas e metodologias que possam contribuir para uma gestão mais eficiente e justa do sistema de saúde. Uma dessas ferramentas é a jurimetria, uma abordagem que emprega métodos estatísticos e analíticos para examinar dados legais e judiciais. Este resumo expandido visa explorar como a jurimetria pode ser aplicada para compreender melhor a judicialização da saúde e contribuir para soluções proativas. Analisaremos como essa metodologia pode ajudar na previsão de tendências, otimização de recursos e formulação de políticas públicas mais eficazes. Através da análise de dados e padrões em litígios de saúde, procuraremos identificar os principais desafios e oportunidades para melhorar a resposta do sistema de saúde às necessidades dos cidadãos, promovendo um acesso mais equitativo e sustentável à saúde pública. A jurimetria é uma abordagem que aplica métodos quantitativos e estatísticos ao direito, visando a análise de leis, decisões judiciais e padrões de comportamento legal. Essa prática é especialmente pertinente à tomada de decisões baseada em dados, uma vez que oferece uma base empírica sólida para entender tendências, prever resultados e otimizar estratégias jurídicas. Sua origem remonta ao artigo seminal de Lee Loevinger1, que a definia como a investigação científica de problemas jurídicos, e sempre foi analisada do ponto de vista conceitual, gerando distinção, originalmente, com a ideia de "cibernética jurídica"2 (ou justibernética) - mais ampla e, tecnicamente, mais apropriada para tais estudos -, a partir dos escritos de Mario G. Losano. Uma das vantagens da jurimetria é propiciar maior previsibilidade de decisões judiciais, pois permite analisar grandes volumes de decisões judiciais para identificar padrões e tendências. Isso pode ajudar advogados e clientes a preverem os resultados possíveis de seus casos com base em dados históricos, aumentando a precisão nas expectativas e estratégias. Além disso, contribui fortemente na análise de riscos, uma vez que, ao quantificar os riscos associados a diferentes estratégias legais, a jurimetria fornece uma ferramenta valiosa para gestores e advogados. Essa capacidade de quantificar riscos ajuda na tomada de decisões mais informadas e na escolha de abordagens que maximizem as chances de sucesso. Não se pode deixar de mencionar, também, seu valor para a otimização de recursos: com o uso de dados jurimétricos, é possível alocar recursos de forma mais eficiente3. Por exemplo, identificar quais tipos de casos têm maior probabilidade de serem resolvidos por acordo pode economizar tempo e recursos que seriam gastos em litígios prolongados. Na seara pública, o desenvolvimento de políticas públicas permite que governos e órgãos reguladores usem a jurimetria para entender o impacto das leis existentes e prever as consequências de novas legislações. Isso permite uma formulação de políticas mais fundamentada e eficaz. Por conseguinte, tem-se o fomento à inovação pela análise de dados jurídicos. Por exemplo, a criação de ferramentas automatizadas de compliance que ajudam sociedades empresárias a permanecerem em conformidade com as regulamentações vigentes. Na mesma toada, o incremento da transparência e da justiça pela utilização de dados estatísticos no direito também pode contribuir para uma maior transparência e justiça. Ao revelar tendências ocultas, como potenciais vieses em decisões judiciais, a jurimetria pode apoiar esforços para tornar o sistema jurídico mais equilibrado. Isso ainda conduz à personalização de serviços jurídicos, posto que, com o auxílio de análises detalhadas, é possível oferecer serviços mais personalizados e alinhados às necessidades específicas de cada cliente, baseando-se em insights derivados de dados4. A judicialização da saúde pública tem sido um tema recorrente no debate sobre a eficácia e a equidade dos sistemas de saúde. Este fenômeno, que se caracteriza pelo crescente recurso ao sistema judicial por cidadãos que buscam garantir o acesso a tratamentos e medicamentos frequentemente não disponíveis através dos canais regulares de saúde, apresenta diversos desafios. No entanto, a jurimetria, com sua capacidade de aplicar análises estatísticas ao direito, oferece oportunidades significativas para compreender e gerenciar melhor esta tendência5. Primeiramente, é importante entender que a judicialização pode refletir falhas sistêmicas na saúde pública, como a inadequação de políticas ou a insuficiência de recursos. A jurimetria permite uma análise detalhada dessas questões ao quantificar a frequência, os tipos e os resultados das ações judiciais relacionadas à saúde. Com esses dados, é possível identificar padrões e lacunas nas políticas de saúde, orientando reformas mais efetivas e baseadas em evidências. Por exemplo, se uma análise jurimétrica revela um alto número de litígios sobre um determinado medicamento ou tratamento, isso pode indicar a necessidade de revisão nos protocolos de disponibilidade e distribuição desses recursos. A análise dos sites do TRF2 e do CNJ sobre a judicialização da saúde revela dados e iniciativas relevantes que complementam a discussão sobre a utilização da jurimetria nesse contexto. O CNJ, por exemplo, aponta que entre 2015 e 2020, mais de 2,5 milhões de processos relacionados à saúde foram registrados, com destaque para questões como desabastecimento de medicamentos e falta de especialistas6. Esses dados, monitorados por painéis interativos disponibilizados pelo CNJ7, não apenas quantificam o problema, mas também fornecem insights para políticas judiciais e de saúde pública mais eficazes8. No Estado de Minas Gerais, a Secretaria de Saúde disponibiliza informações sobre a judicialização, destacando a colaboração entre o judiciário e a gestão de saúde para abordar essas questões proativamente, embora detalhes específicos sobre jurimetria não tenham sido encontrados durante a pesquisa9. Estas informações ressaltam a importância da jurimetria como ferramenta para analisar, prever e responder a tendências na judicialização da saúde, promovendo uma gestão mais informada e eficiente no acesso à saúde pública. Além disso, a jurimetria pode contribuir para uma alocação de recursos mais racional e justa. Ao identificar quais demandas são mais frequentemente submetidas ao judiciário, os gestores de saúde podem priorizar essas áreas, otimizando o uso de recursos limitados e reduzindo a necessidade de litígios. Isso não apenas melhora a eficiência do sistema de saúde como também garante uma resposta mais equitativa às necessidades dos pacientes. Outra oportunidade que a jurimetria oferece é a capacidade de prever tendências futuras na judicialização da saúde. Com modelos preditivos, é possível antecipar quais questões podem se tornar focos de litígio, permitindo aos formuladores de políticas e administradores de saúde intervir proativamente10. Isso pode incluir o aprimoramento de programas de saúde ou a alteração de regulamentações para abordar essas questões antes que elas se transformem em problemas judiciais. Ademais, a jurimetria ajuda a promover uma maior transparência e responsabilidade no sistema de saúde. Ao tornar públicas as estatísticas sobre a judicialização, os stakeholders são incentivados a dialogar e colaborar na busca por soluções. Isso pode fortalecer a confiança no sistema de saúde, promovendo uma maior cooperação entre os setores público e privado e entre os próprios usuários do sistema. Por fim, a jurimetria pode servir como uma ferramenta para a avaliação contínua da eficácia das políticas de saúde. Ao monitorar como as intervenções legais e políticas impactam a judicialização ao longo do tempo, pode-se ajustar as estratégias para melhor atender à população, garantindo um sistema de saúde mais resiliente e adaptativo. Portanto, embora a judicialização da saúde pública apresente desafios, a jurimetria oferece uma série de oportunidades para transformar este cenário. Ao utilizar dados e estatísticas para fundamentar decisões, é possível não apenas gerir mais eficientemente os recursos, mas também promover um sistema de saúde mais justo e acessível. À luz do que foi discutido, fica evidente que a jurimetria apresenta um potencial significativo para transformar a maneira como o fenômeno da judicialização da saúde é abordado e gerenciado. Ao empregar análises estatísticas e metodologias quantitativas, essa ferramenta não apenas proporciona uma visão mais profunda das tendências e padrões em litígios de saúde, mas também oferece um meio para antecipar desafios e otimizar a alocação de recursos dentro do sistema de saúde. A aplicação da jurimetria na saúde pública pode levar a uma gestão mais informada e estratégica, reduzindo a necessidade de intervenção judicial e melhorando o acesso a tratamentos essenciais. Além disso, ao identificar as causas raízes e os pontos críticos da judicialização, políticas públicas podem ser adaptadas para tratar essas questões de forma proativa, resultando em um sistema de saúde mais equitativo e eficiente. Portanto, enquanto a judicialização da saúde continua a ser um desafio, a jurimetria oferece uma abordagem promissora para enfrentar essa questão complexa. É crucial que gestores de saúde, formuladores de políticas e profissionais jurídicos explorem e integrem essa ferramenta em suas práticas, visando um futuro no qual o acesso à saúde seja garantido de maneira mais justa e eficaz para todos. __________ 1 LOEVINGER, Lee. Jurimetrics: The Next Step Forward. Minnesota Law Review, Minneapolis, v. 33, n. 5, p. 455-493, abr. 1949. 2 A crítica é de Losano: "È forse opportune, a questo punto, riservare la denominazione di giurimetria ad una fase storicamente ben delimitada della ricerca giuridica e tentare invece una classificazione che tenga conto delle esperienze compiute negli ultimi anni (...). Per l'intera disciplina propongo il nome 'giucibernetica'. Il modelo è evidente: 'giusnaturalismo', 'giuspositivismo' (e gli aggettivi 'giuspubblicistico', 'giusprivatistico' e 'giusfilosofico'). (...) I due termini sono quindi parimenti discutibili dal punto di vista del purismo filologico, ma almeno 'giuscibernetica' copre per intero il vasto campo di ricerche oggi in corso". LOSANO, Mario G. Giuscibernetica: macchine e modelli cibernetici nel Diritto.Turim: Eunaudi, 1969. p. 106-107. 3 NUNES, Marcelo Guedes. Jurimetria: como a estatística pode reinventar o direito. São Paulo: Revista dos Tribunais, 2016. 4 PROVOST, Foster; FAWCETT, Tom. Data Science for Business: What You Need to Know About Data Mining and Data-Analytic Thinking. Sebastopol: O'Reilly, 2013. 5 QAMAR, Usman; RAZA, Muhammad Summair. Data science concepts and techniques with applications. 2. ed. Cham: Springer, 2023. 6 TRIBUNAL REGIONAL FEDERAL DA 2ª REGIÃO. CNJ: Judicialização da saúde: pesquisa aponta demandas mais recorrentes. Disponível aqui. Acesso em: 30 abr. 2024. 7 CONSELHO NACIONAL DE JUSTIÇA. Dados processuais de saúde podem ser monitorados em painel do CNJ. Disponível aqui. Acesso em: 30 abr. 2024. 8 CONSELHO NACIONAL DE JUSTIÇA. Dados processuais de saúde podem ser monitorados em painel do CNJ. Disponível aqui. Acesso em: 30 abr. 2024. 9 MINAS GERAIS. Secretaria de Estado de Saúde de Minas Gerais. Judicialização. Disponível aqui. Acesso em: 30 abr. 2024. 10 QAMAR, Usman; RAZA, Muhammad Summair. Data science concepts and techniques with applications. 2. ed. Cham: Springer, 2023.
O cenário O avanço da IA na Educação é um fruto da convergência de três grandes fatores geradores: o fenômeno do Big Data; o fortalecimento dos mecanismos de aprendizado de máquina; e, mais recentemente, a criação de grandes modelos fundacionais (foundation models) que mudaram a forma de como os modelos de IA são construídos. A origem do termo Big Data é discutível, mas sem dúvida a humanidade presenciou seus efeitos a partir do início deste século com essa abundância de dados na rede, em grande parte, promovido pela abertura e facilidade de acesso à publicação de conteúdos promovidos pelas redes sociais. Hoje tudo está na web: livros, revistas, filmes, conteúdos científicos, didáticos, entre outros. Paralelamente, os sistemas de aprendizado de máquina (machine learning) que fundamentalmente são treinados sobre grandes volumes de dados para descobrir padrões foram bem aproveitados pela massiva quantidade de dados disponíveis e puderam revelar uma nova fase de aplicações da chamada Inteligência Artificial.1 Esses sistema de aprendizado de máquina, conhecendo esses padrões, são capazes de analisar um dado novo oferecido ao sistema e rotular esse dado de acordo com os padrões aprendidos. As redes neurais, as quais podemos rotular como uma outra maneira de aprendizado de máquina, baseada na mimetização do funcionamento dos neurônios, ampliaram a capacidade dos métodos de aprendizado. As redes de aprendizado profundo, as deep learning networks, proporcionaram a aplicação de tarefas ainda mais complexas, tais como o reconhecimento de voz e a visão computacional.2 Recentemente esses modelos de aprendizado de máquina trouxeram uma nova tecnologia que foi a tecnologia das redes transformers que, quando aplicadas a grandes quantidades de texto, por exemplo, podem gerar sequências de dados (palavras) relacionadas, formando assim frases, parágrafos e textos mais longos. Nascem assim esses grandes modelos de linguagem da qual, o ChatGPT é o exemplo mais popular atualmente. Atualmente, percebe-se uma área ampla de aplicações e utilidades para estes modelos de linguagem, aliado ao fato que estes modelos estão sendo implantados em grande escala e, muitas vezes, como uma solução final ao problema enfrentado. São ferramentas ótimas para, obviamente, geração de textos e textos contextualizados, sumarização de documentos, tradução de textos, para geração de códigos computacionais, chatbots, entre outras. É sempre bom lembrar que estes LLM (large language models) são modelos recentes que surgiram no final de 2021, que ainda estão em evolução. Portanto, não têm sua validade e confiabilidade atestada sistematicamente para a maioria das aplicações citadas. No entanto, percebe-se que esses modelos vieram para ficar e para se permearem na sociedade atual como um novo paradigma computacional, um novo ator digital, e que muitos desdobramentos destes modelos ainda virão abalar nossos meios de produção, de entretenimento e também poderão abalar o ambiente educacional, quer seja no gerenciamento administrativo, quer seja pela sua imposição em plataformas educacionais, a chamada plataformarização da educação.3 Consenso de Beijing O Brasil, como estado membro da Unesco, é signatário deste documento chamado Consenso de Beijing, que é o documento conclusivo da Conferência Internacional sobre Inteligência Artificial e Educação que ocorreu em maio de 2019, em Beijing, na China. Gostaria de salientar alguns pontos deste documento que oferecem suporte a um processo de utilização da IA na Educação mais estruturado e elaborado juntamente com os gestores, professores e técnicos que dominam o conhecimento deste tipo de inovação. Destaco aqui os seguintes pontos: O compromisso assumido pelos estados membro de estabelecerem políticas de integração entre IA e Educação para inovar no processo de ensino e aprendizagem e acelerar o fornecimento de sistemas de educação abertos e flexíveis que possibilitem oportunidades de aprendizagem ao longo da vida que sejam equitativas, relevantes e de qualidade; O entendimento que as tecnologias emergentes devem ser aproveitadas para fortalecer os sistemas educacionais, o acesso à educação para todos, a qualidade, o aprendizado eficaz, a equidade e uma prestação de serviços mais eficiente; Reconhecimento das características distintas da inteligência humana frente à chamada inteligência de máquinas; Desenvolvimento da IA deve ser controlado pelo homem e centrado nas pessoas; Que a implantação da IA deve estar a serviço das pessoas para melhorar as capacidades humanas; que a IA deve ser projetada de maneira ética, não discriminatória, equitativa, transparente e auditável; Ciência que os professores não podem ser substituídos por máquinas, e que a implantação da IA deve garantir que seus direitos e condições de trabalho estejam protegidos. Estágio atual das IAs generativas amplas É bom recordar que estas IAs generativas mais populares, tais como o ChatGPT da OpenAI, a Gemini do Google, a Llama da Meta, e o CoPilot da Microsoft, são criadas e treinadas sobre grandes volumes de dados, dados esses não divulgados, mas que se cogita ser, ao menos, todo o conteúdo textual disponível na web e todos os livros em formato digital. Obviamente é impossível fazer uma curadoria humana para incluir apenas as páginas e os documentos que realmente merecem a atenção de educadores. Outro ponto importante sobre o funcionamento destes modelos de linguagem é que eles não dão a mesma resposta à mesma pergunta formulada por duas pessoas distintas. Isso não significa que o conteúdo seja diferente, mas que a sequência e o estilo de geração textual sejam contextualizados pela maneira como a pergunta é formulada e pelo conhecimento da máquina sobre a sua interação com o usuário. Ainda cabe saber que essas máquinas fazem uso do chamado Aprendizado por Reforço, ou seja, seu conhecimento é modelado pela interação do usuário com a máquina, ou seja, ela aprende com tudo que é inserido pelo usuário na forma de texto. Dadas essas observações, já estão surgindo os primeiros modelos de linguagem ajustados para a Educação, ou seja, conteúdos de aprendizado curados por outras IAs e que aceitam apenas documentos tidos como "relevantes" e importantes para a área educacional fim. Em outras palavras, a IA passa a aprender sobre textos categorizados e específicos para a área, além do que, são feitos ajustes finos no sistema para que ele responda adequadamente às perguntas formuladas sobre o tema. Perspectivas regulatórias sobre o uso do ChatGPT na educação O Comitê de Políticas sobre Economia Digital (Committee on Digital Economy Policy - CDEP) apresentou, em 22 de maio de 2019, a Recomendação sobre Inteligência Artificial da Organização para a Cooperação e Desenvolvimento Econômico - OCDE,4 que foi aprovada nesta data por todos os membros. Trata-se de uma proposta essencialmente principiológica que estabelece algumas diretrizes para o desenvolvimento responsável de tecnologias de inteligência artificial confiáveis, orientando aos atores deste grande mercado a implementá-las. Estes princípios são: a) crescimento inclusivo, desenvolvimento sustentável e bem-estar, segundo o qual os envolvidos no projeto devem adotar ferramentas proativas que beneficiem o ser humano e o planeta; b) valores de justiça centrados no homem, ou seja, os agentes devem respeitar a dignidade humana, a democracia, os direitos humanos fundamentais, proteção de dados, igualdade e não discriminação por sexo, gênero, raça, etc., bem como desenvolver medidas de garantia de autodeterminação; c) transparência e clareza, ou seja, os stakeholders devem adotar ferramentas favoráveis ao pleno conhecimento das técnicas e dos objetivos da aplicação da inteligência artificial em seus serviços e produtos; d) robustez, segurança e proteção, deve-se atentar a todos os possíveis riscos em decorrência do uso da inteligência artificial, prevenindo sempre que possível, por isso, os agentes devem desenvolver constantemente uma análise dos riscos envolvidos em seu produto ou serviço que utilize inteligência artificial; e e) prestação de contas e responsabilização ("accountability"), os agentes devem ser responsabilizados pelos danos advindos do uso da inteligência artificial, levando-se em consideração suas funções, o contexto e o estado da arte. Um dos aspectos destacados nesta diretriz da OCDE é a necessária confiança que o sistema de IA deve ter. Para tanto, todos estes princípios devem ser observados. Assim, indaga-se seria a ferramenta ChatGPT atualmente confiável? Não, atualmente não se pode dizer que esta ferramenta é confiável na medida em que está em desenvolvimento para o seu aprimoramento. Ora, mas em razão disso deveria se proibir o uso desta ferramenta na educação? Acreditamos que não desde que atendidos alguns critérios, quais sejam: 1º) esta ferramenta deve estar centrada na pessoa humana, ou seja, justifica a sua utilização desde que seja para a melhoria da qualidade de vida da pessoa humana, como para otimizar algumas tarefas mais afetas à automação, como detecção de plágios, etc... Em nenhuma hipótese a IA deve substituir a pessoa humana, assim, não se pode imaginar a criação de todo o material didático por uma ferramenta como o ChatGPT, o que não significa que quando tal ferramenta estiver plenamente desenvolvida não possa ser usada para complementar o material didático. 2º) esta ferramenta deve observar os critérios de transparência, isto é, os sistemas de IA devem ser desenvolvidos e usados de uma forma que permite a rastreabilidade e explicabilidade adequadas, ao mesmo tempo em que conscientiza as pessoas humanas de que eles se comunicam ou interagem com um sistema de IA, bem como informa devidamente os implantadores das capacidades e limitações desse sistema de IA e das pessoas afetadas sobre seus direitos consoante o considerando 27 do AI Act da União Europeia. Observe-se que rastreabilidade e explicabilidade compõem a implementação da transparência, mas seriam sinônimos? A rastreabilidade viabiliza a reconstrução de todos os caminhos para a tomada de decisões pelas IAs generativas, como as bases de dados utilizadas e etc..., o que é crucial para detectar algum erro que precisa ser corrigido. A explicabilidade, por sua vez, indica os critérios adotados para determinadas tomadas de decisões, o que viabiliza detectar os chamados vieses algorítmicos. Entendemos que ambos os critérios devem andar juntos para que se possa atender aos requisitos esperados dos sistemas de IA. O art. 2º do Projeto de Lei n. 2.338 que pretende regulamentar o desenvolvimento e o uso da IA no Brasil destaca no inciso I a imperiosa centralidade na pessoa humana. E, o art. 3º deste mesmo projeto de lei, impõe a explicabilidade destes sistemas no inc. VI e a rastreabilidade no inciso IX. Assim, qualquer sistema que use IA deve observar estes critérios, notadamente quando aplicado em área tão importante e decisiva para o desenvolvimento da pessoa humana e da sociedade que é a educação. Conclusão O uso da IA na educação é inevitável, mas para que ele ocorra precisamos discutir diretrizes e planejar políticas de utilização destes novos meios que sejam adequados aos objetivos e princípios educacionais da sociedade. Além disso, a população precisa ter IAs adequadas aos diversos públicos atendidos e que sejam confiáveis e úteis para promover uma educação de qualidade e inclusiva ao longo da vida. __________ 1 RUIZ, Evandro Eduardo Seron. Limitações de uso do ChatGPT e outros modelos de linguagem no Direito. Disponível aqui, acessado em 06 de junho de 2024. 2 Sobre o funcionamento confira também: LIMA, Cíntia Rosa Pereira de; OLIVEIRA, Cristina Godoy Bernardo de; RUIZ, Evandro Eduardo Seron. O uso de Inteligência Artificial nas eleições 2024 - Parte I (Entendendo algumas ferramentas de Inteligência Artificial Generativa). Disponível aqui, acessado em 06 de junho de 2024. 3 Sobre o impacto destas ferramentas na advocacia: RUIZ, Evandro Eduardo Seron. Oportunidades e dificuldades das IAs (Inteligências Artificiais) generativas no Direito. Disponível aqui, acessado em 06 de junho de 2024. 4 The Recommendation on Artificial Intelligence (AI) - the first intergovernmental standard on AI, de 22 de maio de 2019. Disponível aqui, acessada em 06 de junho de 2024.
A partir de 10 de abril de 2018, os 24 Estados-Membros da União Europeia assinaram um termo de cooperação para tratar do tema durante o evento "Digital Day 2018"1. Em 25 de abril de 2018, a Comissão Europeia emitiu uma comunicação sobre inteligência artificial,2 em que sugeriu o avanço na capacidade tecnológica e industrial da União Europeia em prol da IA, o preparo para as mudanças socioeconômicas que viriam em decorrência da IA e um marco regulatório eficaz baseado nos valores democráticos e proteção dos direitos fundamentais para garantir um desenvolvimento ético da IA. Ao final, a Comissão Europeia solicitou que os Estados-Membros coordenassem em seus respectivos países planos estratégicos para a implementação da IA até o final de 2018. Nesta ocasião foi criado um grupo de 52 peritos de alto nível em inteligência artificial (High Level Expert Group on Artificial Intelligence - AI HLEG), cuja composição era multissetorial, pois congregava pesquisadores, acadêmicos, representantes da indústria e da sociedade civil. Além deste grupo, foi criada a "Aliança Europeia para a IA" ("European AI Alliance"),3 que estimulava a participação democrática, como audiências públicas, sobre diversos temas relacionados à inteligência artificial. Em 18 de dezembro de 2018, o grupo AI HLEG submeteu à consulta pública o primeiro esboço das "Diretrizes Éticas para a Fiabilidade da Inteligência Artificial".4 Após intensos e interessantes debates, o grupo apresentou a versão final em 08 de abril de 2019, quando foi apresentado o documento final "Ethics Guidelines for Trustworthy AI".5 Este documento apresenta quatro princípios éticos para a inteligência artificial, quais sejam: a) respeito à autodeterminação do ser humano ("the principle of respecto for human autonomy"), ou seja, toda tecnologia IA deve respeita os direitos e garantias fundamentais, bem como a democracia; b) preveção de danos ("the principle of prevention of harm"), deve-se adotar medidas robustas e eficazes a fim de se evitar danos aos seres humanos; c) justiça ("the principle of fairness"), isto é, assegurar uma distribuição equitativa dos lucros e dos custos, bem como eliminar qualquer tipo de preconceito (unfair bias), seja por motivo de gênero, raça, crença religiosa e etc.; e d) transparência e clareza ("the principle of explicability"), ou seja, os sistemas de IA devem ser claros e compreensível aos seres humanos que irão operacionar tais sistemas. Ademais, foram apresentados alguns requisitos exemplificativos para a fiabilidade da IA, que compreendem aspectos individuais e sociais de maneira sistêmica, a saber: a) assistência e supervisão humana; b) robutez técnica e segurança; c) privacidade e proteção de dados pessoais; d) transparência; e) diversidade, não discriminação e justiça; f) bem-estar social e ambiental; e g) prestação de contas e responsabilidade. Portanto, a União Europeia, atenta ao crescente uso da IA nas mais diversas áreas, estabeleceu um plano coordenado de medidas para a implementação da inteligência artificial em 07 de dezembro de 2018,6 encorajando que os Estados-Membros elaborem os respectivos planos nacionais para IA até meados de 2019. Posteriormente, em 19 de fevereiro de 2020, a Comissão Europeia colocou em consulta até 19 de maio de 2020, o relatório "White Paper on Artificial Intelligence: an European approach to excellence and trust"7. Este relatório reforçou as Diretrizes Éticas acima mencionadas e destacou a necessária regulação sobre a responsabilidade civil em decorrência de danos causados por produtos e serviços que utilizem inteligência artificial. Para tanto, ressaltou-se a necessária revisão da "Product Liability Directive", Dir. 85/374/EEC, de julho de 1985, que disciplina a responsabilidade civil pelo fato do produto e pelos vícios do produto, e que ainda segue em debates.8 Consoante esta diretiva, o fornecedor é responsável por danos causados em virtude do fato do produto; entretanto, em tecnologias de inteligência artificial, como os carros autônomos, é difícil provar que os danos foram causados em virtude de um defeito de programação, por exemplo. Neste sentido, a Comissão Europeia sinalizou a necessidade de uma regulamentação específica para este setor e a consequente adequação do Direito interno de cada Estado-Membro. Naquela mesma data, em 19 de fevereiro de 2020, a Comissão Europeia aprovou um plano estratégico para os dados ("European Strategy for Data"),9 levando em consideração o volume de informações que trafegam na sociedade informacional, de 33 zettabytes (em 2018) para 175 zettabytes (projetado para 2025) na era do Big Data, tal preocupação justifica-se na medida em que o aprendizado de máquina é viabilizado em razão deste algo volume de dados. Este documento destaca a necessária cooperação internacional sobre a matéria para o enforcement das medidas regulatórias neste setor dada a circulação transfronteiriça de dados. Neste sentido, todos os países precisam estar atentos a estas medidas para sua inserção no capitalismo informacional. Mesmo quando impulsionados pelo aprendizado de máquina, os algoritmos continuam sendo falíveis e altamente suscetíveis a erros de representação e assimilação. Devido à natureza puramente matemática com que processam dados, esses erros destacam o desafio de conciliar a responsabilidade ética e jurídica com essa nova realidade, mesmo que de forma prospectiva. Nos Estados Unidos da América, foi apresentado, em 12 de dezembro de 2017, o "Fundamentally Understanding the Usability and Realistic Evolution of Artificial Intelligence Act", ou apenas "Future of AI Act"10, que é bastante apegado à correlação entre o conceito de IA e o funcionamento do cérebro humano, denotando proximidade conceitual com a ideia de "singularidade tecnológica". Tal documento indica, ainda, diretrizes éticas para o fomento ao desenvolvimento algorítmico, mas não aborda a área da saúde de forma direta. Alguns documentos mais recentes, como o Artificial Intelligence Act (AI Act) europeu aprovado em 202411, e o Algorithmic Accountability Act norte-americano de 202212 (2022 US AAA), que atualizou a versão anterior, de 201913, evitam a discussão terminológica sobre o alcance semântico do termo "inteligência", preferindo se reportar a "sistemas decisionais automatizados"14 (Automated Decision Systems, ou ADS's) para se referir à utilização de sistemas de IA em geral e reafirmar a importância da estruturação de parâmetros éticos para o desenvolvimento de algoritmos. Os documentos mencionados têm qualidades que podem ser mutuamente inspiradoras, destacando a importância da correta assimilação semântica (entre outros tópicos) para o avanço das discussões, inclusive em nível global.15 No Brasil, várias iniciativas legislativas, como os Projetos de Lei nº 5051/2019, nº 21/2020 e nº 872/2021, buscaram regulamentar o tema de forma geral. No entanto, essas propostas não eram extensas nem bem estruturadas, focando apenas em estabelecer um marco regulatório simbólico, o que é insuficiente para abordar adequadamente um assunto tão complexo. Todavia, em fevereiro de 2022, foi instituída pelo Senado Federal a "Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre IA" (CJSUBIA). Após a realização de diversas reuniões e audiências públicas, os trabalhos de elaboração do substitutivo foram concluídos em dezembro de 2022. A partir do rigoroso trabalho desenvolvido, foi apresentado um projeto substitutivo - o Projeto de Lei nº 2.338/202316-, de autoria do Presidente do Congresso Nacional, Senador Rodrigo Pacheco, que muito se aproxima da solução adotada na União Europeia, onde há anos se discute a matéria em caráter prospectivo, primando por estratificar as soluções possíveis para cada contexto, a depender do grau de risco que a atividade implique. Neste sentido, nota-se o pouco tempo dedicado ao estudo e à evolução do projeto de lei, apenas dois anos e com escasso tempo para as necessárias audiências públicas e pesquisas realmente profícuas para que a futura lei brasileira sobre Inteligência Artificial pudesse ser referência para outros países. Desde a sua apresentação pelo Senador Rodrigo Pacheco em maio de 2023, o Projeto de Lei nº 2.338 recebeu diversas emendas parlamentares17, sobretudo no âmbito da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), criada com o objetivo de analisar e debater a regulamentação da Inteligência Artificial no Brasil por meio da discussão e aprimoramento de projetos de lei relacionados à IA, incluindo o Projeto de Lei nº 2.338/2023. Presidida pelo Senador Carlos Viana (PODEMOS-MG), a CTIA atua como um fórum multissetorial, reunindo especialistas e representantes de diversos setores para garantir que as regulamentações propostas sejam abrangentes e eficazes, equilibrando inovação tecnológica e proteção de direitos fundamentais. Estas contribuições são extremamente valiosas e precisam de um tempo razoável para o amadurecimento e melhoria das propostas, para não incidirmos na aprovação de uma lei de questionável eficiência o que, fatalmente, fomentará o ativismo judicial. O Brasil segue no aguardo do avanço do PL 2.338/2023, mas seu texto, cuja versão mais recente é uma minuta de atualização proposta pelo Senador Eduardo Gomes em abril de 202418 no âmbito da referida CTIA, indica a preocupação do legislador com a parametrização ética, estando elencados, no art. 3º, inúmeros princípios que são nitidamente inspirados na proposta europeia. Em linhas gerais, pode-se sintetizar 6 grandes eixos principiológicos de todas essas propostas regulatórias: (i) participação humana e supervisão (human in the loop); (ii) confiabilidade e robustez dos sistemas de inteligência artificial e segurança da informação; (iii) privacidade e governança de dados; (iv) transparência algorítmica, explicabilidade e auditabilidade; (v) diversidade, não discriminação e justiça; (vi) responsabilização, prevenção, precaução e mitigação de riscos. Para além desse rol mais sintético, convém mencionar o detalhado repertório de princípios que consta do artigo 3º do substitutivo apresentado pelo Senador Eduardo Gomes: (i) crescimento inclusivo, desenvolvimento sustentável e bem-estar, incluindo a proteção do trabalho e do trabalhador (inc. I); (ii) autodeterminação e liberdade de decisão e de escolha (inc. II); (iii) supervisão humana efetiva (inc. III); (iv) não discriminação ilícita e abusiva (inc. IV); (v) justiça, equidade e inclusão (inv. V); (vi) transparência e explicabilidade (inc. VI); (vii) devida diligência e auditabilidade (inc. VI, sic19); (viii) confiabilidade e robustez do sistema de IA (inc. VII); (ix) proteção dos direitos e garantias fundamentais, incluindo o devido processo legal, contestabilidade e contraditório (inc. VIII); (x) prestação de contas, responsabilização e reparação integral de danos (inc. IX); (xi) prevenção, precaução e mitigação de riscos e danos (inc. X); (xii) não maleficência e proporcionalidade entre os métodos empregados e as finalidades (inc. XI); (xiii) desenvolvimento e uso ético e responsável da IA (inc. XII); (xiv) governança transparente, participativa e orientada à proteção de direitos fundamentais (inc. XIII); (xv) promoção da interoperabilidade de IA (inc. XIV); (xvi) possibilidade e condição de utilização de sistemas e tecnologias com segurança e autonomia por pessoa com deficiência (inc. XV); (xvii) conformidade com a legislação aplicável (inc. XVI)20. Essa lista pode ser expandida para incluir um conjunto muito mais detalhado de princípios que tocam o debate ético sobre a regulação dos sistemas de IA. No entanto, para os objetivos desta investigação, é importante mencionar que todos esses delineamentos ajudam a definir contornos específicos que fortalecem o tratamento jurídico da perfilização e seus efeitos. Na atualidade, "a preocupação central de toda essa investigação reside nas aplicações e nos danos causados pela Inteligência Artificial, que se coloca mais uma vez aqui como um elemento fundamental para compreender esse fenômeno de controle"21. Em conclusão, a aprovação do Regulamento Geral Europeu sobre Inteligência Artificial (AI Act) representa um marco significativo na regulação de tecnologias emergentes, com uma abordagem baseada em princípios éticos que contribuem para o debate acerca da responsabilidade civil. Este esforço europeu, resultado de quase uma década de debates e colaborações multissetoriais, serve de exemplo inspirador para outras nações, incluindo o Brasil, onde, embora ainda não se possa prever os próximos passos dos debates legislativos sobre a matéria, deve-se acompanhar com atenção os trabalhos desenvolvidos pela CTIA no Senado Federal. __________ 1 Disponível em: https://ec.europa.eu/digital-single-market/en/news/eu-member-states-sign-cooperate-artificial-intelligence, acessado em 23 maio 2024. 2 Disponível em: https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe, acessado em 23 maio 2024. 3 Disponível em: https://ec.europa.eu/digital-single-market/en/european-ai-alliance, acessado em 23 maio 2024. 4 Disponível em: https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai, acessado em 23 maio 2024. 5 Disponível em: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, acessado em 23 maio 2024. 6 Disponível em: https://ec.europa.eu/knowledge4policy/node/32954_sl, acessado em 23 maio 2024. 7 Disponível em: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf, acessado em 23 maio 2024. 8 Disponível em: https://eur-lex.europa.eu/legal-content/en/txt/pdf/?uri=celex:31985l0374&from=en, acessado em 23 maio 2024. 9 Disponível em: https://eur-lex.europa.eu/legal-content/en/txt/pdf/?uri=celex:52020dc0066&from=en, acessado em 23 maio 2024. 10 ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 4625, Dec. 12, 2017. FUTURE of Artificial Intelligence Act. Disponível em: https://www.congress.gov/115/bills/hr4625/bills-115hr4625ih.pdf, acessado em 23 maio 2024. 11 EUROPA. European Parliament. Artificial Intelligence Act: MEPs adopt landmark law, mar. 2024. Disponível em: https://www.europarl.europa.eu/news/en/press-room/20240308ipr19015/artificial-intelligence-act-meps-adopt-landmark-law, acessado em 23 maio 2024. 12 ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 6580, Feb. 3, 2022. Algorithmic Accountability Act of 2022. Disponível em: https://www.congress.gov/bill/117th-congress/house-bill/6580/text, acessado em 23 maio 2024. 13 ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 2231, Apr. 10, 2019. Algorithmic Accountability Act of 2019. Disponível em: https://www.congress.gov/116/bills/hr2231/bills-116hr2231ih.pdf, acessado em 23 maio 2024. 14 Cf. SELBST, Andrew. An institutional view of algorithmic impact assessments. Harvard Journal of Law & Technology, Cambridge, v. 35, 2021. Disponível em: https://ssrn.com/abstract=3867634, acessado em 23 maio 2024. 15 MÖKANDER, Jakob; JUNEJA, Prathm; WATSON, David S.; FLORIDI, Luciano. The US Algorithmic Accountability Act of 2022 vs. The EU Artificial Intelligence Act: what can they learn from each other? Minds and Machines, Cham: Springer, v. 22, p. 1-9, jun. 2022. Disponível em: https://doi.org/10.1007/s11023-022-09612-y, acessado em 23 maio 2024. 16 BRASIL. Senado Federal. Projeto de Lei nº 2338/2023. Dispõe sobre o uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233, acessado em 23 maio 2024. 17 Em especial, destaca-se a proposta de substitutivo apresentada pelo Senador Astronauta Marcos Pontes. Por mais, permita-se a referência a: MEDON, Filipe. Regulação da IA no Brasil: o substitutivo ao PL 2338. Jota, 01 dez. 2023, acessado em 23 maio 2024. 18 BRASIL. Senado Federal. Comissão Temporária Interna sobre Inteligência Artificial no Brasil. Texto Preliminar - Senador Eduardo Gomes. 2023. Disponível em: https://legis.senado.leg.br/comissoes/arquivos?ap=8139&codcol=2629, acessado em 23 maio 2024. 19 Há uma repetição, aparentemente por erro material, na numeração do inciso VI do substitutivo em questão. 20 BRASIL. Senado Federal. Comissão Temporária Interna sobre Inteligência Artificial no Brasil. Texto Preliminar - Senador Eduardo Gomes. 2023. Disponível em: https://legis.senado.leg.br/comissoes/arquivos?ap=8139&codcol=2629, acessado em 23 maio 2024. 21 MEDON, Filipe. Inteligência artificial e responsabilidade civil: autonomia, riscos e solidariedade. 2. ed. Salvador: Juspodivm, 2022, p. 297.
A alteração da resolução 23.610 de 2019, com o pacote de 12 resoluções aprovadas pelo Tribunal Superior Eleitoral, apresentou alguns pontos relativos ao uso de IA no processo eleitoral, como: proibição de deepfakes; obrigação de explicitar o uso de IA na propaganda eleitoral; proibição de simulação de diálogo entre candidato e qualquer outra pessoa; responsabilização das empresas que não retirarem imediatamente do ar conteúdos com desinformação ou com discurso de ódio. Essas regras são interessantes quando for detectada o uso de IA para criação de conteúdo eleitoral e vídeos sem a devida informação ao eleitor. Dessa forma, tal conduta já estará prevista nas resoluções aprovadas e haverá uma respectiva consequência, buscando garantir a democracia. Mas a pergunta que não foi respondida ainda é como todas estas determinações legais serão fiscalizadas? Provavelmente não, por isso não é possível dizer que o eleitor estará seguro com tais resoluções, uma vez que será muito difícil identificar este conteúdo gerado pela IA ou o uso de chatbots. Além disso, mesmo que seja identificado o uso indevido deste conteúdo e o responsável por ele, o prejuízo já terá ocorrido, pois os vídeos polêmicos e impactantes são propagados em uma elevada velocidade, sendo que o microtargeting garante que o conteúdo chegue aos destinatários mais suscetíveis a compartilhar tal conteúdo e confirmar as suas convicções. Sobre a importância da proteção de dados e a prática denominada deepfake, consulte nossa coluna.1 De fato, a criação de deepfake está associada à técnica de deep learning, a qual se assemelha ao sistema neural humano, adaptando-se e aprendendo por uma rede de dados. No entanto, tudo isso somente é viável a partir de dados pessoais que são utilizados por uma grande quantidade de software de código aberto, que chegam a resultados cada vez mais precisos. Esta preocupação não está atormentando somente a sociedade brasileira. Mas Nos Estados Unidos, em 30 de outubro de 2023, o Presidente Joe Binden editou uma ordem executiva impondo alguns requisitos para proteger os americanos e as liberdades individuais dado ao crescente uso da IA. Nesta carta ficaram estabelecidas tais medidas:2 - que as grandes empresas que usam IA informem sobre os testes que fizeram antes de disponibilizar tal ferramenta ao público, bem como sobre os riscos que possam estar associados; - o National Institute of Standards and Technology vai estabelecer critérios para se alcançar segurança e confiabilidade nos produtos e serviços que usem IA; - a fim de proteger os americanos contra conteúdo enganosos e fraudulentos, o Department of Commerce estabelecerá diretrizes para autenticação de conteúdo criado totalmente por IA, bem como a indicação disto inserindo uma marca d'água para indicar que o conteúdo foi gerado por IA, o que acabou influenciando o substitutivo do PL 2338 que a Cristina mencionou; - além de atenção redobrada à cybersegurança.  Nesta ordem executiva, o Presidente norte-americano sugere que o Congresso norte-americano elabore uma lei específica para assegurar a privacidade dos americanos, já que para treinar os sistemas que usam IA, as empresas precisam de informações diversas. Nos Estados Unidos, o Algorithmic Accountability Act de 2022 traz uma preocupação com os sistemas de decisões automatizadas, notadamente com os vieses dos algoritmos (exigindo o relatório de impacto), mas não menciona a IA generativa. Na Europa, avançou a aprovação da proposta de Regulamento Geral sobre IA, conhecido como Artificial Inteligence Act, no art. 52, impõe-se o dever de informar que o sistema usa IA, além disso, foi feita menção expressa ao uso de chatbots e deepfakes:  Users of an AI system that generates or manipulates image, audio or video content that appreciably resembles existing persons, objects, places or other entities or events and would falsely appear to a person to be authentic or truthful ('deep fake'), shall disclose that the content has been artificially generated or manipulated.  Portanto, acredito que a questão ainda precisa ser melhor desenhada pelos reguladores, mas a informação é o melhor remédio, ou seja, informar que o conteúdo foi gerado por IA. Sobre o tema, Cíntia Rosa Pereira de Lima, Cristina Bernardo de Oliveira e Evandro Eduardo Seron Ruiz3 analisam estas propostas que inspiraram a proposta do Senador Astronauta Marcos Pontes ao Projeto de Lei n. 2338/23, o qual possui um dispositivo que exige a presença de marca d'água em todo conteúdo gerado por IA (quer texto, quer imagem), tornando-se impraticável garantir a efetivação de tal norma. Isto porque não há uma forma de organizar a fiscalização e a identificação de todos o conteúdo gerado por IA, bem como sua efetiva remoção a tempo hábil. Assim, pode gerar uma falsa sensação de que o conteúdo sem a marca d'água não teria sido criado por IA, quando, na verdade, não foi identificado como tal, e continuará impactando as pessoas que irão confiar na credibilidade na originalidade do conteúdo que não está identificado. Quanto à obrigatoriedade de remoção de discurso de ódio, nossa coluna já tratou do tema em algumas ocasiões.4 O grande problema é a ausência do que seria o discurso de ódio quer na doutrina, quer na jurisprudência, por exemplo, pornografia enquadra-se como discurso de ódio? Há muitos que defendem que sim. O risco destes conceitos abertos é o fomento a arbitrariedades, o que coloca em xeque um princípio democrático protegido constitucionalmente: a liberdade de expressão. Por outro lado, o discurso de ódio e condutas antidemocráticas afetam o nosso processo eleitoral e atingem as instituições democráticas. O discurso de ódio viola direitos fundamentais e podem cercear a liberdade de ir e vir, pois um grupo constrangido pode se sentir coagido a não frequentar determinados espaços. Todavia, a remoção de perfis não seria a medida mais adequada, pois esses indivíduos encontrariam outras plataformas digitais para poderem se expressar e o ódio será cada vez maior. Por fim, deve-se ter cuidado para não fomentar o que Karl Loewenstein denominou de democracia militante, que afirmou que o nazismo se utilizou dos princípios e garantias presentes em Estados Democráticos de Direito para poderem propagar as suas ideias, logo, ao se retornar à democracia, ela deveria utilizar instrumentos empregados por regimes totalitários ou autoritários, para evitar que ressurgissem. Em suma, trata-se do dilema secular entre a liberdade e a segurança. E, a grande pergunta que se deve fazer como cidadãos é: quanto de liberdade estamos dispostos a abrir mão para garantir a segurança? No Brasil, há algumas tentativas legislativas para regulamentar o uso da IA (PL 5.051/2019, 21/2020 e 872/2021), de forma geral estes projetos se fundamentam na regra de responsabilidade civil com base na culpa, estabelecem princípios e fundamentos, o que já constam da Estratégia Brasileira de IA. Então, em fevereiro de 2022, foi instituida uma Comissão de Juristas no Senado Federal para apresentarem um substitutivo, apresentando uma primeira versão do substitutivo em 07 de dezembro de 2022. Assim, o PL 2.338/2023 é fruto dos trabalhos desta Comissão, apresentado ao Senador Federal Rodrigo Pacheco com objetivo de regulamentar a IA no Brasil. Uma das principais características do projeto é a proposta de uma estrutura institucional de supervisão e controle, que visa dar segurança jurídica a quem inova e desenvolve tecnologia. Mas é impossível o legislador prever e antever os possíveis usos e aplicações da IA, por isso, creio eu que o melhor caminho seja uma lei geral e principiológica, que indique os fundamentos para o desenvolvimento e uso da IA, bem como direitos básicos dos usuários e a criação de um órgão regulador para assegurar a efetividade de todo o sistema. Entretanto cada setor específico, com a participação deste órgão a ser criado, como o setor de eleições, de automação de veículos e etc..., estabelecerão regras específicas e pertinentes às suas particularidades. Mas a efetiva solução está realmente na educação digital. __________ 1 NASCIMENTO, Ingrid do; OLIVEIRA, Cristina Godoy Bernardo de. Deepfake nas eleições e a importância da proteção de dados. Disponível aqui. 2 Disponível em: FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence | The White House. 3 CARDOSO, Thaís. USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor. Disponível em: USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor - Jornal da USP. 4 LIMA, Cíntia Rosa Pereira de; BATISTA, Letícia Soares. Elon Musk VS Alexandre de Moraes e o necessário debate sobre regulação das redes sociais. Disponível aqui.
As eleições de 2024 sinalizam diversos desafios a serem suplantados pelo regulador. Desde os acontecimentos da Cambridge Analytica em 2018, houve um avanço significativo da tecnologia, em especial a Inteligência Artificial. Muito se deve ao fato da pandemia ter acelerado a digitalização da atual sociedade informacional1. Sobre esta reflexão, nesta coluna Migalhas de IA e Proteção de Dados, Adalberto Simão Filho2 alerta para o fato do crescente banco de dados de eleitores em razão das pesquisas eleitorais. Agora não é tão somente o fato perigoso de acesso indevido aos dados pessoais de eleitores e sua perfiliação para enviar mensagens a fim de influenciar no seu processo decisório que ameaça o processo democrático, o que também já foi debatido em alguns artigos desta coluna3. Além disso, o uso indevido da Inteligência Artificial já tem chamado a atenção como o uso do ChatGPT4 e outras ferramentas.5 É importante destacar que tais ferramentas não são intrinsecamente ruins como salienta Demi Getscheko,6 neste sentido, deve-se buscar alguns parâmetros para a utilização sustentável destas ferramentas, sem que afetem as liberdades individuais e os fundamentos da democracia. Alguns exemplos destas ferramentas podem ser entendidos a partir do que Evandro Eduardo Seron Ruiz alertou no USP Analisa de 26 de abril de 2024.7 A capacidade de geração de texto pelas denominadas IAs Generativas (IAGs) como o ChatGPT advém de vários tipos de processamentos sobre um grande volume de textos digitais coletados na web. Mais especificamente, essas IAGs para textos, chamadas tecnicamente de grandes modelos de linguagem (do termo inglês, Large Language Models, ou LLM), capturam milhões de textos na internet e, a grosso modo, calculam a probabilidade de ocorrência das próximas palavras dada uma palavra sugerida. Exemplificando essa metodologia de modo sumário, sem rigor técnico, essas IAGs tem um funcionamento parecido ao encontrado nos editores de texto de celulares que, muitas vezes, sugerem a próxima palavra a ser digitada. No entanto, essas IAs calculam as próximas palavras as centenas, ou seja, geram textos longos e, se bem guiadas pelo usuário, textos contextualizados. Convém notar que essas novas ferramentas generativas, tanto para gerar textos, imagens e áudios, lançadas a partir de 2022, ainda nem completaram 2 anos de idade, ou seja, ainda estão na sua primeira infância e já se pode notar uma enorme quantidade de usuários destas tecnologias. Por exemplo, nestas próximas eleições municipais, os eleitores podem usar essas tecnologias, para, resumir os programas de seus candidatos e até compará-los, buscar informações sobre os partidos e os candidatos, talvez um histórico de sua vida política pregressa e de suas convicções. Considerando os interesses do candidato, tais tecnologias podem ser usadas para gerar material para seus discursos ou manifestações em suas redes sociais. Além disso, essas IAs generativas textuais podem auxiliar na elaboração das propostas de governo, na geração de discursos, como também para a geração de material publicitário, entre outras finalidades. Veja que esta aplicação das IAGs pode representar uma economia relevante com gastos de campanha eleitoral e reduzir o custo com assessores e profissionais de propaganda. Além disso, essas IAGs voltadas para texto contam com um recurso chamado Aprendizado por Reforço que analisam as interações do usuário com a IA e podem gerar novas versões do texto que respondam aos questionamentos ou sugestões e necessidades do usuário. Com todos esses recursos destas IAGs podemos pensar que um candidato possa criar uma máquina de campanha para as redes sociais. Num primeiro momento essa máquina produzirá propagandas cujos textos sejam recortes de seu programa de governo e as imagens ou vídeos produzidos artificialmente ofereçam suporte ao texto. Poderia, inclusive, ser inserido áudios que reproduzam a voz do candidato. Num momento subsequente, essa máquina de campanha, ao analisar os comentários dos seguidores do candidato, poderia gerar outros textos, imagens, vídeos e áudios que agradassem mais o público alvo, tudo isso é possível a partir do recurso de avaliação e correção de rumos da técnica de Aprendizado por Reforço incluída nessas IAGs. Com um uso ético e seguro destas tecnologias, pode-se chegar a um equilíbrio maior de forças e exposição entre os candidatos, pensando que o candidato com menor condições financeiras para gastar na campanha pode, em tese, fazer sua campanha com baixo custo usando os canais das redes sociais e que, caso isso ocorra, esse movimento poderá implicar num fortalecimento da democracia pela oportunidade de produção de material que essas IAs trarão a todos os partícipes de um pleito. Neste sentido, a promoção do uso amplo destas tecnologias para aumentar a produtividade das campanhas eleitorais e, quiçá, torná-las mais baratas seria uma alternativa para que o povo brasileiro não continue arcando com os custos exorbitantes das campanhas eleitorais cujo fundo público este ano é de RS 4,9 bilhões.8 Boa parte deste recurso poderia ser melhor empregada para a educação digital, para estimular e fortalecer o uso consciente das redes sociais e, como consequência, teríamos uma população educada e empoderada sim para dissuadir esses criminosos digitais. Entretanto, infelizmente, existe um receio real de que tais ferramentas possam ser utilizadas para a geração e veiculação de notícias enganosas. Toda ferramenta, toda criação, toda invenção nova sempre pode ser usada para alguma finalidade não esperada, e neste caso, pode sim ser usada para enganar, burlar, o eleitor. A alteração da Resolução 23.610 de 2019, com o pacote de 12 resoluções aprovadas pelo Tribunal Superior Eleitoral, apresentou alguns pontos relativos ao uso de IA no processo eleitoral, como: proibição de deepfakes; obrigação de explicitar o uso de IA na propaganda eleitoral; proibição de simulação de diálogo entre candidato e qualquer outra pessoa; responsabilização das empresas que não retirarem imediatamente do ar conteúdos com desinformação ou com discurso de ódio. Essas regras são interessantes quando for detectada o uso de IA para criação de conteúdo eleitoral e vídeos sem a devida informação ao eleitor. Dessa forma, tal conduta já estará prevista nas resoluções aprovadas e haverá uma respectiva consequência, buscando garantir a democracia. Por outro lado, não é possível dizer que o eleitor estará seguro, uma vez que será muito difícil identificar este conteúdo gerado pela IA ou o uso de chatbots. Além disso, mesmo que seja identificado o uso indevido deste conteúdo e o responsável por ele, o prejuízo já terá ocorrido, pois os vídeos polêmicos e impactantes são propagados em uma elevada velocidade, sendo que o microtargeting garante que o conteúdo chegue aos destinatários mais suscetíveis a compartilhar tal conteúdo e confirmar as suas convicções. Portanto, a real proteção que pode se dar à população é assegurando e fortalecendo medidas de transparência e de educação digital. Na próxima coluna, continuaremos o debate analisando algumas propostas regulatórias norte-americanas que tem influenciado o legislador brasileiro. __________ 1 OLIVEIRA, Cristina Godoy Bernardo de; LIMA, Tiago Augustini de; RODRIGUES, Pedro Sberni. Eleições municipais, LGPD e pandemia: uma combinação imprevisível. Disponível aqui. 2 SIMÃO FILHO, Adalberto. Por quem os sinos dobram - A (im)possibilidade de utilização algorítmica e inteligência artificial na formação do plano amostral de pesquisas eleitorais. Disponível aqui. 3 LIMA, Cíntia Rosa Pereira de; SOUSA, Maria Eduarda Sampaio de. LGPD e combate às fake news. Disponível aqui; DONAIKA, Kaleo; OLIVEIRA, Cristina Godoy Bernardo de. O acordo de cooperação técnica assinado entre o TSE e a ANPD. Disponível aqui; dentre outros. 4 RUIZ, Evandro Eduardo Seron. A nossa Língua Portuguesa está em risco de extinção? Disponível aqui. 5 OLIVEIRA, Cristina Godoy Bernardo de; LIMA, Tiago Augustini de. O Uso do ChatGPT e do Gemini no fazer jurídico. Disponível aqui. 6 NETMundial e o Marco Civil da Internet: a necessidade de ambos. In: DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de. Direito & Internet. Vol. III: Marco civil da internet (Lei nº 12.965/2014). São Paulo: Quartier Latin, 2015. pp. 101 - 106. 7 CARDOSO, Thaís. USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor. Disponível em: USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor - Jornal da USP 8 Disponível em: Fundo Especial de Financiamento de Campanha (FEFC) - Tribunal Superior Eleitoral (tse.jus.br)
No início do mês de abril (09/04/2024), ganhou relevância um embate travado entre o empresário bilionário Elon Musk e o ministro do Supremo Tribunal Federal, Alexandre de Moraes, no meio da plataforma X, antigo Twitter. O empresário, dono da plataforma, acusou o ministro de ser "autoritário" e "ditador", sendo responsável por "censurar" a liberdade de expressão no Brasil. Por sua vez, o ministro respondeu com a inclusão do empresário no inquérito que investiga milícias digitais1. A "denúncia" de Elon Musk foi seguida pela divulgação de um relatório contendo informações internas da empresa sobre o acompanhamento de decisões judiciais. A série de artigos foi apresentada pelo jornalista Michael Shellenberger e ganhou o nome de Twitter Files Brasil. Na semana seguinte (17/04/2024), o Comitê de Assuntos Judiciários da Câmara dos Estados Unidos divulgou um relatório intitulado The Attack on Free Speech Abroad and the Biden Administration's Silence: The Case of Brazil2, traçando um paralelo entre as condutas de Moraes e do presidente Joe Biden, acusando este último de limitar a liberdade de expressão dos americanos. Chama a atenção o fato do empresário ter recebido o relatório poucos dias antes da divulgação pelo Comitê3, além de ter protagonizado diversas interações com políticos brasileiros, demonstrando seu apoio4. Vale ressaltar que, desde a compra "forçada" da plataforma, Musk vem usando a rede para defender a liberdade de expressão contra a assim chamada "ideologia woke", terminologia utilizada pela mídia conservadora norte-americana para definir amplamente pautas ditas como progressistas. Do ponto de vista jurídico, o caso se destaca por diversos aspectos. Primeiramente, evidencia a influência de um bilionário estrangeiro na condução do debate político, investigações criminais e decisões judiciais no país. A apresentação de um relatório à Câmara dos Estados Unidos que alega denunciar a censura existente no Brasil e cobra resposta de uma outra nação, abre a porta para um questionamento sobre a soberania nacional, muito embora o documento não tenha como objetivo principal solucionar a ditadura contra a liberdade de expressão supostamente existente no Brasil, como se fez acreditar5. Ademais, reacende o debate sobre a necessidade de regulamentação das redes sociais. Nesse contexto, o presidente da Câmara dos Deputados entendeu que "não há clima para aprovação do projeto já existente"6, referindo-se ao PL nº 2.630/2020, que ficou conhecido como PL das Fake News, já aprovado pelo Senado Federal.7 Entretanto, a retomada do debate sobre regulamentação das redes é fundamental para que o Brasil tenha padrões pré-estabelecidos para o controle sobre postagens em redes sociais, a fim de que não tenha sua soberania questionada, como ocorreu no caso acima citado. Isso porque atualmente a única previsão expressa para o controle de conteúdo produzido por terceiros para provedores de aplicações da internet é artigo 19 do Marco Civil da Internet (Lei n. 12.965/2014), que estabelece o sistema conhecido como judicial notice and takedown, isto é, a responsabilidade do provedor de aplicação somente após o recebimento de uma notificação específica e detalhada do conteúdo que deve ser deletado. Sobre isso vide outro texto interessante nesta coluna.8 Tal norma prioriza a liberdade de expressão dos usuários, na medida em que se objetivou não deixar à análise dos provedores de aplicação de internet essa análise de mérito sobre o conteúdo. Ao contrário, pretendeu deixar ao Judiciário definir se o conteúdo pode ser considerado ou não lesivo9. Assim, de acordo com o sistema estabelecido pelo Marco Civil da Internet, a proteção contra discursos discriminatórios deve ser analisada pelo Judiciário; não podendo ficar à mercê do controle dos próprios provedores de aplicação, ou seja, pelas próprias redes sociais.10 O sistema baseado na ideia de neutralidade da rede11, buscando a promoção da maior liberdade de expressão dos usuários, impede que os provedores de aplicação fiscalizem previamente o conteúdo postado. Entretanto, na medida em que se tem conhecimento do potencial lesivo de determinado conteúdo, como os provedores de aplicação de internet devem agir? Importante lembrar que a neutralidade da rede se aproxima da ideia de livre mercado das ideias, adotado no ordenamento americano. O conceito, criado pelo juiz Oliver Wendell Holmes, ao interpretar a 1ª Emenda à Constituição americana, resume sucintamente o entendimento estadunidense sobre a proteção da liberdade de expressão, comparando-a com a proteção do livre mercado, assim, inspirado no pensamento de John Stuart Mill, o melhor teste para a veracidade de uma ideia seria a sua capacidade de obter aceitação na competição do mercado do discurso12. Nesse sentido, a proteção da liberdade de expressão nos Estados Unidos é tida como uma das mais abrangentes do mundo, pois ganha preponderância frente a outros princípios como privacidade, honra e igualdade, possuindo poucas ressalvas, por exemplo, pornografia, difamação, ou linguagem ofensiva13. Por exemplo, a queima de cruzes, símbolo da Ku Klux Klan, não é criminalizada per se, mas apenas quando apresenta clara ameaça às pessoas negras. Trata-se do princípio indicado pela expressão fighting words, que permite restringir o exercício da liberdade de expressão somente quando há imediata incitação de violência14. Ademais, o discurso é visto como modo de autorrealização individual, logo, limitar o contato com discursos tidos como discriminatórios limitaria a potencialidade de cada ser humano, de forma tal que o Estado estaria violando a identidade de cada indivíduo15. Dessa forma, diz-se que nos Estados Unidos vigora uma liberdade negativa, isto é, a proibição do Congresso de limitar a liberdade de expressão16, o que se vê de modo expresso na redação da 1ª Emenda17. Contudo, o exemplo americano não foi seguido pelo Brasil, o qual, inspirado no modelo europeu, adotou a liberdade de expressão em sentido positivo, limitando-a por outros princípios constitucionais, como a dignidade da pessoa humana, dentre outros. No julgamento do Caso Ellwanger pelo Supremo Tribunal Federal no RHC 82.424/RS, estabeleceu-se que o conceito de racismo deve ser entendido de modo amplo para enquadrar qualquer tipo de discriminação racial, inclusive contra judeus. Ainda com grande divergência de fundamentos jurídicos, filosóficos e sociológicos pelos Ministros, inclusive com três votos contrários, a decisão foi aplaudida tanto pela comunidade civil, como pela academia18. Mais recentemente, o julgamento da ADO 26, ainda em fase recursal, parece reiterar o combate à discriminação, equiparando ao crime de racismo a homofobia e a transfobia, sendo emblemático ao combate do discurso de ódio no Brasil. Em uma das teses fixadas pelo Relator, o Ministro Celso de Mello, o conceito de racismo foi alargado para compreender qualquer tipo de discriminação contra grupo minoritário: "O conceito de racismo, compreendido em sua dimensão social, projeta-se para além de aspectos estritamente biológicos ou fenotípicos, pois resulta, enquanto manifestação de poder, de uma construção de índole histórico-cultural motivada pelo objetivo de justificar a desigualdade e destinada ao controle ideológico, à dominação política, à subjugação social e à negação da alteridade, da dignidade e da humanidade daqueles que, por integrarem grupo vulnerável (LGBTI+) e por não pertencerem ao estamento que detém posição de hegemonia em uma dada estrutura social, são considerados estranhos e diferentes, degradados à condição de marginais do ordenamento jurídico, expostos, em consequência de odiosa inferiorização e de perversa estigmatização, a uma injusta e lesiva situação de exclusão do sistema geral de proteção do direito" Desta forma, o sistema brasileiro de proteção à liberdade de expressão diverge do modelo norte-americano na medida em que se reconhece, no Brasil, a primazia do princípio da dignidade humana como limitador a muitos direitos e garantias fundamentais, ao ponto de criminalizar discursos discriminatórios, entendidos como discursos que promovem discriminação a grupos minoritários da sociedade. Portanto, o sistema brasileiro aproxima-se mais do modelo europeu, predominantemente, do sistema alemão. Enquanto a liberdade de expressão é reconhecida no artigo 5º da Lei Fundamental Alemã, seus parágrafos primeiro e terceiro estabelecem a "tríade de limitações ou reservas qualificadas", isto é, as três previsões para restrições da liberdade de expressão: previsões de leis gerais, proteção dos jovens e ao direito da honra pessoal19. Contudo, a jurisprudência da Corte Suprema Alemã foi responsável por estabelecer limites mais claros ao exercício do direito de liberdade de expressão20. Assim, passa a ser punível o discurso de ódio, inclusive em âmbito penal, pois são ilícitos ataques que incitem a violência contra "setores da população [...] determinados pela nacionalidade, raça, religião ou origem étnica"21. Contudo, para doutrina alemã, o grupo atacado deve ser uma minoria (no sentido numérico), com características que o diferenciam do público em geral, a declaração deve atacar a todo o grupo, não apenas a indivíduos, com características que lhe são atribuídas pelo público em geral, e nem pelas características reconhecidas pelo grupo minoritário, como por exemplo, características étnicas, físicas ou mentais. Por fim, já no âmbito da responsabilidade por conteúdo publicado na internet, a Alemanha foi pioneira com a Lei Geral de Fiscalização das Redes (Netzwerkdurchsetzungsgesetz, NetzDG), a qual entrou em vigor em janeiro de 2018. A lei tem como principal objetivo atribuir às redes sociais a função e a responsabilidade pela análise do conteúdo postado22. Com isso, a NetzDG cria duas soluções distintas: a obrigação de indisponibilizar o conteúdo manifestamente ilegal em 24h e, em casos em que a legalidade do conteúdo for discutível, o dever de bloquear ou deletar aquele conteúdo dentro do prazo de sete dias. Necessário a possibilidade de questionar em via judicial tanto a legalidade do conteúdo quanto da medida tomada, de forma a também garantir um controle sobre os entes privados. Além disso, a lei estabelece o dever do site de rede social (SRS) de criar meios para os usuários denunciarem os conteúdos alegadamente ilegais, que devem ser facilmente reconhecíveis, diretamente acessíveis e permanentemente disponíveis. Além disso, devem disponibilizar relatórios frequentes sobre a efetividade dessas medidas. Para casos de descumprimento sistemático, as multas impostas pela NetzDG podem chegar a 50 milhões de euros. Embora outros países da Europa, como Portugal, França e Rússia, já tenham adotado leis similares, parte da doutrina critica o perigo de over-blocking, isto é, o excesso de bloqueios por parte dos SRS's, justificado pelo estímulo criado pela norma para deletar o conteúdo imediatamente, sem promover as análises necessárias. Contudo, uma restrição demasiada de conteúdo não é interessante para os sites, uma vez que os seus interesses econômicos residem na pretensão de serem espaços livres para publicação da opinião do usuário. Além disso, a análise dos relatórios dos SRS's do primeiro ano da lei sugere o contrário, pois é mais comum a análise do conteúdo somente com base nas políticas e diretrizes dos sites do que a análise com base na NetzDG23. Assim, fica claro que a opção privilegia a proteção da vítima de um possível discurso de ódio cibernético, pois a imediata restrição do conteúdo impede o compartilhamento, e consequentemente, a re-vitimização. Por outro lado, ao delegar o dever de análise a entes privados, priorizando a celeridade, o controle primário sobre a legalidade do conteúdo recairia às redes sociais, abrindo margem para discricionariedade. Entretanto, como já ressaltado anteriormente, não se verificou um excesso do uso da ferramenta por parte dos sites, que inclusive tendem a justificar a exclusão do conteúdo de terceiros com base nos termos de uso já existentes. Logo, a NetzDG resultou no maior cumprimento do dever de vigilância já exercido pelos provedores de redes sociais, não pela previsão legal em si, mas por força do próprio termo de uso da plataforma, o qual sujeita qualquer usuário. Vale ressaltar que eventuais abusos ainda estão sujeitos ao controle judiciário, com a vantagem da indisponibilidade do conteúdo antes da ação judicial, em sistema diametralmente oposto ao adotado no Brasil, como já citado anteriormente. O embate envolvendo Elon Musk e o ministro Alexandre de Moraes levanta questionamentos importantes sobre a discricionariedade das decisões judiciais no tocante ao controle da legalidade sobre o conteúdo publicado na internet, sobretudo em processos em que a figura do juiz e do acusador se confundem. Por outro lado, foi colocada em xeque a percepção de uma neutralidade de rede e, além disso, a neutralidade dos algoritmos usados por diversas redes sociais.24 Estes acontecimentos acendem o sinal de alerta para a urgência em regulamentar o tema o quanto antes25. Analisados todos os lados que envolvem o debate, o que resta firme é a necessidade de renovar o sistema brasileiro de proteção da liberdade de expressão na internet, sendo imprescindível a retomada da regulação das redes sociais, o que consolidará a proteção do ordenamento a direitos fundamentais. __________ 1 Saiba mais sobre o caso aqui. Acesso em 26.04.2024 2 Para aprofundamento, confira o documento na íntegra aqui. Acesso em 26.04.2024 3 O empresário postou na sua rede social, onde se lê, em tradução livre "acabei de receber um relatório da Câmara dos Deputados dos EUA sobre as ações no Brasil que ferem a lei brasileira. São centenas, se não milhares. As coisas vão aquecer" Ver aqui. Acesso em 26.04.2024 4 Elon Musk agradeceu os comentários dos deputados federais Eduardo Girão (independente-CE, ), Nikolas Ferreira (PL-MG, ), Coronel Meira (PL-PE, ), Luiz Philippe (PL-SP, ). Todos os links acessados em 28.04.2024, 5 Embora contenha cópias de diversas decisões nacionais e um rol de supostos perseguidos políticos no Brasil, o relatório tem como objetivo primário denunciar uma suposta censura promovida pelo governo Biden. A posição se torna mais clara na página oitava do documento, onde se lê, em tradução livre "O Congresso deve levar a sério os avisos do Brasil e de outros países buscando suprimir o discurso online. Não podemos jamais acreditar que [o mesmo] não pode ocorrer aqui. O Comitê e o Subcomitê Especial conduziram investigações agressivas (...) para trazer à luz a censura promovida pelo governo nos Estados Unidos e para informar remédios legislativos adicionais." 6 Como reportado em Acesso em 26.04.2024 7 Projeto apresentado pelo senador Alessandro Vieira (Cidadania-SE), com objetivo inicial de combater a divulgação de notícias falsas nas redes sociais. O projeto foi aprovado no Senado após diversas mudanças em seu texto que hoje não se limita a regular fake news, mas prevê uma extensa ampliação no quadro normativo sobre regulação das redes sociais. Os críticos do projeto o apelidaram de PL da Censura. 8 FLUMIGNAN, Wévertton Gabriel Gomes. Análise da responsabilidade civil no âmbito do Marco Civil da Internet e da Lei Geral de Proteção de Dados. Disponível em:  https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/343301/responsabilidade-civil-no-ambito-do-marco-civil-da-internet-e-da-lgpd Análise da responsabilidade civil no âmbito do Marco Civil da Internet e da Lei Geral de Proteção de Dados, acessado em 25 de abril de 2024. 9 LIMA, Cíntia Rosa Pereira de. A responsabilidade civil dos provedores de aplicação de internet por conteúdo gerado por terceiro antes e depois do Marco Civil da Internet (Lei n. 12.965/14). Revista da Faculdade de Direito, Universidade se São Paulo, São Paulo, v. 110, p. 155-176, jan/dez, 2015, p.160 10 Sobre moderação de conteúdo vide também: QUINTILIANO, Leonardo David. Redes sociais devem ser responsabilizadas por conteúdo de usuários? Qual o melhor caminho a seguir? Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/406192/redes-sociais-devem-ser-responsabilizadas-por-conteudo-de-usuarios. 11 LIMA, Cíntia Rosa Pereira de. Os desafios à neutralidade da rede: o modelo regulatório europeu e norte-americano em confronto com o Marco Civil da Internet brasileiro. Disponível em: (PDF) Os desafios à neutralidade da rede: o modelo regulatório europeu e norte-americano em confronto com o Marco Civil da Internet brasileiro (researchgate.net). 12 MOZETIC, Vinícius Almada; DE MORAES, José Luis Bolzan; FESTUGATTO, Adriana Martins Ferreira. Liberdade de Expressão e Direito à Informação na Era Digital: o fenômeno das fake news e o "market place of ideas" de Oliver Holmes Jr. Direitos fundamentais & Justiça, 2021, Vol.14 (43), p.331-356. Disponível em Acesso em 28.04.2024 13 FACCHINI NETO, Eugênio. RODRIGUES, Maria Lúcia Boutros Buchain. Liberdade de expressão e discurso de ódio: o direito brasileiro à procura de um modelo. Espaço Jurídico Journal of Law Espaço Jurídico Journal of Law, v. 22, n. 2, 2021, p. 481-516. DOI: 10.18593/ejjl.29220. 14 SARMENTO, Daniel. A liberdade de expressão e o problema do hate speech. Revista de Direito do Estado, Rio de Janeiro, ano 1, n. 4, out./dez. 2006. Disponível em: 15 GROSS, Clarissa Piterman. Pode dizer ou não? Discurso de ódio, liberdade de expressão e a democracia liberal igualitária. 2017. Tese (Doutorado em Filosofia e Teoria Geral do Direito) - Faculdade de Direito, Universidade de São Paulo, São Paulo, 2017. DOI :10.11606/T.2.2017.tde-28082020-013457. 16 LONGHI, João Victor Rozatti. #ÓDIO: responsabilidade civil nas redes sociais e a questão do hate speach. In: MARTINS, Guilherme Magalhães e ROSENVALD, Nelson. Responsabilidade Civil e Novas Tecnologias. Indaiatuba: Editora Foco, 2020, pp. 231-330 17 A 1ª Emenda da Constituição americana, em tradução livre: "O Congresso não fará lei relativa ao estabelecimento de religião ou proibindo o livre exercício desta, ou restringindo a liberdade de palavra ou de imprensa, ou o direito do povo de reunir-se pacificamente e dirigir petições ao governo para a reparação de seus agravos" Fonte original: 18 Sarmento, idem. 19 BARBOSA-FOHROMANN, Ana Paula e SILVA JR., Antônio Reis O discurso de ódio na internet. In: MARTINS, Guilherme Magalhães e LONGHI, João Victor Rozatti. Direito Digital: direito privado e internet. Indaiatuba: Editora Foco, 2019, pp. 3-34. 20 PAMPLONA, Danielle Anne; DE MORAES Patricia Almeida. O discurso de ódio como limitante da liberdade de expressão. Quaestio Iuris, vol. 12, no. 2, 2019. Disponível em: 21 BRUGGER,Winfried. Proibição ou proteção do discurso do ódio? Algumas observações sobre o direito alemão e o americano. Revista de Direito Público, v. 15 n. 117, jan./mar. 2007. Disponível em:  22 BREGA, Gabriel Ribeiro. A regulação de conteúdo nas redes sociais: uma breve análise comparativa entre o NetzDG e a solução brasileira. Revista Dirieto GV: São Paulo, v. 19, ed. 2305, 2023. Disponível em: 23 HELDT, Amélie. Reading between the lines and the numbers: an analysis of the first NetzDG reports. Internet policy review, 2019, v..8, n.2 DOI: https://doi.org/10.14763/2019.2.1398. 24 Vide também: LIMA, Cíntia Rosa Pereira de. Neutralidade da rede e proteção do consumidor no contexto pandêmico, 16 de junho de 2021. Disponível em: Neutralidade da rede e proteção do consumidor na pandemia (conjur.com.br) 25 Argumentos parecidos foram utilizados para aprovar uma lei que visa banir o TikTok, rede social chinesa, dos EUA ainda essa semana. Veja: Ademais, no caso Cambridge Analytica o uso de manipulação algorítmica para criação de "bolhas sociais" teria influenciado diretamentamente a eleição do ex-presidente Donald Trump nos Estados Unidos e a votação britânica para saída do Reino Unido. Para saber mais, acesse: Ambos os links forma acessados em 28.04.2024.
O recente embate envolvendo Elon Musk e o Supremo Tribunal Federal brasileiro reacendeu a discussão em torno da responsabilidade das plataformas digitais por conteúdo gerado por usuários. Trata-se de uma das maiores discussões na era da internet. A quem deve caber o controle das informações veiculadas por usuários de redes sociais (provedores de informação) que podem afetar a honra, intimidade, privacidade ou outro direito de terceiros? Em caso de violação desse tipo, deve ter o provedor de rede social alguma responsabilidade por conteúdo gerado por seu usuário? Exemplificando para o leitor leigo: se Maria utilizar o Facebook para caluniar José, ou postar uma foto dele sem seu consentimento, deverá responder o Facebook por danos morais? O tema é polêmico e gira em torno da existência de um "dever geral de vigilância" por parte do provedor de serviço, no caso plataformas de redes sociais como o Facebook, X, Instagram, Linkedin, entre outros. Na União Europeia, a antiga Diretiva de e-commerce 31/2000 excluía tal dever geral de vigilância em seu art. 15: Artigo 15º Ausência de obrigação geral de vigilância 1. Os Estados-Membros não imporão aos prestadores, para o fornecimento dos serviços mencionados nos artigos 12.o, 13.o e 14.o, uma obrigação geral de vigilância sobre as informações que estes transmitam ou armazenem, ou uma obrigação geral de procurar activamente factos ou circunstâncias que indiciem ilicitudes. 2. Os Estados-Membros podem estabelecer a obrigação, relativamente aos prestadores de serviços da sociedade da informação, de que informem prontamente as autoridades públicas competentes sobre as actividades empreendidas ou informações ilícitas prestadas pelos autores aos destinatários dos serviços por eles prestados, bem como a obrigação de comunicar às autoridades competentes, a pedido destas, informações que permitam a identificação dos destinatários dos serviços com quem possuam acordos de armazenagem.1  No entanto, prevalecia a regra denominada pela doutrina de "notice and take down" (notificação e retirada),2 ou seja, o dever de retirada de conteúdo ilegal após a notificação e conhecimento do referido conteúdo, como constava no artigo 14 da mesma diretiva: Artigo 14º Armazenagem em servidor 1. Em caso de prestação de um serviço da sociedade da informação que consista no armazenamento de informações prestadas por um destinatário do serviço, os Estados-Membros velarão por que a responsabilidade do prestador do serviço não possa ser invocada no que respeita à informação armazenada a pedido de um destinatário do serviço, desde que: a) O prestador não tenha conhecimento efectivo da actividade ou informação ilegal e, no que se refere a uma acção de indemnização por perdas e danos, não tenha conhecimento de factos ou de circunstâncias que evidenciam a actividade ou informação ilegal, ou b) O prestador, a partir do momento em que tenha conhecimento da ilicitude, actue com diligência no sentido de retirar ou impossibilitar o acesso às informações. Em 2022, contudo, a União Europeia aprovou o Regulamento para Serviços Digitais (Digital Services Act - DAS), que passou a vigorar em 17 de fevereiro de 2024, alterando a disciplina anterior.3 O DAS manteve a responsabilidade condicionada dos provedores segundo a regra do "notice and take down", excluindo o dever geral de vigilância: Artigo 8º Inexistência de obrigações gerais de vigilância ou de apuramento ativo dos factos Não será imposta a esses prestadores qualquer obrigação geral de controlar as informações que os prestadores de serviços intermediários transmitem ou armazenam, nem de procurar ativamente factos ou circunstâncias que indiquem ilicitudes. Em geral, a norma europeia isenta as redes sociais de promover uma vigilância sobre as postagens dos usuários, salvo nas seguintes hipóteses: a) que a rede social não participe direta ou indiretamente da postagem, originando a transmissão, ou selecionando ou modificando os destinatários ou conteúdo transmitido; b) não tenha conhecimento efetivo da atividade ou conteúdo ilegal; c) que após conhecimento da ilicitude, tenha agido para suprimir ou desativar o acesso aos conteúdos ilegais. Nos Estados Unidos, o Telecommunications Decency Act, de 1996, também exime os provedores do dever de vigilância: SEC. 230. Protection for private blocking and screening of offensive material.(...) (1) Treatment of publisher or speaker - No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider. (2) Civil liability - No provider or user of an interactive computer service shall be held liable on account of (A) any action voluntarily taken in good faith to restrict access to or availability of material that the provider or user considers to be obscene, lewd, lascivious, filthy, excessively violent, harassing, or otherwise objectionable, whether or not such material is constitutionally protected; or (B) any action taken to enable or make available to information content providers or others the technical means to restrict access to material described in paragraph (1). Assim, no âmbito eurocomunitário e nos Estados Unidos, a responsabilidade da rede social por conteúdo danoso gerado por seus usuários é sempre subjetiva, ou seja, depende da comprovação de sua culpa, incorporando-se a regra "notice and takedown". E qual regra se aplica no Brasil? Em 14.12.2010, o STJ entendeu, no julgamento do Resp 1.193.764, que a Google, mantenedora da antiga rede social Orkut, não seria responsável pela fiscalização do conteúdo das informações prestadas por cada usuário. Posteriormente, o Superior Tribunal de Justiça consolidou a adoção do sistema do "notice and take down", com a necessidade de notificação extrajudicial do provedor de aplicação para retirada de qualquer conteúdo que se entendesse ilícito, a qual deveria ser atendida no prazo de 24 horas, sob pena de responsabilidade solidária.4 Em primeiro lugar, é importante reconhecer que as empresas que controlam redes sociais fornecem um serviço de hospedagem de conteúdo de dados fornecidos por consumidores, assumindo a natureza de relação de consumo.5 Também destaca Bruno Miragem que, mesmo em relações que não sejam consumeristas, mas regidas genericamente pelo Código Civil, a atividade desenvolvida pode gerar, por si, a responsabilidade por risco da atividade (art. 927 do CC).6 Desde 23 de abril de 2014, contudo, está em vigor o Marco Civil da Internet, o qual trouxe previsão específica sobre a responsabilidade das redes sociais por conteúdo de usuários, acolhendo em parte a regra do "notice and takedown".  Assim como na Europa e EUA, o modelo brasileiro não impõe aos provedores o dever geral de vigilância e também os isenta de responsabilidade por conteúdo gerado por seus usuários. Além disso, segundo o artigo 19, não basta o "notice" (recebimento do aviso) para o "takedown" (remoção) - exige-se ordem judicial específica, ou seja, o "judicial notice". O "notice and takedown" foi acolhido em sua totalidade apenas no art. 21, no caso de violação à intimidade decorrente de divulgação, sem autorização, de imagens, vídeos ou outros materiais contendo cenas de nudez ou atos sexuais de caráter privado. O modelo brasileiro assegura maior liberdade de expressão aos usuários, menor censura e mais segurança jurídica para os provedores. O aumento vertiginoso na utilização de redes sociais, contudo, transformou o ambiente virtual em um espaço extremamente vulnerável a abusos cometidos por usuários, expondo-se a honra e a intimidade de terceiros e, de forma mais grave, tornando-se um meio de propagação de notícias falsas e de todo tipo de desinformação, gerando riscos para a ordem pública e afetando de forma concreta direitos individuais e coletivos, como a saúde e a educação e até mesmo políticos, especialmente no que se refere aos processos eleitorais. Tal massiva virtualização das relações sociais nesse ambiente ainda em fase de conhecimento e consolidação de normas espontâneas, como as normas morais e sociais presentes na sociedade tradicional, passou a produzir uma quantidade de conflitos incompatível com a regra prevista no artigo 19 do marco civil da internet.7 Deveras, se todas as postagens ofensivas, caluniantes ou mentirosas dependerem de intervenção judicial para sua remoção, teremos uma paralisia do Poder Judiciário. Para isso, é necessária uma revisão da ultrapassada regra adotada no artigo 19 do marco civil da internet. Uma das propostas é a substituição da medida judicial por outros meios alternativos, como termos de ajustamento de conduta.8 Martins e Longhi  observam ainda que a importação acrítica da regra do "notice and takedown" do direito americano ou eurocomunitário implica uma inversão do ônus da prova em detrimento do consumidor, violando o art. 51, VI, do Código de Defesa do Consumidor. Isso, porque ficaria o consumidor obrigado a provar que notificou a empresa responsável pela rede social solicitando a retirada de conteúdo danoso. Ainda segundo os autores, Em face da vulnerabilidade técnica e informacional do consumidor na Internet, mostra-se excessivo condicionar a responsabilidade do fornecedor a uma atitude prévia do consumidor, o que afronta, inclusive, o principio constitucional do livre acesso ao Judiciário (art. 5.º, XXXV, da CF/1988).9 Martins e Longhi10 defendem ainda a tese da responsabilidade objetiva dos provedores de redes sociais no direito brasileiro por danos causados por usuários a terceiros, à luz do art. 14 do Código de Defesa do Consumidor, o qual dispõe: Art. 14. O fornecedor de serviços responde, independentemente da existência de culpa, pela reparação dos danos causados aos consumidores por defeitos relativos à prestação dos serviços, bem como por informações insuficientes ou inadequadas sobre sua fruição e riscos. Segundo os autores, a responsabilidade objetiva dos provedores de redes sociais se justifica por três fundamentos: a) do controle maciço de informação para obtenção de remuneração mediante contratos de publicidade, b) detenção dos meios técnicos de se individualizar os reais causadores dos danos e c) realização da função social da atividade econômica, corolário da dignidade da pessoa humana (art. 1.º III, da CF/1988) e do princípio da solidariedade social (art. 3.º, I, da CF/1988). Ainda sugerem os autores que o risco do negócio e o pagamento de eventuais indenizações poderia ser embutido nos contratos de publicidade, devendo haver inclusive securitização contra esses eventos danosos.11 Concordamos apenas em parte com esse entendimento. De fato, nos casos em que o controlador das redes sociais utiliza o conteúdo gerado por provedores de informação para fins econômicos, o dano gerado com a informação tratada deve ensejar sua responsabilidade. No entanto, temos ressalvas quanto à responsabilização dos provedores de aplicativos por condutas exclusivamente imputáveis aos usuários. É o caso do uso de uma rede social para ofender ou caluniar alguém, em situações na qual a ofensa não é aferível de plano, ou a veracidade do fato depender de uma análise mais criteriosa. A aplicação do Código de Defesa do Consumidor a essas situações é, de fato, juridicamente possível, afinal o usuário de uma rede social é um consumidor do serviço. O fato de não pagar uma mensalidade, v.g., não desnatura essa relação, consistindo tal contrapartida em decisão livre do provedor. A questão que se coloca para responsabilização do provedor, contudo, encontra paralelo em outras relações consumeiristas em que um dano ao usuário é ocasionado não pelo prestador do serviço, mas por outro usuário. É o caso de um restaurante, de um estádio de futebol ou mesmo de um shopping, por exemplo. Imaginemos que um cliente de um restaurante ofenda outro cliente. Qual a responsabilidade do restaurante por esse ato? O artigo 14 do CDC apenas cria a hipótese de responsabilidade objetiva (sem comprovação de culpa) nos casos de falha de prestação do serviço pelo prestador. Assim, prevalece nos tribunais o entendimento de que uma briga de clientes no interior de um restaurante, por exemplo, não pode ensejar a responsabilidade do restaurante, salvo se for comprovada alguma omissão do estabelecimento.12 Entende-se, assim, que tal responsabilidade é excluída por fato de terceiro ou culpa exclusiva da vítima. A princípio, não vemos grande distinção entre a existência de ofensas ocorridas entre frequentadores de um restaurante, festa, supermercado, cinema, estádio de futebol, provedor de email, whatsapp e os "frequentadores" de redes sociais. Danos causados por usuários ou terceiros em qualquer relação de consumo apenas são imputáveis ao provedor dos serviços no caso de sua omissão ou culpa, o que deverá levar em consideração as peculiaridades da atividade exercida. No caso das redes sociais, contudo, vigora a regra do "'judicial' notice and take down". Tal regra pode ser considerada ruim, mas não é inconstitucional. Trata-se de uma opção feita pelo legislador entre outras que também seriam possíveis e encontrariam fundamento na Constituição brasileira.  Ponderaram-se os diversos princípios e valores constitucionais que informam o tema: de um lado, a liberdade de expressão e a proteção da livre iniciativa, sem a exigência de obrigações excessivamente onerosas; de outro, os direitos fundamentais ligados especialmente à proteção da intimidade, privacidade, honra, criança e adolescente, para citar alguns. No entanto, dada a dificuldade e morosidade da dependência da autorização judicial para remoção de conteúdo danoso, uma alteração legislativa se mostra necessária, adotando-se os exemplos eurocomunitário e estadunidense como referência, especialmente dispensando-se a medida judicial para sua remoção. Já o Projeto de Lei 2.630/2020, em tramitação na Câmara dos Deputados, vai na contramão dessas iniciativas, ao se exigir das redes sociais o dever geral de vigilância, em seu artigo 11, quanto a conteúdo disseminado por usuários que possam configurar alguns crimes ali previstos.13 A imposição desse relativo dever de vigilância pode ser feito sem onerosidade excessiva para as empresas por meio de sistemas de inteligência artificial que rastreiem publicações que veiculem práticas criminosas. Sem embargo, é necessária a criação de um procedimento interno de tratamento de notificações de usuários solicitando a remoção de conteúdo, de maneira fundamentada, por violar a propriedade intelectual, conter expressões ofensivas, discriminatórias ou simplesmente por veicular informações falsas. Após o recebimento da notificação, o conteúdo pode ser previamente suspenso por prevenção, dando-se a oportunidade de o criador ou veiculador exercer o contraditório e a defesa, garantindo-se ao denunciante a réplica ou mesmo a desistência do pedido, mediante convencimento. O sistema pode copiar os mecanismos de online dispute resolution (ODR), muito comuns para solucionar controvérsias entre plataformas de mediação de compras, como o Mercado Livre, Ebay etc. É claro que, na ausência de um acordo, a rede social deve tomar uma decisão sobre a exclusão ou não do conteúdo, o que pode ser feito pela contratação de mediadores ou árbitros. Tal providência seria, inclusive, bastante salutar, reparando-se postos de trabalho eliminados em grande parte pelas mesmas big techs que hoje administram as principais redes sociais do mundo. Desse modo, apenas nos casos em que a moderação de conteúdo na rede social seja questionada é que haveria o acionamento da máquina judiciária. Com o filtro promovido pelas redes sociais, o número de ações certamente seria bem menor. Além disso, com a criação de precedentes e entendimentos sumulados sobre as responsabilidades por tipos de conteúdos veiculados em postagens públicas em redes sociais, o número de demandas judiciais tende a diminuir. Embora já existam alguns mecanismos adotados pelas redes sociais para exclusão de conteúdo danoso, há a necessidade de uma uniformidade de padrões e procedimentos mínimos, o que deve ser feito por alteração legislativa. Nesse sentido, com algumas adaptações, o Projeto de Lei n. 2.630/2020, que aguarda votação no Plenário da Câmara dos Deputados, ao menos no que toca à regra para remoção de conteúdos ilícitos gerados por usuários, propõe uma providência razoável que não destoa de forma significativa - antes até aperfeiçoa - o modelo empregado pela União Europeia no Digital Services Act. As big techs não apenas deveriam se abster de promover lobby contra uma melhor regulamentação do assunto, como já terem criado mecanismos internos de moderação melhor desenvolvidos e aperfeiçoados, como uma medida de compliance e de boas práticas. Seu lucro exorbitante certamente não será afetado. __________ 1 Disponível aqui. 2 Sobre esse tema veja também: FLUMIGNAN, Wévertton Gabriel Gomes. Análise da responsabilidade civil no âmbito do Marco Civil da Internet e da Lei Geral de Proteção de Dados. Disponível aqui, acessado em 25 de abril de 2024. 3 Disponível aqui. 4 Cf. FLUMIGNAN, Wévertton Gabriel Gomes. Análise da responsabilidade civil no âmbito do Marco Civil da Internet e da Lei Geral de Proteção de Dados. Migalhas, 9 abr. 2021. Disponível aqui. 5 MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti. A tutela do consumidor nas redes sociais virtuais responsabilidade civil por acidentes de consumo na sociedade da informação. Revista de Direito do Consumidor, v. 78, p. 191-220, abr./jun. 2011, p. 11. 6 MIRAGEM, Bruno. Responsabilidade por danos na sociedade da informação e proteção do consumidor: defesas atuais da regulação jurídica da Internet. Revista de Direito do Consumidor. vol. 70. São Paulo: Ed. RT, abr.-jun. 2009, p. 41. 7 LIMA, Cíntia Rosa Pereira de. A responsabilidade civil dos provedores de aplicação de internet por conteúdo gerado por terceiro antes e depois do Marco Civil da Internet (Lei n. 12.965/14). Revista da Faculdade de Direito da Universidade de São Paulo, São Paulo, v. 110, p. 173, jan./dez. 2015. 8 MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti. A tutela do consumidor nas redes sociais virtuais responsabilidade civil por acidentes de consumo na sociedade da informação. Revista de Direito do Consumidor, v. 78, p. 191-220, abr./jun. 2011, p. 12. 9 Ibidem. 10 Ibid., p. 13. 11 Ibidem. 12 "APELAÇÃO. RESPONSABILIDADE CIVIL. INDENIZAÇÃO POR DANOS MATERIAIS E MORAIS. Ação ajuizada por consumidora agredida fisicamente por outros clientes em estabelecimento comercial da ré. Sentença de improcedência. Apelo da demandante. Falha na prestação dos serviços, porém, não configurada. Culpa exclusiva de terceiros. Danos que não podem ser atribuídos à omissão da ré. Ausência de nexo causal, pressuposto da responsabilidade civil. Sentença mantida. NEGADO PROVIMENTO AO RECURSO". (v.24628). (TJ-SP - APL: 10052910320148260477 SP 1005291-03.2014.8.26.0477, Relator: Viviani Nicolau, Data de Julgamento: 02/03/2017, 3ª Câmara de Direito Privado, Data de Publicação: 02/03/2017) 13 Disponível aqui.
sexta-feira, 19 de abril de 2024

Inteligência artificial e ética

Discorrer sobre a importância da Inteligência Artificial (IA), na atualidade, há de soar como mero truísmo, a menos que se acrescente algo  -  ou, pelo menos, se tente acrescentar, como pretendo fazê-lo, neste artigo  - , tal como ocorreu na oportuna contribuição de Dom Odilo Pedro Scherer, Cardeal-Arcebispo de São Paulo a esse Jornal, com o artigo Inteligência artificial e paz, na recente edição do dia 13/2. Destacou Sua Eminência, com propriedade, que "a dimensão ética está presente em toda atividade humana, ligada intimamente às decisões e intenções de quem produz e de quem aplica e usa os conhecimentos conquistados", acrescentando não ser "diferente com as diferentes formas e usos da inteligência artificial, capaz de imitar, de reproduzir e até criar ações típicas do homem." Assim, muito mais do que enaltecer os prodígios triunfantes da ciência e das inquestionáveis conquistas das inovações tecnológicas, nosso eminente cardeal põe em relevo a inafastável questão ética, que deve pairar acima, quer das pequenas vaidades pessoais, que parecem medrar cada vez mais na superficialidade cosmética da sociedade contemporânea; quer da visível discriminação algorítmica promovida pelos detentores do poder tecnológico; quer, em última análise, dos grandes interesses privados de dominação e controle. Tornou-se uma desculpa cada vez mais difundida diluir-se a responsabilidade por procedimentos inadequados às falhas do "sistema", como se este fosse o  culpado por todas as violações dos direitos básicos do usuário ou do consumidor. Essa patética tentativa de atribuir culpabilidade aos sistemas autônomos, feita pelos responsáveis por falhas, erros e danos causados a terceiros, não passa de notório arremedo. Como já assinalei no passado, as expressões ética empresarial, ética da empresa, ou, ainda, ética do mercado têm recorrentemente sido usadas por evidente antropomorfismo. Rigorosamente falando, tal emprego é equivocado, pois somente os homens possuem consciência moral e não as instituições por eles constituídas. As exigências éticas decorrem dessa consciência moral, que vem a ser exclusiva do ser humano. Vem-me à mente a seguinte passagem do saudoso Prof. Miguel Reale a respeito das insuficiências da ciência: "O problema do valor do homem como ser que age, ou melhor, como o único ser que se conduz, põe-se de maneira tal que a ciência se mostra incapaz de resolvê-lo. Este problema que a ciência exige, mas não resolve, chama-se problema ético, e marca momento culminante em toda verdadeira Filosofia, que não pode deixar de exercer uma função teleológica, no sentido do aperfeiçoamento moral da humanidade e na determinação essencial do valor do bem, quer para o indivíduo, quer para a sociedade." Esse problema ético, a que se referiu o grande jurisconsulto, é retomado agora, tanto por Dom Odilo Scherer, como pelo Papa Francisco, citado pelo nosso Cardeal, sob o prisma da necessária promoção da paz mundial. A história da humanidade já pôde mostrar ao mundo que grandes invenções do gênero humano foram colocadas a serviço da "banalização do mal", de que nos falava Hannah Arendt. Assim, os receios do Santo Padre são absolutamente fundados e devem ser a preocupação de todos nós: no estado de acrasia ética em que estamos mergulhados neste século XXI, caminhando para trás feito caranguejos (como nos mostrou Umberto Eco, em admirável obra), como acreditar que a inteligência artificial e a máquina de guerra construída pelas grandes potências nucleares não serão usadas contra a dignidade da pessoa humana?... Mesmo em Davos, cidade suíça onde se realiza o  Fórum Econômico Mundial, no qual CEOs de grandes empresas, ricaços globalistas e até mesmo Chefes de Estado se reúnem anualmente para fingir que discutem os destinos do mundo  -  ou para dizer, por exemplo, como o fez a presidente da Comissão Europeia, Ursula Von Der Leyen, que "a maior preocupação para os próximos dois anos" não é o conflito ou o clima, mas sim a "desinformação e a informação incorreta" -, parece que o fascínio pelos encantos da IA, tão decantados no Fórum do ano passado, foi substituído, neste ano, pelas preocupações com os estragos que essa tecnologia poderá causar à humanidade, se não houver adequada e responsável governança, como mostrou a edição do Estadão de 21/1 deste ano. Em suma, todos estão sintonizados com os possíveis problemas que a IA poderá trazer, valendo lembrar o artigo de José Pastore, O futuro do trabalho com a IA (Estadão de 25/1), o de Celso Ming, IA e destruição de empregos (Estadão de 26/1) e, ainda, Temor sobre mau uso da IA alcança as finanças e até a Justiça, matéria da edição do Estadão de 28/1. Concluo estas singelíssimas considerações, lembrando,  como já se disse algures, que o século XXI deverá ser o "Século da Ética" ou, então, poderá ser o último da história da humanidade.
A compreensão das potencialidades da educação digital ultrapassa as lindes da tecnocracia e deságua no clamor por um Estado capaz de dar concretude normativa aos deveres de proteção que lhe são impostos e, em última instância, à promoção da pacificação social (seu telos essencial); mas, sendo a sociedade da informação uma estrutura complexa, também aos cidadãos que tomarão parte desse metamorfoseado modelo administrativo-participativo devem ser conferidos os (novos) mecanismos de inserção e participação social. Um desses mecanismos adquire contornos normativos mais sólidos a partir da promulgação da Política Nacional de Educação Digital - PNED (lei 14.533, de 11 de janeiro de 2023), que detalha mecanismos de capacitação de competências específicas, como as digitais, midiáticas e informacionais. A Política Nacional de Educação Digital - PNED, foi criada devido a uma disposição do Marco Civil da Internet (lei 12.965/2014), que está prestes a completar 10 anos de promulgação. Refiro-me aos seus artigos 26 e 27, I, abaixo transcritos:  Art. 26. O cumprimento do dever constitucional do Estado na prestação da educação, em todos os níveis de ensino, inclui a capacitação, integrada a outras práticas educacionais, para o uso seguro, consciente e responsável da internet como ferramenta para o exercício da cidadania, a promoção da cultura e o desenvolvimento tecnológico.  Art. 27. As iniciativas públicas de fomento à cultura digital e de promoção da internet como ferramenta social devem: I - promover a inclusão digital;  Na sociedade em rede, descrita por Manuel Castells, surge como um desdobramento evolutivo da sociedade permeada pelas Tecnologias da Informação e Comunicação (TICs), configurando uma verdadeira 'nova era' na qual não se pode conceber a vivência social dissociada do acesso universal à Internet.1 Ter acesso à Internet se traduz em uma garantia de inclusão que se mostra 'relevante' para a vida em sociedade. Noutros termos, a 'relevância' - termo utilizado por Tefko Saracevic2 - adquire contornos que alçam a afirmação individual na sociedade da informação, a partir da enunciação de seus respectivos discursos, a um patamar fundamental. A despeito disso, o acesso à Internet não é universal, como se desejaria que fosse. Estatísticas mostram que, no Brasil, pouco mais da metade da população tem acesso à Internet3, o que denota uma enorme carência em termos de conectividade e gera exclusão. É importante registrar, de todo modo, que iniciativas voltadas à positivação desse direito existem no Brasil: (i) em 2011, por exemplo, foi apresentada a Proposta de Emenda à Constituição nº 6 daquele ano, que pretendia fazer constar do rol de direitos sociais do artigo 6º da Constituição o direito de acesso universal à Internet; (ii) mais recentemente, foi apresentada a Proposta de Emenda à Constituição nº 8/2020, que visa incluir expressamente o acesso à Internet no rol de direitos fundamentais do artigo 5º da Constituição. Um dos fundamentos da Lei Geral de Proteção de Dados Pessoais brasileira (Lei nº 13.709/2018, ou simplesmente LGPD) é a autodeterminação informativa (art. 2º, II), que revela essa dimensão de controle capaz de viabilizar as condicionantes para o exercício do equilíbrio sugerido pela leitura do conceito de privatividade. A partir dela, quando se cogita de um direito fundamental à proteção de dados pessoais4-5, deve-se, invariavelmente, proceder a uma investigação sobre as dimensões do conceito de privacidade, na medida em que a formatação de uma possível nova infraestrutura social6, a partir do implemento de técnicas direcionadas à coleta de dados e à formação de perfis para variados fins, representaria ruptura paradigmática capaz de atribuir novos contornos aos mencionados direitos fundamentais à intimidade e à privacidade.7 O saber tecnológico é solução necessária para a promoção do direito fundamental de acesso à Internet na sociedade da informação. Sem que se tenha cidadãos bem instruídos sobre os usos e práticas da tecnologia e das redes comunicacionais, qualquer medida destinada ao fomento da participação popular cairá no vazio. Dito isso, deve-se ressaltar que a Política Nacional de Educação Digital é composta por quatro eixos que, juntos, constituem a base da política em análise. Esses quatro eixos são: Inclusão Digital, Educação Digital Escolar, Capacitação e Especialização Digital, e Pesquisa e Desenvolvimento (P&D) em Tecnologias da Informação e Comunicação (TICs). A Inclusão Digital tem a responsabilidade de abranger todos os indivíduos nesse novo mundo digital. Considerando a significativa assimetria informacional, sobretudo no contexto tecnológico, o objetivo da inclusão digital é reduzi-la, ensinando àqueles que não possuem conhecimento como utilizar dispositivos tecnológicos e os cuidados que devem ser tomados ao manuseá-los, incluindo a vigilância contra crimes cibernéticos. A partir disso, é possível afirmar que, com uma implementação eficaz da inclusão digital, a sociedade brasileira se tornará mais igualitária, especialmente quando vista sob a perspectiva tecnológica. Isso facilitará a transmissão de informações, opiniões e a interação e comunicação entre os indivíduos. O eixo de Educação Digital Escolar tem como principal objetivo promover práticas pedagógicas que tornem o processo de ensino e aprendizagem mais dinâmicos e envolventes. Para atingir esse propósito, a PNED estabelece que o objetivo do eixo é "garantir a introdução da educação digital nos ambientes escolares em todos os níveis e modalidades, promovendo o letramento digital e informacional, além do ensino de computação, programação, robótica e outras competências digitais". O objetivo do eixo de Capacitação e Especialização Digital na Política Nacional de Educação Digital é capacitar a população brasileira em idade ativa, proporcionando oportunidades para o desenvolvimento de competências digitais a fim de promover sua plena integração no mercado de trabalho. O eixo em questão tem como objetivo implementar o uso das Tecnologias da Informação e Comunicação, conhecidas como TICs, ou alternativamente como TDICs, que se referem a Tecnologias Digitais da Informação e Comunicação. Sua função principal é servir como intermediário nos processos de comunicação entre diversos indivíduos. Nesse contexto, a política visa incentivar a pesquisa científica voltada para TICs inclusivas e acessíveis, com soluções de baixo custo. No entanto, lamentavelmente, são poucas as escolas, tanto públicas quanto privadas, que efetivamente incorporam o uso das TICs. Isso resulta em inovação educacional limitada, reduzindo os avanços e deixando as escolas defasadas. O ensino hodierno está intimamente ligado ao preenchimento das necessidades humanas, definidas por Abraham Maslow8 e perfeitamente enquadráveis no contexto da atual sociedade da informação, na qual se impõe o convívio com um novo ambiente chamado ciberespaço, em que a tecnologia atua como um poderoso componente do ambiente de aprimoramento individual. Nesse contexto, é preciso ressaltar que as relações sociais e pedagógicas, assim como os benefícios e malefícios trazidos pelas Tecnologias de Informação e Comunicação, são desdobramentos de comportamentos da própria sociedade, e não consequências da simples existência da Internet.9 Magda Pischetola registra três tipos de "competências digitais":  1) As operacionais: ou seja, o conjunto de habilidades técnicas que permitem ao usuário acessar as aplicações básicas das TICs on-line e off-line, como, por exemplo, o editor de texto, o e-mail, as atividades de busca on-line. 2) As informacionais: habilidades para pesquisar, selecionar e elaborar as informações que se encontram nos recursos da rede. 3) As estratégicas: habilidades para determinar metas específicas orientadas a alcançar outras mais amplas, com o fim de manter ou melhorar sua própria posição social.10  O desenvolvimento dessas competências (ou 'skills', para citar o termo utilizado por van Dijk e van Deursen11), é uma das chaves para a transição à sociedade da informação. Viver sem computadores está se tornando cada vez mais difícil, pois se perde um número crescente de oportunidades. Em várias ocasiões, as pessoas serão excluídas de acesso a recursos vitais. Todo candidato a emprego sabe que a capacidade de trabalhar com computadores e a Internet é crucial para encontrar e obter um emprego e, cada vez mais, para concluir um trabalho. O número de trabalhos que não exigem habilidades digitais está diminuindo rapidamente. A localização de empregos exige cada vez mais o uso de locais de vagas e aplicativos eletrônicos. Nas entrevistas de emprego, os empregadores solicitam cada vez mais certificados ou outras provas de habilidades digitais.12 Firme nesta premissa, infere-se que as plataformas vêm sendo desenvolvidas em, basicamente, três frentes: (i) "educational data mining", que nada mais é do que a mineração de dados voltada especificamente para a educação; (ii) "learning analytics", ou análise de aprendizado; (iii) "adaptive learning", ou aprendizagem adaptada.13 Marshall McLuhan dizia que, "[a]o se operar uma sociedade com uma nova tecnologia, a área que sofre a incisão não é a mais afetada. A área da incisão e do impacto fica entorpecida. O sistema inteiro é que muda".14 Nesse contexto, é preciso ter em mente que, "enquanto a análise de Big Data proporciona a possibilidade de relevar correlações entre os mais distintos eventos, ela não fornece a causa desses eventos".15 Nesse sentido, Edgar Gastón Jacobs Flores Filho lembra que "educar as pessoas para entender, empoderar e engajar pode ser um caminho para reduzir no futuro a opressão algorítmica e os vieses que se expressam em decisões automatizadas por meio de sistemas de inteligência artificial".16 Em conclusão, a LGPD do Brasil e a PNED se entrelaçam em um esforço conjunto para forjar uma sociedade mais igualitária, informada e protegida no cenário digital contemporâneo. Enquanto a LGPD se dedica a estabelecer diretrizes para a proteção de dados pessoais, garantindo a privacidade e a autodeterminação informativa dos cidadãos, a política de educação digital visa promover a inclusão e capacitação tecnológica em todos os níveis da sociedade. Ao endereçar a assimetria informacional e promover uma cultura de segurança cibernética e competências digitais, o Brasil se posiciona proativamente frente aos desafios e oportunidades da era digital. Essas iniciativas são cruciais para assegurar que os benefícios da revolução digital sejam amplamente acessíveis, marcando um passo significativo em direção a um futuro no qual a tecnologia sirva como ferramenta de efetivação de direitos. __________ 1 CASTELLS, Manuel. The rise of the network society. 2. ed. Oxford/West Sussex: Wiley-Blackwell, 2010. (The information age: economy, society, and culture, v. 1), p. 377-378. 2 SARACEVIC, Tefko. Relevance: a review of the literature and a framework for thinking on the notion in information science. Journal of the American Society for Information, Science and Technology, Newark, v. 58, n. 13, p. 1915-1933, out. 2007, p. 6. 3 COMITÊ GESTOR DA INTERNET NO BRASIL - CGI.br. Centro Regional de Estudos para o Desenvolvimento da Sociedade da Informação (Celtic.br). Pesquisa sobre o Uso das Tecnologias de Informação e Comunicação nos domicílios brasileiros - TIC Domicílios, 2017. Disponível em: https://cetic.br/tics/domicilios/2017/domicilios/A4/. Acesso em: 10 abr. 2024. 4 GONZÁLEZ FUSTER, Gloria. The emergence of personal data protection as a fundamental right of the EU. Cham: Springer, 2014. p. 48. 5 Sobre o tema, conferir, por todos, DONEDA, Danilo. O direito fundamental à proteção de dados pessoais. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti (coord.). Direito digital: direito privado e Internet. 5. ed. Indaiatuba: Foco, 2024, p. 45-46. SARLET, Ingo Wolfgang. Fundamentos constitucionais: o direito fundamental à proteção de dados. In: MENDES, Laura Schertel. DONEDA, Danilo. SARLET, Ingo Wolfgang. RODRIGUES JR, Otavio Luiz (coord.); BIONI, Bruno Ricardo (org.). Tratado de proteção de dados pessoais. Rio de Janeiro: Forense, 2021. p. 21-59. Ademais, no contexto jurisprudencial, em maio de 2020, o Supremo Tribunal Federal reconheceu o direito fundamental à proteção de dados ao suspender a Medida Provisória n.º 954, que determinava o compartilhamento dos dados pessoais dos usuários de telefonia pelas empresas telefônicas ao IBGE (STF, ADIs n.º 6.387, 6.388, 6.389, 6.390 e 6.393. Relatora Min. Rosa Weber. Julgado em 07/05/2020). 6 VAN DIJK, Jan. The network society. 3. ed. Londres: Sage Publications, 2012. p. 6. 7 STAPLES, William G. Encyclopedia of privacy. Westport: Greenwood Press, 2007. p. 93. 8 MASLOW, Abraham H. Motivation and personality. 2. ed. Nova York: Harper & Row, 1970, p. 21. 9 MONTEIRO, Renato Leite; CARVINO, Fabrício Inocêncio. Adaptive learning: o uso de inteligência artificial para adaptar ferramentas de ensino ao aluno. In: ABRUSIO, Juliana (Coord.). Educação digital. São Paulo: Revista dos Tribunais, 2015, p. 242. 10 PISCHETOLA, Magda. Inclusão digital e educação: a nova cultura da sala de aula. Petrópolis: Vozes, 2016, p. 42. 11 VAN DIJK, Jan; VAN DEURSEN, Alexander. Digital skills: unlocking the information society. Nova York: Palgrave Macmillan, 2014, p. 1. 12 Comentando o cenário legislativo brasileiro, Renato Opice Blum explica que "(...) pouco adiantará a aprovação de leis para garantir uma segurança maior ao usuário da rede mundial de computadores se ele, antes de iniciar a conexão com um mundo tão rico, tão vasto, tão cheio de informações, mas por vezes perigoso, não for educado digitalmente. Primeiro, é necessário que o usuário, tanto no âmbito pessoal, quanto profissional, e de forma preventiva, seja educado para isso. Por meio de educação voltada para o uso correto da Internet e de suas informações. Esse aprendizado deveria começar na fase escolar e perdurar por toda a vida do ser humano, ante o dinamismo e a abrangência do mundo virtual. Da mesma forma, as escolas devem fazer uso de uma Política de Segurança da Informação, aplicando sistemas eficientes para resguardar o sigilo de suas informações, especialmente de seus alunos. Entretanto, é importante observar que de nada adiantará a escola empresa ter uma estrutura adequada na área de Tecnologia da Informação se os professores, alunos e pais não tiverem consciência da importância de se garantir a segurança da informação." OPICE BLUM, Renato. O Marco Civil da Internet e a educação digital no Brasil. In: ABRUSIO, Juliana (coord.). Educação digital. São Paulo: Revista dos Tribunais, 2015, p. 189-190. 13 Sobre o tema, conferir: MONTEIRO, Renato Leite; CARVINO, Fabrício Inocêncio. Adaptive learning: o uso de inteligência artificial para adaptar ferramentas de ensino ao aluno. In: ABRUSIO, Juliana (Coord.). Educação digital. São Paulo: Revista dos Tribunais, 2015, p. 246; FALEIROS JÚNIOR, José Luiz de Moura; LONGHI, João Victor Rozatti. "Adaptive learning" e educação digital: o uso da tecnologia na construção do saber e na promoção da cidadania. In: BARBOSA, Mafalda; BRAGA NETTO, Felipe; SILVA, Michael César; FALEIROS JÚNIOR, José Luiz de Moura (Coord.). Direito Digital e Inteligência Artificial: diálogos entre Brasil e Europa. Indaiatuba: Foco, 2021, p. 735-737. 14 McLUHAN, H. Marshall. Os meios de comunicação como extensões do homem. Tradução de Décio Pignatari. São Paulo: Cultrix, 2007, p. 84. 15 MONTEIRO, Renato Leite; CARVINO, Fabrício Inocêncio. Adaptive learning: o uso de inteligência artificial para adaptar ferramentas de ensino ao aluno. In: ABRUSIO, Juliana (Coord.). Educação digital. São Paulo: Revista dos Tribunais, 2015, p. 245. 16 FLORES FILHO, Edgar Gastón Jacobs. A educação como um meio para tratar da ética na inteligência artificial. In: BARBOSA, Mafalda; BRAGA NETTO, Felipe; SILVA, Michael César; FALEIROS JÚNIOR, José Luiz de Moura (Coord.). Direito Digital e Inteligência Artificial: diálogos entre Brasil e Europa. Indaiatuba: Foco, 2021, p. 717.
Dedico este texto a todas as crianças brasileiras, incluindo meus netos. Introdução A princípio, a língua falada por um povo, ou por uma nação, pode ser entendida simplesmente como uma ferramenta de comunicação, de troca de símbolos e/ou palavras, utilizada por pelos indivíduos desse grupo no seu cotidiano para transmitir informações e argumentos a outras pessoas. No entanto, quem já morou por longos tempos fora do nosso país sabe a necessidade que temos de conversar usando nossa língua materna quando encontramos um conterrâneo. Seja lá qual assunto for, é um conforto imenso ouvir um som conhecido, usar uma expressão regional, brincar com o sotaque alheio, ouvir uma anedota, lembrar-se de dizeres de nossos pais e amigos, lembrar dos sons que "seu tio" fazia, músicas de ninar, letras marcantes, "ouvir os sons" de frases de livros conhecidos... a língua pode fazer marejar os olhos. É intrínseca ao ser falante. Colou-se nas nossas mentes. Domina formas de expressão que só existem na sua língua originária. Expressões sem tradução. Nesse contexto, não é possível dissociar a língua da cultura, pois ela representa a nação e tem uma relação estreita com a atitude ou comportamento dos grupos de falantes de uma língua. Mesmo que língua e cultura sejam traços distintos, existem muitos elementos que forçam uma relação de proximidade entre eles. Reparem, por exemplo no nosso caso, o caso de um país lusófono, ou seja, que tem a língua portuguesa como oficial ou como língua dominante. Somos um grupo de nove países lusófonos: Angola, Brasil, Cabo Verde, Guiné-Bissau, Guiné Equatorial, Moçambique, Portugal, São Tomé e Príncipe, Timor-Leste. Tomemos, a título de exemplo, três deles: Moçambique, Angola e Cabo Verde. Todos os três foram dominados por Portugal. Quatro contanto conosco. O cristianismo é presente em todos eles, ou seja, fomos formados nos moldes judaico-cristãos, a marca da civilização ocidental. Enquanto Angola já tinha a sua falofa, nós exportamos a nossa farofa. Todos comemos moquecas, feijoada (Portugal inclusive), cocada e mantemos vivo o bolo de mandioca. Nossos ritmos musicais se entrelaçam, nossas obras literárias são permeáveis pelas fronteiras físicas [3]. Embora também sejamos distintos em vários aspectos, todos abraçamos e mantemos a viva a mesma língua. Somos todos "moedas" destas nações, de um lado está a língua e do outro está a cultura. As línguas em número Atualmente são conhecidas mais de 7 mil línguas faladas no mundo. Esse mundo que eu falo é composto por 195 países. Sobram línguas. Entende-se aqui uma língua como um sistema de comunicação completo, ou seja, um sistema envolvendo a língua falada e a língua escrita. Estão fora desta conta, por exemplo, os 32 dialetos diferentes falados na Dinamarca. De todas estas línguas, apenas duas são faladas por mais de um bilhão de pessoas, o inglês e o mandarim [2]. A nossa língua ocupa a nona colocação entre as mais faladas com mais de 230 milhões de falantes, logo após o russo com 258 milhões. Embora 7.139 línguas [3] seja um número bastante grande para 195 países, milhares de línguas correm o risco de entrar em extinção. De acordo com as Nações Unidas, uma língua indígena morre a cada duas semanas [4]. Como vimos, as línguas refletem tradições, ideais, conceitos e entendimentos únicos que nem sempre  podem ser traduzidos. Como afirmou a linguista Anastasia Riehl, as línguas são "uma fonte inestimável de informações sobre a cognição humana" [5]. Guardem esse trecho, "língua como fonte de cognição humana". A cognição é a construção do conhecimento por meio do processamento de informação. Iremos juntar estas partes, língua, conhecimento e informação, adiante neste texto. Grande parte do perigo que ameaça as línguas indígenas é devido à transição do modo analógico (antigo) de vida para a vida digital. Insiro aqui o trabalho digital; a diversão digital; o digital que encurta as distâncias no mundo. Um estudo particularmente preocupante realizado pelo pesquisador András Kornai, um matemático linguista da Universidade de Budapeste, Hungria, previu que "menos de 5% de todas as línguas ainda podem ascender ao reino digital" e alertou que há "evidências de um grande declínio causado pela divisão digital" [4]. Pela colocação do Prof. Kornai, que por sinal não é uma voz solitária neste sentido, a grande ameaça atual às línguas pouco faladas (40% delas têm menos de mil falantes [3]) é a passagem para o mundo digital. Neste sentido, como veremos, está a nossa língua. Bem, o mundo digital reflete, em grande parte, o mundo real. A língua inglesa domina os sites no mundo, pois 52% deles estão escritos em inglês. Na sequência temos: Espanhol (5,5%), alemão, russo, japonês e francês ocupando valores na faixa dos 4% e o português ocupando a sétima colocação com os 3,1% já comentados. Oscar Wilde disse que a memória é o diário que todos carregamos. "A memória guardará o que valer a pena. A memória sabe de mim mais que eu e ela não perde o que merece ser salvo" disse Eduardo Galeano, o escritor As Veias Abertas da América Latina. É uma pena, mas somos um país em que pouco se escreve e, consequentemente, pouco publica na web. Bem, mas o que tudo isso sobre língua tem a ver com a Inteligência Artificial (IA)? Veremos abaixo que a língua está estreitamente relacionada com os rumos das abordagens de IA mais atuais. Vejamos!  As línguas e o estado da arte da Inteligência Artificial Atualmente quem "passa os olhos" sobre algum tema da área de Computação poderá perceber que o foco da área está na Inteligência Artificial. Temas correlatos como a tomada de empregos pela IA, responsabilidade pelas tomadas de decisão e, mais recentemente, os riscos aos direitos fundamentais e a democracia, todos estão de alguma maneira relacionado à IA. O que mudou recentemente no panorama da IA foi a criação bem-sucedida do que chamamos de IAs generativas, ou seja, IAs que geram textos, cartas, memorandos, ofícios, livros, respondem a perguntas, traduzem documentos, geram e fazem mixagem de imagens, vídeos... todos esses elementos, essas diferentes mídias, com uma realidade impressionante. Peças que realmente parecem ter sido geradas por humanos. Aqui mesmo no Migalhas vários artigos já foram publicados sobre este tema. Destaco este de minha autoria [7], o qual discorro sobre alguns detalhes técnicos importantes para o Direito. E o que estas IAs generativas tem a ver com a nossa língua? Bem, focando nas IAs generativas textuais, essas que geram, produzem textos, essas IAs são formadas a partir textos abertos ao público em geral, como por exemplo, quase todo o conteúdo da web, livros abertos e em domínio público, folhetins, propagandas etc. Todo tipo de texto sobre todos os temas em todas as línguas. Estas IAs aprendem a sequência de palavras descritas nestes textos e geram novos textos a partir do modelo textual que criam observando esta sequência gigante de palavras. Estima-se que são centenas de bilhões de palavras, ou até trilhões. Estas IAs são a consagração de um modelo computacional conhecido como modelo de linguagem e que hoje dita o que há de mais novo (e para muitos, assustador) na área de IA. Estas IAs generativas têm nomes já conhecidos, tais como o famoso ChatGPT, da empresa Open AI; o Copilot da Microsoft; a Meta, dona do Instagram, Facebook e WhatsApp, tem o Llama, e a Alphabet (Google) tem o Bard. Provavelmente você já deve ter usado uma destas IAs. Se você fez uma pesquisa recente no Google usando palavras-chave deve ter percebido que a primeira resposta devolvida foi um texto gerado artificialmente, elaborado para responder a sua pesquisa. Essa geração foi de um grande modelo de linguagem, uma IA generativa textual. Se ainda não usou para outros fins, sugiro que não fique para trás e faça seus testes. Dado que o enorme disparate relativo à presença das línguas na web (52% de inglês, e 3,1% para o português) e dado que as grandes big techs são hoje empresas sediadas nos EUA é fácil ver que o estado da arte na IA é construído sobre a língua inglesa. Não obstante as repostas traduzidas destes modelos de linguagem para o português, o cerne destas máquinas generativas é a língua inglesa. Lembram-se que antes, neste mesmo texto, chamamos a atenção para as palavras da linguista Anastasia Riehl que diz que as línguas são "uma fonte inestimável de informações sobre a cognição humana" [5]. Pois então, muito embora estas máquinas ainda não tenham a capacidade de raciocinar como nós humanos, a cognição é a construção do conhecimento por meio do processamento de informação. Lembro que essa informação hoje está toda em inglês e é sobre esta língua que estamos construindo as IAs que iremos adotar no Brasil? Será esse o futuro nosso, perder a soberania e a beleza da nossa língua para uma IA? Não me afeta a dinâmica de uma língua viva quando submetida à globalidade, como é o caso do Brasil. Toda língua viva sofre influências de estrangeirismos. Penso que se nós percebêssemos a semelhança entre os termos "smart phone" e "telefone inteligente" não cometeríamos esse tipo de engano ao nomear o respectivo equipamento que de "inteligente" nada tem. "Performance" parece um termo distinto e profissional, mas talvez evite comentários sobre o real "desempenho" da referida coisa. A coisa pode estar "on sale", mas entre quatro paredes o que convence mesmo a redução de preços, é a "liquidação". A pergunta é até quando devemos ceder a estas tentações? Deve haver um ponto de equilíbrio. Como pode um terminal de "check-in" no maior aeroporto nacional não se comunicar em português com o usuário? Um manual que não tem instruções em português? Um carro em que todos os controles estão etiquetados em inglês? E agora adotaremos uma IA "gringa"? Será que nosso IR, o leão, poderá ser analisado por uma IA estrangeira? Alguns ainda lutam e persistem. Outros já acordaram para o fato já há algum tempo, como a Maritaca AI [8] que é uma empresa brasileira, de Campinas, que desenvolve inteligências artificiais especializadas em domínios e idiomas. Com profissionais ligados à Unicamp, esta empresa criou o primeiro grande modelo de linguagem baseado na língua portuguesa, o sistema Sabiá que hoje está na sua segunda versão, o Sabiá-2, o qual já se mostra competitivo com o ChatGPT. Creio que a partir de iniciativas como essa é que poderemos avançar no conhecimento e nas aplicações que são voltadas aos textos, assim como é o Direito. Espera-se que essa atenção especial à língua portuguesa por parte de um modelo de linguagem criado sobre o português deverá propiciar, gerar e compreender textos que respondem à nossa lógica de argumentação e explanação que pouca ou nenhuma relação tem com o Direito baseado na common law, comum nos países de língua inglesa. Que venham as IAs generativas, é parte inevitável do futuro, mas que venham para nos auxiliar, que fale e que entenda nossos meios e costumes e, por isso, que venha em português. Que fale conosco como nós falaremos com ela. Se as novas tecnologias demandam atenção e, eventualmente, uma regulação por parte da sociedade, demandam também a preocupação com nosso futuro, com a nossa soberania e com a nossa cultura. Espero que, num futuro próximo, nossos descendentes possam decidir se preferem dizer "the book is on the table" ou se lerão as fábulas de Monteiro Lobato para seus filhos. __________  Referências bibliográficas  1. Com ampla diversidade cultural, países lusófonos africanos carecem de atenção do Brasil. Disponível aqui. Último acesso em 3 de abril de 2024. 2. The Most Spoken Languages 2023 Disponível no aqui. Último acesso em 3 de abril de 2024. 3. How many languages are in the world today. Disponível aqui. Último acesso em 3 de abril de 2024. 4.A language dies every 2 weeks. AI can help save them from digital extinction-or accelerate their demise. Disponível aqui. Último acesso em 3 de abril de 2024. 5. Why Are Languages Worth Preserving. Disponível aqui. Último acesso em 3 de abril de 2024. 6. Languages most frequently used for web content as of January 2024, by share of websites. Disponível aqui. Último acesso em 3 de abril de 2024. 7. Oportunidades e dificuldades das IAs (Inteligências Artificiais) generativas no Direito. Disponível aqui. Último acesso em 3 de abril de 2024. 8. Maritaca AI. Disponível aqui. Último acesso em 3 de abril de 2024.  
sexta-feira, 22 de março de 2024

O Uso do ChatGPT e do Gemini no fazer jurídico

Em 2018, o ex-advogado e ex-assessor de Donald Trump, Michael Cohen, foi condenado a 3 anos de prisão após confessar ser culpado por prestar falso testemunho ao Congresso dos EUA e de violar as leis de financiamento de campanha durante o processo eleitoral de 2016, no qual Trump fora eleito. Cohen também confessou ter participado na compra do silêncio de duas mulheres que, supostamente, tiveram relações com Trump, o escândalo envolvia a atriz pornô Stormy Daniels e a ex modelo da revista adulta "Playboy", Karen McDougal, após uma investigação do FBI que encontrou gravações entre Cohen e Trump comentando da compra do silêncio das moças. Cohen começou a cumprir sua condenação ainda em 2018 e, em julho de 2020, a justiça dos EUA decidiu soltá-lo em liberdade condicional, após um pedido de seu advogado, David Schwartz. Passaram-se os anos e a pandemia e, em novembro de 2022, o ChatGPT, da OpenAI foi lançado; em julho de 2023, a Google lançou o Bard (agora chamado Gemini), uma IA generativa concorrente ao ChatGPT, gerando uma grande revolução e debates sobre seus impactos, modos de usar, seus riscos, devido às possibilidades textuais e visuais de uma IA generativa e, também, seus benefícios - nesses debates também se incluiu o mundo jurídico, por óbvio; uma ferramenta que cria textos através de LLM, no caso do GPT, ou LaMDA, no caso do Gemini, em que se calcula a probabilidade da próxima palavra a ser escrita, simulando a linguagem natural humana, logo seria implementada no mundo jurídico. E assim foi. Mas qual a ligação entre IA generativa com o caso Cohen? Bem, em 2023, Michael Cohen enviou a seu advogado, David Schwartz, um documento detalhando 3 casos jurisprudenciais semelhantes ao seu para que ele criasse uma peça a ser apresentada ao juiz federal Jesse M. Furman, solicitando o fim antecipado da supervisão judicial para seu caso, pois Cohen já havia cumprido todos os pressupostos e condições de sua condenação. Assim Schwartz fez, entretanto, o juiz Furman, em 12 de dezembro de 2023, determinou que Schwartz esclarecesse e desse uma explicação detalhada sobre os 3 casos presentes em seu pedido, pois eles não existiam, e qual papel Cohen desempenhou naquela demanda. Michael Cohen admitiu que utilizou o Bard (hoje Gemini), alegando que acreditava que a IA era um super buscador do Google, e enviou os casos a seu advogado David Schwartz. Ambos, Cohen e Schwartz, alegaram na corte que não revisaram os casos citados anteriormente1. Isso não é apenas um caso isolado nos EUA, como demonstra o The New York Times2, dezenas de casos semelhantes de mau uso da tecnologia por atores do sistema judiciário estão se tornando corriqueiros. Outro caso interessante ocorreu em 2023, quando o juiz distrital de Manhattan P Kevin Castel, multou os advogados Steven Schwartz, Peter LoDuca e seu escritório de advocacia Levidow, Levidow & Oberman em U$ 5.0003, porque eles submeteram um pedido judicial com 6 citações de jurisprudência completamente falsas, criadas pelo ChatGPT. O advogado Steven Schawtz admitiu o uso da IA; o juiz Castel, em sua fundamentação à aplicação da multa, alegou que os advogados se abdicaram de suas responsabilidades como advogados quando submeteram os casos falsos a aquele tribunal. No Brasil, como o Migalhas4 já demonstrou, um juiz do TRF da 1ª Região utilizou o ChatGPT numa sentença, mas a IA também gerou casos fictícios de julgados do STJ como fundamentação - o juiz alegou que fora um servidor que criou a peça e ele apenas a assinou. Num outro caso de uso de IA, também divulgado por este Migalhas5, fora protagonizado por um advogado que utilizou o ChatGPT numa peça em que pretendia ingressar numa AIJE como amicus curiae, no TSE, contra o ex-presidente Jair Bolsonaro. O corregedor-geral da Justiça Eleitoral à época, Benedito Gonçalves, além de indeferir o pleito, determinou o desentranhamento da petição e ainda aplicou uma multa por litigância de má-fé no valor de R$ 2.604.  Inteligência Artificial Generativa Alucina  É comum o uso de conceitos biológicos no campo da tecnologia de IAs: redes neurais, "aprendizado" de máquina e, claro, alucinações, por exemplo. Os exemplos que citamos acima, da criação de jurisprudências falsas por IAs generativas como o Gemini e o ChatGPT, são alucinações dessas tecnologias. Diogo Cortiz6 afirma que alucinação ocorre quando a IA gera uma "resposta confiante, mas sem qualquer justificativa nos dados de treinamentos". A resposta de uma IA de linguagem natural é preditiva, ou seja, ela sempre analisa a probabilidade de encaixar a próxima palavra numa sentença de uma forma que a linguagem pareça humana. Uma IA como o ChaGPT, por exemplo, foi treinada com centenas de milhares de textos - e, tanto sua versão gratuita, o GPT 3.5, quanto a paga, o GPT 4, foram treinados numa base de 175 Bilhões de parâmetros - parâmetros são os valores das variáveis que influenciam o algoritmo a criar ou alterar seu comportamento no resultado pedido, quanto maior este número, maior a capacidade de aprendizado e o processamento dessas informações. Mas, há um cuidado importante que os usuários deste tipo de tecnologia precisam ter atenção: IAs generativas que utilizam o Large Languagem Model (LLM) ou o Language Model for Dialogue Applications (LaMDA), não entendem a realidade - é impossível para essas IAs entenderem o que estão escrevendo, as frases, por mais naturais que pareçam, são apenas modelos matemáticos. Vamos explicar melhor. Diogo Cortiz diz que um modelo de LLM, por exemplo, (pode ser o LaMDA), não entende o sentido das palavras, nem as frases que produz. Por exemplo - o ChatGPT tem em sua base de dados as palavras TSE, AIJE, tem também as palavras amicus curiae, dignidade da pessoa humana, acesso à justiça e etc - ele sabe que essas palavras são representações matemáticas que estão próximas de outras representações matemáticas, como "Direito", "Justiça", "Tribunal Superior", por exemplo; então, como é um modelo de linguagem preditivo, o ChaTGPT calcula a probabilidade de encaixar palavras relacionadas a essas duas representações matemáticas uma após a outra. É por isso que IAs de processamento de linguagem natural não são repositório de conhecimento ou de dados - são criadores de textos. Vale ressaltar que a versão paga do ChatGPT, o GPT 4, possui uma vasta biblioteca que utiliza o modelo GPT para diversas áreas, inclusive a acadêmica, onde ele pode anexar links de artigos sobre o tema proposto pelo usuário - entretanto, vale ressaltar que a responsabilidade da verificação das informações propostas pela IA sempre serão do usuário - exatamente porque a tecnologia pode alucinar - o que é diferente de quando o modelo de linguagem gera uma resposta com viés preconceituoso, estigmatizando minorias, por exemplo, pois, assim, a responsabilidade passa a ser da tecnologia (da OpenAI, no caso do ChatGPT e da Google, no caso do Gemini). Um estudo realizado por pesquisadores da Universidade de Washington7 e publicado na Cornell University em 2023, constataram que, quando o GPT ou GPT-4 geram uma alucinação e são solicitados pelos usuários a justificá-las, acabam criando mais alucinações, gerando um efeito cascata. No entanto, se o usuário iniciar uma nova conversa e questionar a IA sobre a veracidade de uma informação previamente fornecida, o GPT 3.5 e o GPT 4 são capazes de reconhecer seus próprios erros em 67% e 87% dos casos, respectivamente.  A responsabilidade em usar o ChatGPT ou Gemini no cotidiano jurídico  Precisamos insistir num assunto: a IA não é a vilã nesses casos que citamos acima, os usos incorretos desses modelos de linguagem podem ser pela falta de educação digital de grande parte da sociedade - o que inclui também a sociedade jurídica - sobre como o ChatGPT e o Gemini atuam criando os textos a partir dos prompts - por isso acreditamos que este artigo possui relevância ao contexto jurídico, mas ressaltamos que a responsabilidade por seu mau uso é do usuário, seja quem for, membros da OAB, da Defensoria Pública, do Ministério Público ou do Judiciário. Observem, tanto a OpenAI quanto a Google advertem aos usuários que seus modelos de linguagem podem fornecer informações inconsistentes e, por isso, necessitam de checagem. Mas, quando utilizada no mundo jurídico, o impacto dessas alucinações podem ser muito ruins. Por exemplo, um advogado representando uma causa legítima ingressa na justiça com várias jurisprudências e literatura jurídica criadas a partir de alucinações de IA, pode ser punido com litigância de má-fé, como vimos anteriormente, e a demanda do cidadão não será atendida? Um juiz que utiliza jurisprudências também criadas por alucinações - qual punição receberá? Ainda não vimos se esse tipo de ação irá ocorrer, pois o caso está sob análise do CNJ, mas a sentença ou decisão pode ser facilmente reformada, visto que parte da fundamentação não existe no mundo material. IA generativa de processamento de linguagem natural pode trazer grandes benefícios no cotidiano jurídico - a revisão gramatical de peças jurídicas, garantindo fluidez e coerência nos textos é só um exemplo do bom uso das IAs. A tecnologia não é assessor jurídico, porque não possui conhecimento, como já abordamos acima, entretanto, ela pode ajudar em trabalhos massificados - a utilização de modelos de petições e peças jurídicas já é utilizada tanto pela Advocacia, pelo Ministério público e pelo Judiciário de forma rotineira - facilitada pela digitalização - mas, pensemos, não seria coerente utilizar qualquer modelo, ou até mesmo não trocar a fundamentação dos modelos ao caso fático? Todos em suas práticas jurídicas já realizam este cuidado, por que não verificar a autenticidade das informações colhidas de IA quando as utilizarem? O uso de IAs generativas de processamento de linguagem natural já está sendo pensado para ajudar em tarefas administrativas de Tribunais, como no TJMG. Mas, diante da expansão do uso de IAs generativas pelo judiciário, ficam as reflexões, sobretudo na área da filosofia do Direito: pode um ChatGPT julgar? Ora, quem realizaria o accountability hermenêutico? Quem seria, na verdade, o sujeito da frase de Carl Schmitt8 (gênio, apesar de ligar-se ao autoritarismo): "Cæsar dominus et supra grammaticam: César também é senhor da gramática" - uma IA que não entende o que escreve não poderia julgar um caso, portanto, ora, o algoritmo não conseguiria responder com precisão quais os critérios utilizados para a decisão sem alucinar. A comissão de ética da OAB, a corregedoria do MP, a corregedoria do Judiciário vão agir como em relação aos "profissionais" que se abstém de estudar o caso e se utilizam da tecnologia para fazer um trabalho intelectual que é somente seu (ou deveria ser)? Não podemos cair no paradoxo pós-moderno: quanto mais informação, mais néscios. ___________ 1 Disponível aqui. 2 Disponível aqui. 3 Disponível aqui. 4 Disponível aqui. 5 Disponível aqui. 6 Disponível aqui. 7 ZHANG, Maru et al. How Language Model Hallucinations Can Snowball. Disponível aqui. 8 SCHMITT, Carl. Positionen und Begrif. Berlin: Duncker und Humblot, 1994.
A compreensão sobre gênero está em constante evolução e se relaciona com as transformações sociais e econômicas mundiais. Nesse contexto, a Lei Geral de Proteção de Dados Pessoais (lei 13.709/2018, ou apenas LGPD) ganha importância, pois busca garantir a proteção dos dados pessoais em um mundo cada vez mais conectado e digital. O Regulamento Geral sobre a Proteção de Dados Pessoais da União Europeia (2016/679(EU)) também é importante marco normativo para o tema, pois define dados pessoais como informações que identificam ou são potencialmente identificáveis de um indivíduo. Já a legislação brasileira vai além, pois apresenta uma diferenciação entre dados pessoais e dados pessoais sensíveis, reconhecendo estes últimos como informações que, pelo que se pode inferir de seu rol enunciativo (art. 5º, II), podem revelar aspectos íntimos da vida. As investigações em relação aos pormenores relacionados às questões de gênero vão além dos conceitos fixos de homem e mulher. Modifica-se a perspectiva do sistema binário da sexualidade apresentado pela sociedade, buscando-se compreender e refletir com a devida atenção sobre as novas formas de sexualidade que ressignificam e reivindicam olhares mais sensíveis para as medidas de proteção e garantia dos direitos relacionados ao gênero, uma vez que estas se fundam na compreensão das relações históricas e sociais acerca o tema. María Lugones1 explica que o sistema de gênero se associa com o sistema social e econômico não apenas de um local específico, mas se atrela a transformações a nível mundial, isso porque, apesar de cada sociedade viver sob um sistema próprio, ocorrem interferências e imposições de um país em relação a outro. Essas questões de dominação se modificam perante as transformações sociais e atingem não apenas a sociedade como grupo, mas também os cidadãos, independentemente do gênero. As correlações das questões de gênero perante a sociedade impõem a necessidade de que sejam identificadas áreas que carecem de análise diligente sobre o assunto. Nesse sentido, vislumbrando o crescimento constante de utilização das Tecnologias de Informação e Comunicação e a consequente importância da LGPD no atual contexto social, necessária a análise do respaldo propiciado por essa legislação para cada espécie de dado pessoal. É de bom alvitre registrar que, para além de uma proteção legislativa dos dados pessoais, a Emenda Constitucional nº 115/2002 acrescentou ao texto constitucional o direito à proteção de dados pessoais, incluindo o amparo como direito fundamental a partir de nova redação expressa, que consta do inciso LXXIX do artigo 5º da Constituição. Sobre o tema, destaca Daniel Piñeiro Rodriguez que "o direito à proteção de dados pessoais figura como garantia de caráter instrumental, derivada da tutela da privacidade, mas sem nela limitar-se, fazendo referência a todo leque de garantias fundamentais que se encontram na constelação jurídica-constitucional"2. Nesse sentido, a legislação brasileira apresenta tanto uma definição em relação a dados pessoais gerais, quanto uma definição para a categoria de dados pessoais denominados como "sensíveis", sendo que, de acordo com a diferenciação indicada pelo artigo 5°, nos incisos I e II, o dado pessoal é a "informação relacionada a pessoa natural identificada ou identificável", enquanto o dado pessoal sensível é definido enunciativamente como sendo aquele relativo a "origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural". Maria Celina Bodin de Moraes explica que os dados sensíveis se relacionam com as opções e características essenciais de um indivíduo, que são elementos que podem estar associados a situações de discriminação e desigualdade3. Constatação importante essa para compreender os entrelaçamentos existentes entre os direitos que se encontram resguardados pelo ordenamento jurídico com aqueles que requerem atenção mais específica. No entendimento de Wermuth, Cardin e Mazaro4, "os dados sensíveis estão intimamente ligados a muitos dos direitos da personalidade da pessoa, pois são aqueles que a qualificam individualmente, fazendo com que tenha um lugar único no mundo". E, de fato, a proteção dos dados pessoais está devidamente garantida perante a Constituição e a legislação infraconstitucional, porém, ao analisar as disposições existentes, verifica-se a ausência de abordagem explícita em relação a dados sobre gênero do ponto de vista conceitual/explicativo, pois o que o artigo 5º, inciso II, da LGPD apresenta é uma listagem das categorias que são reputadas como sensíveis para os fins de incidência da lei5. Segundo a doutrina, a ausência de indicação expressa sobre como seriam conceituados os dados sobre gênero gera complexa zona cinzenta, pois a lei ainda apresenta a expressão 'vida sexual' no mesmo rol, o que pode levar a diferentes interpretações. Uma dessas interpretações é a de que, do ponto de vista teleológico, o rol de direitos do titular definido na LGPD incluiria tanto orientação sexual quanto identidade de gênero dentro do contexto de 'vida sexual'6. Por sua vez, a interpretação abrangente do termo permite que se almeje a devida proteção das questões de gênero, não negando, principalmente, o devido amparo à população LGBTQIA+, para além dos fundamentos da Constituição da República brasileira, que seriam devidamente conservados7. Para fins de contextualização, convém lembrar que o primeiro pilar da sexualidade, o sexo, é definido como a conformação física ou morfológica genital constatada no instante do nascimento da pessoa, que haverá de ser consignada na Declaração de Nascido Vivo (DNV) e, ato contínuo, na Certidão de Nascimento da pessoa, atendendo, ordinariamente, ao padrão binário de homem ou mulher. Entretanto, existe um grande número de condições sexuais que não se enquadram nessa dualidade do ideal binário do homem/macho ou mulher/fêmea, caracterizando a figura da pessoa intersexo, situação que pode ser encontrada em até 2% da população mundial8. O gênero, por sua vez, é a expressão social que se espera de quem seja homem/macho (masculino) ou mulher/fêmea (feminino) a partir de expressões socioculturais9. É comum ocorrer confusão entre os conceitos de gênero e sexo, mas o primeiro difere da concepção do segundo. Logo, embora a sexualidade seja parte integrante dos direitos humanos, fundamentais e da personalidade, são recorrentes os equívocos na compreensão dos conceitos vinculados à sexualidade, bem como com a aplicação errônea em diversos documentos oficiais, legislações e decisões judiciais. Fato é que os dados pessoais, se mal categorizados ou inferidos, podem levar a discriminações de gênero porque muitos sistemas e processos que utilizam esses dados operam com base em estereótipos de gênero e normas sociais preconcebidas sobre como homens e mulheres devem se comportar e sobre quais são suas características fenotípicas10. Por exemplo, uma empresa pode usar dados como gênero e idade para decidir quem deve ser contratado para um determinado cargo, assumindo que homens são mais qualificados do que mulheres para certas posições ou que mulheres mais velhas têm menos capacidade de trabalhar em determinadas funções. O debate, então passa a se concentrar na parametrização de deveres, especialmente no contexto delimitado pelos princípios da prevenção (art. 6º, IV) e da não discriminação (art. 6º, IX) da LGPD, o que também abre margem ao debate sobre a imprescindibilidade da responsabilidade civil como instituto apto a solucionar eventuais as contingências decorrentes de situações danosas derivadas do enviesamento algorítmico de dados pessoais sensíveis sobre gênero11. Outra evidência disso é estruturação de revisões das decisões automatizadas (art. 20 da LGPD), que, desejavelmente, devem ser realizadas por agentes humanos (embora essa obrigatoriedade não conste mais do texto da lei). Bárbara Dayana Brasil destaca que "a proteção dos dados pessoais assume especial relevância, tendo em vista o modo como se procede a sua coleta, tratamento e processamento, assim como, a própria utilização dos dados"12. Assim, se a proteção insuficiente não pode ser admitida, sob pena de flagrante violação ao fundamento do inciso VII do artigo 2º da LGPD, que alberga "os direitos humanos, o livre desenvolvimento da personalidade, a dignidade e o exercício da cidadania pelas pessoas naturais", deve-se estruturar mecanismos de controle que atuem como freios aos desideratos que afastem os humanos de sua essência. Embora a legislação brasileira reconheça a diferenciação entre dados pessoais gerais e sensíveis, ainda há dúvidas sobre o escopo de proteção garantido aos dados pessoais sensíveis sobre gênero, às consequências das discriminações de gênero a partir do tratamento de dados pessoais e à responsabilização dos agentes de tratamento. Para mitigar a discriminação de gênero em contextos nos quais dados pessoais sobre gênero são tratados, é possível minimizar a quantidade de dados coletados e implementar medidas de privacidade, como o uso de dados anonimizados em vez de dados identificáveis direta individualmente, ou propensos à identificação por inferência. Também é importante garantir que as equipes responsáveis pelo tratamento dos dados sejam diversas e incluam pessoas de diferentes gêneros, de forma que diferentes perspectivas e experiências sejam consideradas no processo de análise de dados. __________ 1 LUGONES, María. Colonialidad y Género. Tabula Rasa, Bogotá, n. 9, p. 73-102, dez. 2008. 2 RODRIGUEZ, Daniel Piñeiro. O direito fundamental à proteção de dados: vigilância, privacidade e regulação. Rio de Janeiro: Lumen Juris, 2021, p. 181. 3 MORAES, Maria Celina Bodin de. Apresentação do autor e da obra. In: RODOTÀ, Stefano. A vida na sociedade de vigilância: a privacidade hoje. Tradução de Danilo Doneda e Luciana Cabral Doneda. Rio de Janeiro: Renovar, 2008, p. 7. 4 WERMUTH, Maiquel Angelo Dezordi; CARDIN, Valéria Silva Galdino; MAZARO, Juliana Luiza. Tecnologias de controle e dados sensíveis: como fica a proteção da sexualidade na lei geral de proteção de dados pessoais? Revista Jurídica Luso-Brasileira, ano 8, nº 3, p. 1065-1091, 2022, p. 1077. 5 FICO, Bernardo de Souza Dantas; NOBREGA, Henrique Meng. The Brazilian Data Protection Law for LGBTQIA+ People: Gender identity and sexual orientation as sensitive personal data. Revista Direito e Práxis, Rio de Janeiro, v. 13, n. 2, p. 1262-1288, 2022, p. 1265. 6 TEFFÉ, Chiara Spadaccini de. Dados pessoais sensíveis: qualificação, tratamento e boas práticas. Indaiatuba: Foco, 2022, p. 115. 7 COSTA, Ramon Silva. Proteção de dados sensíveis de pessoas LGBTI+: perspectivas sobre personalidade, vulnerabilidade e não discriminação. In: BARLETTA, Fabiana Rodrigues; ALMEIDA, Vitor (Coord.). Vulnerabilidades e suas dimensões jurídicas. Indaiatuba: Foco, 2023, p. 659-674. 8 CUNHA, Leandro Reinaldo da. A sexualidade como elemento juridicamente relevante e a necessidade de compreensão de seus aspectos básicos. Migalhas de Direito e Sexualidade, 26 jan. 2023. Disponível aqui. Acesso em: 10 mar. 2024. 9 CUNHA, Leandro Reinaldo da. A sexualidade como elemento juridicamente relevante e a necessidade de compreensão de seus aspectos básicos. Migalhas de Direito e Sexualidade, 26 jan. 2023. Disponível aqui. Acesso em: 10 mar. 2024. 10 ALMEIDA, Vitor; RAPOZO, Ian Borba. Proteção de dados pessoais, vigilância e imagem: notas sobre a discriminação fisionômica. In: EHRHARDT JÚNIOR, Marcos (Org.). Direito Civil: futuros possíveis. Belo Horizonte: Fórum, 2022, p. 219-250. 11 COSTA, Ramon Silva; KREMER, Bianca. Inteligência artificial e discriminação: desafios e perspectivas para a proteção de grupos vulneráveis diante das tecnologias de reconhecimento facial. Revista Brasileira de Direitos Fundamentais & Justiça, Belo Horizonte, v. 1, p. 145-167, 2022. 12 BRASIL, Bárbara Dayana. Os direitos humanos como fundamento da proteção de dados pessoais na Lei Geral de Proteção de Dados brasileira. In: CRAVO, Daniela Copetti; JOBIM, Eduardo; FALEIROS JÚNIOR, José Luiz de Moura (Coord.). Direito público e tecnologia. Indaiatuba: Foco, 2022, p. 54.
Quando falamos das IAs generativas no desempenho das várias ocuapações jurídicas, acredito que temos que aprofundar dois grandes temas: formação de datasets adequados que permitam desempenho responsável para a IA e possíveis impactos em médio e longo prazo nas diversas atividades que compõem o dia-a-dia das profissões jurídicas. Diversas iniciativas em curso no Brasil parecem que não estão muito atentas ao primeiro tema, mas não trataremos dele diretamente aqui, mesmo sendo objeto de muitas pesquisas em nosso laboratório na Universidade de Brasília. Vamos nos concentrar em aspectos do segundo tema.  Rememoro um artigo de 2023 de Antonio Prata, na Folha de São Paulo, sob o título "Burrice natural, inteligência artificial", pois retoma a ideia fatalista da lógica da competição (e substituição) da inteligência humana pela artificial.  Usando os neologismos "pitbots" e "chatbulls" (resgatando todo o temor ancestral que temos representados pelo estereótipo das feras caninas), se fala que o cenário futuro é recheado de incertezas.  O texto jornalístico destaca a conclusão de que é preciso diminuir a velocidade das inovações e que deveríamos escolher (pois, por enquanto, ainda estaria em nossas mãos) algo próximo a coleiras e focinheiras para a IA. Tenho forte antagonismo a esta ideia, pois, entre outras coisas, parece contrariar elementos típicos da natureza humana, tais como a curiosidade e a criatividade. Não parece crível que a velocidade da inovação, por força daqueles dois elementos (curiosidade e criatividade), tenda a diminuir. Acreditar em algo como uma moratória seria  negar a própria humanidade ou, no mínimo, uma ingenuidade estratégica. No entanto, entende-se muito adequado buscar aprofundamento na compreensão das questões envolvidas e examinar os riscos que se apresentam (que não são poucos!). Logo que as GPTs ganharam espaço, foi publicado um artigo científico sob o título: GPT are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models, mostrando uma visão de pesquisadores da OpenAI, sobre potenciais implicações de modelos generativos (os GPTs) e as tecnologias relacionadas a eles, com o mercado de trabalho norte-americano. A análise é impactante, indicando que cerca de 80% da força de trabalho estadunidense terá, ao menos, 10% de suas rotinas de trabalho alteradas pela IA e cerca de um em cada cinco trabalhadores terá metade da sua rotina impactada pela IA. Um dado relevante (e em forte medida inovador) deste artigo aponta para ocupações com salários mais altos geralmente apresentam maior exposição a impactos pela GPTs. A partir da análise desse artigo e da definição de uma avaliação de pontos de interesse para o mercado jurídico brasileiro, estruturamos uma pesquisa chamada GPTs e Direito: impactos prováveis das IAs generativas nas atividades jurídicas brasileiras (HARTMANN PEIXOTO; BONAT, 2023) em nosso laboratório com abordagens analíticas, avaliativas e descritivas, tendo como objeto o mercado jurídico brasileiro. O trabalho segue, até porque a disponibilidade de dados primários sobre a realidade brasileira é muito escassa o que obrigada o laboratório a produção/estruturação de dados para  os vários objetivos específicos de uma pesquisa abrangente. No entanto, muito já pôde avançar. Obviamente também foi necessário um  recorte de referenciais sobre o mercado de trabalho jurídico, buscando uma posição mais tradicional das ocupações, bem como uma conciliação com algumas tendências atuais de modo a embasar a formulação das hipóteses de impactos das GPTs sobre o mercado jurídico brasileiro. É possível verificar que a "preamar" da IA alterou-se significativamente também a área laboral, com impactos previstos para além das atividades repetitivas do dia-a-dia, havendo a indicação de aumento do impacto em atividades mais complexas, ressalvadas apenas as que apliquem conhecimentos de bases científicas ou habilidades de pensamento crítico, isto é, diretamente proporcional à importância de aplicação de conhecimentos científicos e habilidades de pensamento crítico está o decréscimo de exposição a sistemas GPTs. Uma posição conceitual robusta sobre IA é muito relevante, dentro da vastidão das compreensões possíveis, para uma análise adequada sobre seus prováveis impactos nas ocupações jurídicas. Como mencionado, é importante ter como premissa marcante que todas as atividades realizadas pelos humanos em um computador serão em algum momento impactadas pela IA. Mas é muito relevante perceber a criatividade humana no direcionamento do desenvolvimento de soluções tecnológicas voltadas para o auxílio humano. Isto é perfeitamente possível. Assim, o desenvolvimento, embora contínuo, pode ser direcionado pela função do auxílio, do conforto, da otimização do desempenho e do posicionamento para melhor aproveitamento das habilidades e competências cativamente humanas. Nosso posicionamento é muito assertivo neste sentido. Entendemos que a inadequada lógica da substituição, pois é concorrencial e prejudicial ao pleno desenvolvimento da lógica do apoio. E por desenvolvimento não nos restringimos a uma métrica puramente tecnológica da IA sobre o Direito, ou seja, uma expansão espacial na aplicação de IA, mas uma ampliação com um compromisso prévio com o respeito aos direitos fundamentais1 e a própria concretização deles - e esta postura é compatível com as forças da criatividade e curiosidade. Pode parecer uma distinção puramente semântica do conceito de IA, mas acreditamos que vai muito além disto, pois na medida em que em nossos elementos conceituais há a orientação pela figura de apoio tecnológico, os impactos serão significativamente diferentes.2 Como pôde-se perceber do conceito de IA, a reprodução parcial de atividades cognitivas humanas gera um campo muito grande de famílias de IA. Assim, tendo a clareza de que a IA não se resume às chamadas IAs generativas tem-se que estas GPTs (Generative Pre-trained Transformer) são componentes de uma nova família de ferramentas de IA, cujo conceito já tem alguns anos, mas que têm impressionado a humanidade recentemente pelos seus   impactos, que utilizam modelos de machine learning para geração de conteúdos, por exemplo textos em geral, codificações, expressões artísticas, realização de sumarizações, simulações de diálogos escritos etc. Este impacto recente se deve a maior sofisticação operacional e a amplitude de capacidade de respostas  que as últimas ferramentas têm apresentado. (Não nos esqueçamos dos riscos vindos principalmente da formação inapropriada de datasets!) Aplicações derivadas indicam possibilidades de otimização de desempenho e redução de custos na execução de diversas tarefas muito comuns às ocupações jurídicas. Ao contrário do que a literatura descritiva dos usos e aplicações de LLMs vinha identificando, sugerindo-se aplicações rotineiras e mais elementares, quando o tema é impacto profissional, o artigo que nos inspirou permite a percepção de uma importante novidade: o impacto se intensifica em atividades com maiores salários. Atividades ligadas a habilidades de programação e escrita tem indicativo de alta exposição à GPT. O fator limitante, por outro lado, são atividades que requerem habilidades de pensamento crítico ou fortemente ligadas à aplicação de conhecimentos científicos, ou seja, é relevante para a compreensão do alcance da GPT a variabilidade de habilidades para preparação da execução de um trabalho.  Um dado importante ao se analisar a pesquisa é a indicação que cerca de 28% a 40% da variação de exposição de uma determinada área de trabalho não tinha identificação de impacto face à presença de outras tecnologias anteriores. Este importante percentual, pode-se dizer assim, inaugura um ponto de inflexão sobre análises de impacto da IA no trabalho, isto é, a preamar da IA alterou-se significativamente também na área laboral. Embora os impactos das GPTs sejam generalizados, o artigo paradigma apresenta alguns destaques na área laboral com forte exposição à GPT: setores de processamento de informações ou que contam com o desenvolvimento de tecnologias complementares. Neste mesmo sentido, com o potencial uso geral das LLMs, de forma reflexa, promove um incremento de um desafio tanto para os formuladores de instrumentos regulatórios, quanto para políticas públicas e de boas práticas. De um modo geral, é muito presente a percepção que o trabalho que envolve rotinas repetitivas está mais sujeito a um deslocamento em razão da tecnologia3. Situamos este fenômeno ao colocar o papel de apoio que a IA tem a exercer no campo do desempenho profissional4. Também há que se destacar um fenômeno interessante sobre a ótica laboral associado a este deslocamento de tarefas que é o aumento de necessidade de novas tarefas (por novos conhecimentos, habilidades e competências) em razão da própria tecnologia.5 Também é necessário manter o entendimento que ao considerar o trabalho humano como um conjunto de tarefas associadas, seria raro imaginar uma ocupação para a qual as ferramentas de IA não pudessem executar total ou parcialmente uma tarefa (ELOUNDOU, et. al., p. 5. 2023). A vastidão de possibilidades para análise do mercado jurídico de trabalho impõe uma série de desdobramentos do estudo da temática que estão sendo conduzidos em nosso laboratório. Há uma grande dificuldade para encontrar uma base de dados atual e que realmente reflita a realidade das ocupações jurídicas brasileiras. Até mesmo no âmbito das profissões regulamentadas há um déficit informacional e de atualização muito importante6. O Ministério do Trabalho e Emprego - MTE disponibiliza a denominada Classificação Brasileira de Ocupações - CBO, aprovada pela Portaria 397, de outubro de 2002. Tal organização, desenvolvida a partir da década de 80, apresenta uma estrutura que considera ocupações mais tradicionais na atividade jurídica. Em nosso artigo publicado na Revista Sequência (HARTMANN PEIXOTO; BONAT,2023) realizamos a estruturação de parâmetros e hipóteses sobre os impactos nas atividades jurídicas. Aqui gostaria de destacar que cerca de 40% das atividades jurídicas altamente impactadas por sensibilidade a dados não possuem atenuantes de impacto e, portanto, podem ser severamente impactadas pela IA. Despachos de diversas naturezas, preparo de informações, trabalhos de assessoramento, assistência, atos de gestão e procedimentos automatizáveis se destacam. Assim, como hipótese, nas atividades levantadas, tem-se que as atividades constantes da Tabela 1 como as que sofrerão maiores impactos das GPTs: Tabela 1. rol de atividades jurídicas associadas ao provável impacto das GPTs ID ocupações impacto de dados índice excludentes de impacto (0-1-2) provável impacto GPTs 1 despachar alto [2] [0] [2] 2 preparar informações alto [2] [0] [2] 3 firmar compromisso alto [2] [0] [2] 4 assessorar alto [2] [0] [2] 5 assistir alto [2] [0] [2] 6 promover lotação alto [2] [0] [2] 7 promover distribuição de pessoal alto [2] [0] [2] 8 homologar atos alto [2] [0] [2] 11 apurar liquidez e certeza de dívidas alto [2] [0] [2] 12 promover execução de dívidas alto [2] [0] [2] 13 inscrição e controle de dívidas alto [2] [0] [2] 19 unificar jurisprudências alto [2] [0] [2] 21 editar enunciados alto [2] [0] [2] 24 formular regimentos alto [2] [0] [2] 25 instaurar processos administrativos alto [2] [0] [2] 34 fixar interpretação alto [2] [0] [2] 40 acompanhar andamento de processos alto [2] [0] [2] 41 apresentar petições interlocutórias alto [2] [0] [2] 45 identificar repetições de processos alto [2] [0] [2]   Desta avaliação também é possível levantar outra hipótese (que aliás está também apontada no artigo paradigma). Atividades típicas a carreiras  com padrão remuneratório maior podem ser impactadas diretamente pelas famílias GPTs, tais como: distribuição de pessoal, homologações de atos ou edição de enunciados. Assim, quanto ao alcance, é possível perceber uma linearidade em todas as ocupações jurídicas, que terão sua rotina de trabalho fortemente impactada pelo desenvolvimento das GPTs. Note-se que a partir da indicação de 45 atividades avaliadas, aquelas destinadas à reflexão e análise crítica não se encontram entre as mais impactadas, pois a elas são aplicadas atenuantes. Essa percepção nos encaminha à evidência de que as atividades jurídicas de maior complexidade nos direcionam ao conceito utilizado em nossas pesquisas de uso da IA como apoio da atividade decisória e de compreensão do Direito, não gerando, nesse primeiro momento, a substituição de atividades jurídicas complexas. Isso sugere um ponto de constatação: embora atividades com maior valor remuneratório tenham grande impacto, atividades de natureza personalíssima seguem possuindo alto valor de mercado. Cabe aqui, inclusive, uma analogia: o uso da internet propiciou às atividades jurídicas uma grande mudança de gestão de trabalho. Da contratação de empresas para leitura dos Diários Oficiais para o sistema push, da busca de jurisprudência no catálogo LEX ou nas bibliotecas dos Tribunais para o uso de plataformas digitais; das sessões presenciais de julgamentos para julgamentos virtuais. As atividades jurídicas sempre sofreram forte impacto pelo uso da tecnologia. O uso estratégico de informações sobre impactos pode, com o auxílio inclusive de IAs generativas, propiciar política pública estratégica e sensível a tais mudanças, fazendo o Estado agir através da regulação minimizando impactos negativos.(Aliás, o Brasil tem oportunidades históricas sob o ponto de vista regulatório que não podem ser perdidas!)    Uma hipótese que precisa ser urgentemente trabalhada sobre o mercado jurídico brasileiro e a grande quantidade de indivíduos habilitados pelo bacharelado que estão ficando de fora das atividades jurídicas. Será que as habilidades recebidas nos bacharelados não estão em sintonia com as demandadas pelo mercado jurídico contemporâneo? Avaliar competências e habilidades desenvolvidas nos cursos de bacharelado a partir desses impactos é fundamental para criação e desenvolvimento de novas atividades que serão necessárias para operar com um mundo mais digital. Há um campo gigantesco de análise e avaliações sobre dados, onde os conhecimentos ditos especialistas, isto é,  para os que têm conhecimento especializado sobre o Direito, têm grandes oportunidades de ocupação.  Referências BONAT, Debora; HARTMANN PEIXOTO, Fabiano;. Inteligência Artificial e Precedentes Coleção Direito, Racionalidade e Inteligência Artificial. 1a edição. v. 3. 2020. Curitiba: ed. Alteridade. ISBN 978-65-991155-0-9.  DR.IA. Site do Grupo de Pesquisa. Disponível aqui.   ELOUNDOU, Tyna; MANNING, Sam; MISHKIN, Pamela;ROCK, Daniel. GPTs are GPTs: an early look at the Labor Market impact potential of Large Language Models. arXiv:2303.10130v4 [econ.GN]. 2023. Acesso em 24 de abril de 2023.  HARTMANN PEIXOTO, Fabiano; BONAT, Debora. GPTs e Direito: impactos prováveis das IAs generativas nas atividades jurídicas brasileiras. v. 44 n. 93 (2023): Seqüência - Estudos Jurídicos e Políticos HARTMANN PEIXOTO, Fabiano; BONAT, Debora. Inteligência Artificial e Processo Judicial: otimização comportamental e relação de apoio. Revista Humanidades e Inovação - UNITINS v. 8 n. 47 (2021): Inovação, Novas Tecnologias e o Futuro do Direito I. 2021. Disponível em https://revista.unitins.br/index.php/humanidadeseinovacao/article/view/5710. Acesso em 30 de abril de 2023. HARTMANN PEIXOTO, Fabiano; SILVA, Roberta Zumblick Martins da. Inteligência Artificial e Direito. Coleção Direito, Racionalidade e Inteligência Artificial. Curitiba: Alteridade, 2019. HARTMANN PEIXOTO, Fabiano Inteligência Artificial e Direito: Convergência Ética e Estratégica. Coleção Direito, Racionalidade e Inteligência Artificial. Curitiba: Alteridade, 2020. HARTMANN PEIXOTO, Fabiano. Projeto Victor: relato do desenvolvimento da inteligência artificial na repercussão geral do Supremo Tribunal Federal. Revista Brasileira de Inteligência Artificial e Direito, v. 1, 2020. RBDI. AID-IA. 2020b. Disponível aqui.  PRATA, Antonio. Burrice natural, inteligência artificial. Coluna do jornal Folha de São Paulo, dia 25/03/2023.  SIQUEIRA, Dirceu Pereira; MORAIS, Fausto dos Santos; DOS SANTOS, Marcel Ferreira. Inteligência artificial e jurisdição: dever analítico de fundamentação e os limites da substituição dos humanos por algoritmos no campo da tomada de decisão judicial. Revista Sequência Estudos Jurídicos e Políticos. v. 43 n. 91. 2022. DOI. Acesso em 20 de fevereiro de 2023. ZHU, Qihao; LUO, Jianxi. Generative pre-trained transformer for design concept generation: an exploration.Disponível aqui. Acesso em 20 de abril de 2023. ___________ 1 Siqueira; Morais e dos Santos sintetizam: "A aplicação de ferramentas de IA à tomada de decisão judicial deve partir de uma filtragem constitucional que perpasse pelos princípios do devido processo legal, do acesso à justiça, do contraditório e do dever de fundamentação das decisões judiciais."(SIQUEIRA; MORAIS; DOS SANTOS, p. 3, 2022) 2 Há uma série de pesquisas ou P&Ds (algumas já publicadas) outras em andamento no laboratório DR.IA_UnB que partem desta concepção lógica, que afeta o impacto da IA sobre o Direito. As atividades, materiais e produtos estão disponíveis no site www.dria.unb.br. Sobre a lógica de apoio (ao longo do processo judicial) desenvolvemos que "Uma ação de apoio a essa etapa já é, per se, relevante, pois pode indicar uma série de cenários, racionalizar esforços e auxiliar estratégias. Em um espectro ampliado, um sistema de apoio que consiga também organizar o relato de um caso pode ser benéfico ao cidadão comum, sob o ponto de vista de melhorar sua compreensão dos direitos envolvidos em determinada situação e ser um importante fator de incremento de cidadania" (HARTMANN PEIXOTO; BONAT, 2021, p. 13). 3 Já trabalhamos sobre os impactos em rotinas jurídicas repetitivas e enfadonhas, por exemplo, no livro:  Inteligência Artificial e Direito (2019) e  Inteligência Artificial e Precedentes (2020) na  Coleção Direito, Racionalidade e Inteligência Artificial da editora Alteridade. 4 O papel de apoio da IA está no centro das pesquisas do grupo DR.IA e pode ser visto no  relato do Projeto Victor (HARTMANN PEIXOTO, 2020b): Projeto Victor: relato do desenvolvimento da inteligência artificial na repercussão geral do Supremo Tribunal Federal. Revista Brasileira de Inteligência Artificial e Direito. 5 O artigo paradigma aborda esta questão na passagem: "More recent studies have distinguished between technology's task-displacement and task-reinstatement effects (where new technology increases the need for a wider array of labor-intensive tasks) (Acemoglu and Restrepo, 2018, 2019). Several studies have shown that automation technologies have resulted in wage inequality in the US, driven by relative wage declines for workers specializing in routine tasks (Autor et al., 2006; Van Reenen, 2011; Acemoglu and Restrepo, 2022b)." (ELOUNDOU, et. al., p. 5. 2023) 6 Esta dificuldade impõe limites à formulação de hipóteses ao presente artigo e impulsionou o desenho de um projeto de pesquisa dentro do DR.IA que busca formar um dataset mais completo sobre as ocupações jurídicas, com descrição das principais atividades da rotina, habilidades e formação necessárias.
Introdução A Inteligência Artificial (IA), sobre a qual temos comentado muito ultimamente, trouxe uma nova modalidade de notícia intencionalmente enganosa que são as deepfakes. Esse novo conceito de fake news é fruto da fabricação de notícias enganosas em formato audiovisual de modo hiper-realista por meio das chamadas IAs generativas. Lembro que as IAs generativas são um tipo de sistema computacional baseado em redes de aprendizado profundo (deep learning) capazes de gerar textos, imagens ou outras medias em resposta a solicitações escritas em linguagem comum. Entro em mais detalhes sobre essas redes generativas mais adiante. Muitos devem ter assistido à um comercial de uma montadora de automóvel que foi veiculado em julho do ano passado em que a cantora Maria Rita contracena com sua mãe, Elis Regina (falecida em 1982, cuja imagem foi recriada por uma IA generativa), provocando um efeito visual que sugestionava uma participação de ambas no tempo presente1. Nesse comercial uma atriz dublê deu corpo à Elis Regina, e o rosto da Elis foi inserido depois utilizando ferramentas tipo as usadas em deepfakes. Não podemos chamar esse uso de IA de fake news, pois a intenção da propaganda não foi a de enganar o consumidor, embora este seja um bom exemplo do poder das IAs generativas, recriar o passado para modelar o presente. Deixo aqui uma dica bônus sobre um artigo do Migalhas no tema regulação da IA na propaganda2. Antes de entrarmos na polêmica sobre se o conceito de deepfake nasceu ou não no século XIX, vamos usar uma abordagem atual e pouco legal para a construção deste artigo, vamos conhecer mais sobre o presente para julgarmos o passado. Sendo assim, vamos conhecer mais sobre deepfake. Conhecendo mais sobre deepfake Sobre a palavra: A palavra "deepfake" é uma amálgama, uma combinação dos termos "deep learning" e "fake news". Já o conceito de deepfake remete às técnicas computacionais usadas para trocar o rosto de pessoas em vídeos, sincronizar movimentos labiais, elaborar expressões faciais e demais detalhes buscando resultados impressionantes e bem convincentes. Ou seja, criar um vídeo falso com uma voz falsa e que serve para confundir ou iludir o usuário. O conceito não é novo. Uma das origens aponta para um usuário da plataforma Reddit (uma rede social), de codinome deepfakes, que usou ferramentas de IA e aprendizado de máquina para criar um algoritmo para treinar uma rede neural para mapear o rosto de uma pessoa no corpo de outra. Isso ocorreu em 2017. Deepfake não pode ser confundida com shallowfake. Enquanto deepfake usa técnicas sofisticadas para criação de vídeos, sons e fotos, shallowfake utiliza técnicas refinadas de edição de sons e imagens. Ambas têm a intenção de fraudar, lograr, confundir o consumidor da notícia. Tanto deepfake quanto shallowfake se tornaram grandes preocupações do STF nas eleições de 20223. Shallowfake foi usada para mapear a voz de uma apresentadora do Jornal Nacional divulgando uma falsa pesquisa de intenção de votos. Enquanto isso, deepfake era ainda um problema aparentemente alheio com exemplos na Ucrania sobre um suposto discurso de rendição do presidente da Ucrânia Volodymyr Zelensky frente às imposições do seu adversário na guerra, o presidente da Russia Vladimir Putin, e exemplos anteriores, como na eleição norte-americana de 2020 quando Barack Obama aparece num fake vídeo chamando Donald Trump de "um idiota completo"4. Ferramentas tais como Reface, Zao, e FSGAN são usadas com intuito enganoso. O Reface é um aplicativo que usa IA para trocar rostos em imagens e memes famosos a partir de uma lista de exemplos oferecidos pelo aplicativo. Zao, um aplicativo muito popular em seu país de origem, a China, foi lançado em 2019 e também tem o objetivo de trocar rostos de pessoas em fotos e vídeos. Num outro espectro mais sofisticado temos o software Face Swapping GAN (FSGAN), aplicativo para a troca e reconstituição de rostos. Ao contrário dos anteriores, o FSGAN é independente do assunto e pode ser aplicado a pares de faces sem exigir treinamento nessas faces. O termo GAN no nome deste software refere-se ao que é chamado de rede adversária generativa, ou Gan do termo inglês generative artificial network. A Gan coloca dois algoritmos de inteligência artificial um contra o outro. O primeiro algoritmo, conhecido como gerador, alimenta ruído aleatório e o transforma numa imagem. Esta imagem sintética é então adicionada a um fluxo de milhares de imagens reais - de celebridades, digamos - que são alimentadas no segundo algoritmo, conhecido como discriminador. A princípio, as imagens sintéticas não se parecerão em nada com rostos. Mas repita o processo inúmeras vezes, com feedback sobre o desempenho, e o discriminador e o gerador aperfeiçoam a imagem. Com ciclos e feedback suficientes, o gerador começará a produzir rostos totalmente realistas de celebridades completamente inexistentes. Fazer um deepfake usando uma GAN não é tão simples assim devido ao trabalho de elaborar uma coleção de imagens usada para treinar essas redes neurais. Muitas vezes são usadas entre 5 e 10 mil imagens neste aprendizado. A pessoa responsável por projetar essa estrutura de aprendizado de máquina foi Ian Goodfellow, que era aluno de doutoramento na Universidade de Montreal em 2014, época em que trabalhava nos primeiros GANs com colegas universitários e seu orientador, Yoshua Bengio5. A preocupação com o uso destas técnicas computacionais para gerar fake news nestas eleições municipais já começou6. Ressalto, porém, que tudo tem seu outro lado e essas ferramentas de IA não necessariamente precisam ser usadas desta maneira. Estas IA generativas, a exemplo destas GANs, são usadas para outros fins bem mais nobres. A exemplo do artigo do Prof. Juliano Maranhão7, elenco algumas das possibilidades de uso inteligente, genuíno, puro e fidedigno das IAs. Foquemos nas campanhas eleitorais que usam várias mídias distintas, como TV, rádio, redes sociais e mídia impressa. O conteúdo a ser gerado pode ser criado, potencializado e melhorado com o uso destas IAs que geram imagens e vídeos sintéticos, podem ser usadas para gerar textos e discursos da campanha, corrigir estes textos, resumir os programas de governo, melhorar a resolução de imagens, construir textos com base em imagens, gerar texto a partir de vídeos, enfim, podem reduzir os custos comparativamente aos serviços que demandam produção humana e podem aumentar a produtividade das agências. Enfim, os recursos estão aí, cabem às pessoas fazerem suas escolhas sobre como usar estas tecnologias. Voltando ao questionamento original sobre o início das deepfake ter ocorrido no século XIX, vamos a um pouco de história. O que talvez seja a primeira deepfake Sabemos que a fotografia foi inventada, criada, no século XIX, mas essa criação não é reconhecida como sendo de um único inventor. Desde muito antes desta data a humanidade já conhecia técnicas para criar imagens a partir da luz natural, mas ninguém sabia como fixar as imagens criadas numa mídia, quer seja papel, metal ou o que depois conhecemos como filme fotográfico. No entanto, a partir de 1830 muitas pessoas descobriram métodos distintos de fixação de imagens8. Dentre estas pessoas destacamos Hyppolyte Bayard9 quem em 1839 criou um método fotográfico que consistia em mergulhar um papel numa emulsão de agentes químicos fotossensíveis, acomodar este papel numa câmara escura e expô-lo à luz natural através de um pequeno orifício aberto neste dispositivo. Bayard era mais que um funcionário público, era também um artista nato com gosto pela jardinagem e quem talvez tenha criado as primeiras selfies em que ele aparecia de olhos fechados devido à longa exposição à luz que seu método fotográfico demandava. Pena que não é esta a história da fotografia que conhecemos. Já ouvimos que o pioneiro da fotografia foi Louis Jacques-Mandé Daguerre (1787 - 1851), homenageado pela invenção do processo fotográfico daguerreótipo pela Academia Francesa de Ciências e pela Académie des Beaux Arts em 183910. Daguerre era um pintor e gravador romântico, famoso na sua época como proprietário do Diorama, um teatro que nos anos de 1820 encantava o público parisiense com pintura teatral e efeitos de iluminação. No entanto sua obsessão pela fixação de uma imagem numa placa de metal continuou até 1830 quando criou o daguerreótipo que era uma imagem única fixada numa folha de cobre banhada a prata altamente polida. Embora fosse um sujeito muito conhecido em Paris, Daguerre comentou sobre seu invento à poucas pessoas influentes na sociedade francesa. Por outro lado, Bayard estava disposto a compartilhar sua invenção com todos e em junho 1939 ele foi o primeiro fotógrafo a exibir suas fotos ao público quando organizou uma exposição de seus trabalhos artísticos. Bayard tinha a intenção de mostrar seu processo fotográfico para a Academia Francesa de Ciências, mas é neste ponto que entra em cena um político ardiloso de nome Francois Arago. François Jean Dominique Arago (1786 - 1853) foi um físico, astrônomo e político francês. Como político chegou a ser ministro por duas ocasiões e como físico suas descobertas da polarização cromática da luz e a polarização rotatória são muito conhecidas. Em 1811, trabalhando com Augustin Jean Fresnel, descobriu um novo processo de decompor a luz branca. No entanto, como presidente da Academia Francesa de Ciências, Arago tinha uma predileção pelos trabalhos de Daguerre. Em 1838, conhecendo seus trabalhos fotográficos, ele fechou um acordo com o governo francês para comprar os direitos sobre o processo de criação do daguerreótipo. Arago gostaria que a nova fotografia fosse um presente da França para o mundo. Paralelamente, Bayard chegou a mostrar seus trabalhos para Arago, mas ele protelou a apresentação de Bayard para a Academia até que fosse finalizado o acordo entre o governo francês e Daguerre, deixando assim Bayard "a ver navios". O governo divulgou o processo de Daguerre ao mundo. O processo se espalhou como "fogo em palha". Daguerre recebeu uma pensão vitalícia pelo seu invento e ficou conhecido pelo mundo todo como o criador do primeiro processo fotográfico. No entanto, Bayard partiu para a revanche. Ele chegou a demonstrar o seu trabalho para a Academia Francesa poucos meses depois de Daguerre, mas o processo de divulgação do daguerreótipo estava mais avançado e a Academia não se interessou. Foi nessa desilusão que Bayard cometeu seu "suicídio". Em 1840 Bayard publicou uma fotografia granulada de um cadáver parcialmente coberto encostado a uma parede. A imagem mostra um cadáver em aparente decomposição dado o escurecimento da pele do rosto e das mãos. O corpo e a face retratados são de Hippolyte Bayard, um dos primeiros inventores de processos fotográficos e agora é exposto como uma suposta vítima de afogamento. É no mínimo estranho o próprio autor publicar seu autorretrato já falecido. Atualmente, essa imagem da Bayard11 é tida como a primeira fake image e foi criada em protesto pela falta de reconhecimento que recebeu por suas contribuições para a invenção do meio fotográfico em papel. Imaginem vocês vendo uma imagem publicada em 1840 de uma pessoa morta. Isso numa época em que a única mídia de divulgação existente era a mídia impressa. As transmissões radiofônicas só iniciariam no século seguinte. Assim, uma manipulação fraudulenta e enganosa desta única mídia existente deveria refletir algo genuíno, real, o que se encaixa plenamente no conceito de deepfake atualmente. Vimos um pouco de história e um pouco de tecnologia para mostrar que, à despeito das inovações científicas, as velhas e sórdidas práticas continuam as mesmas. As tecnologias evoluem, mas a perfídia é a mesma. __________ 1. Comercial Volkswagen 70 Anos - Maria Rita e Elis Regina | CARROS | 2023 (Loometv). Disponível aqui. Último acesso em 12 de fevereiro de 2024. 2. Estamos prontos para regular o deepfake e a IA nas propagandas? Disponível no Migalhas. Último acesso em 12 de fevereiro de 2024. 3. Shallowfake e deepfake, os riscos para o brasileiro nas eleições. Disponível aqui. Último acesso em 12 de fevereiro de 2024. 4. What are deepfakes - and how can you spot them?. Disponível aqui. Último acesso em 12 de fevereiro de 2024. 5. The GANfather: The man who's given machines the gift of imagination. Disponível aqui. Último acesso em 12 de fevereiro de 2024. 6. 'Deepfake eleitoral': PF faz operação contra suspeito de usar IA para difamar prefeito de Manaus. Disponível aqui. Último acesso em 12 de fevereiro de 2024. 7. Inteligência artificial não é a vilã das eleições. Disponível aqui. Último acesso em 12 de fevereiro de 2024. 8. History of photography. Disponível no aqui. Último acesso em 12 de fevereiro de 2024. 9. Hyppolyte Bayard. Disponível no aqui. Último acesso em 12 de fevereiro de 2024. 10. Daguerre (1787-1851) and the Invention of Photography. Disponível aqui. Último acesso em 12 de fevereiro de 2024. 11. Fake news: the drowning of Hippolyte Bayard. Disponível aqui. Último acesso em 12 de fevereiro de 2024.
A opção eloquente do legislador brasileiro pela anonimização de dados como técnica adequada à dissociação de conjuntos de dados pessoais em relação às pessoas naturais às quais dizem respeito destoa da opção europeia, onde vigora o conceito de pseudonimização de dados como regra1. Em síntese, na Lei Geral de Proteção de Dados Pessoais brasileira (lei n. 13.709/2018), o dado anonimizado está conceituado no artigo 5º, III, como o "dado relativo a titular que não possa ser identificado, considerando a utilização de meios técnicos razoáveis e disponíveis na ocasião de seu tratamento". Para isso, realiza-se a anonimização, também conceituada na lei, no inciso XI do mesmo artigo, com a seguinte redação: "utilização de meios técnicos razoáveis e disponíveis no momento do tratamento, por meio dos quais um dado perde a possibilidade de associação, direta ou indireta, a um indivíduo". No Regulamento Geral sobre a Proteção de Dados da União Europeia (Regulamento 2016/679(EU)), por outro lado, optou-se por aderir ao conceito de pseudonimização de dados, definida, no Artigo 4.º, n.º 5, do regulamento, como sendo "o tratamento de dados pessoais de forma que deixem de poder ser atribuídos a um titular de dados específico sem recorrer a informações suplementares, desde que essas informações suplementares sejam mantidas separadamente e sujeitas a medidas técnicas e organizativas para assegurar que os dados pessoais não possam ser atribuídos a uma pessoa singular identificada ou identificável". Leitura apressada da LGPD brasileira parece indicar a impossibilidade da guarda do conjunto suplementar de informações que torna o mero "dado" um "dado pessoal", inclusive para fins de reidentificação ou desanonimização. Basicamente, quando se anonimiza dados, retira-se do conjunto analisado os predicativos que lhe conferem pessoalidade, tornando-o relativo a uma pessoa natural imediata ou potencialmente identificada (art. 5º, I, da LGPD). Porém, fora do rol de conceitos do artigo 5º da lei, optou o legislador por adotar a pseudonimização dos europeus para o escopo restrito dos estudos em saúde pública. Este tema está tutelado no artigo 13 da LGPD, segundo o qual, durante a execução de pesquisas em saúde pública, as instituições responsáveis podem acessar dados pessoais. Esses dados serão processados internamente e apenas para fins de pesquisa, sendo armazenados em um ambiente seguro e controlado, de acordo com normas de segurança definidas em uma regulamentação específica (que ainda não foi editada). Sempre que viável, pelo que prevê o caput do artigo 13, será dada prioridade à anonimização ou pseudonimização desses dados, assegurando também o cumprimento dos padrões éticos pertinentes a estudos e investigações. O §4º do artigo 13, por sua vez, prevê que, "para os efeitos deste artigo, a pseudonimização é o tratamento por meio do qual um dado perde a possibilidade de associação, direta ou indireta, a um indivíduo, senão pelo uso de informação adicional mantida separadamente pelo controlador em ambiente controlado e seguro". Basicamente, o mesmo conceito do RGPD europeu, formalmente indicado como de aplicação restrita aos casos de estudos em saúde pública. Os estudos em saúde pública são fundamentais para a promoção, proteção e restauração da saúde das populações em uma escala coletiva, transcendendo a abordagem individualizada da medicina clínica. Eles abarcam uma vasta gama de disciplinas, incluindo epidemiologia, estatísticas de saúde, gerenciamento de saúde, saúde ambiental, saúde mental, e políticas de saúde, oferecendo um arcabouço para entender os determinantes da saúde e as intervenções necessárias para prevenir doenças e promover estilos de vida saudáveis. Além disso, por meio da vigilância de saúde pública, é possível monitorar padrões de doenças, identificar surtos em estágios iniciais e responder de maneira eficaz para controlá-los, reduzindo, assim, a morbidade e mortalidade associadas. Tais estudos ainda fornecem evidências científicas que fundamentam decisões políticas e práticas em saúde, garantindo que os recursos sejam alocados de maneira eficiente e eficaz para atender às necessidades de saúde da população. Os estudos em saúde pública, por essas razões, dependem do acesso a dados pessoais para que se possa monitorar, avaliar e responder a questões de saúde que afetam populações. Em meio a uma enorme gama de dados, tem-se informações sobre condições de saúde, históricos médicos, detalhes sobre a exposições a riscos, comportamentos de saúde e demografia. A coleta, análise e utilização desses dados envolve, portanto, dados referentes à saúde das pessoas analisadas, que são dados pessoais sensíveis na LGPD (art. 5º, II), o que denota uma dimensão ainda mais acentuada de risco2. Logo, a anonimização de dados é desejável, pois converte o dado pessoal em dado anonimizado, afastando a incidência da LGPD - com todos os seus rigores - em relação às atividades de tratamento. Todavia, não é tema simples. A Autoridade Nacional de Proteção de Dados está realizando consulta pública sobre a matéria3 deverá editar guia orientativo específico muito em breve. Um dos temas sobre os quais se espera maior aclaramento é a interpretação sobre o que se considera "meios técnicos razoáveis e disponíveis no momento do tratamento", pois, ainda que o legislador tenha tentado elucidar tal descrição, indicando a imprescindibilidade da aferição de custo e tempo como "fatores objetivos" para fins de anonimização, no artigo 12, §1º, da lei, não há dúvida alguma de que tais fatores variam sobremaneira a depender do porte econômico do agente de tratamento de dados, da finalidade da atividade, do acesso que tem às melhores e mais sofisticadas ferramentas de cifragem, criptografia, supressão e randomização e de suas políticas de governança de dados4. Na área da saúde, porém, o problema se amplia: estudos em saúde pública foram realizados amplamente durante a grave crise sanitária de Covid-19, particularmente no Brasil5, cujas dimensões continentais demandaram complexa operação estruturada para a vacinação da população. Foram priorizados grupos de risco, profissionais da saúde e populações de faixas etárias mais elevadas, e, evidentemente, foram feitos estudos quantitativos sobre a parcela da população vacinada a cada ciclo de dosagem, e, também, sobre a eficácia de cada vacina. Essa importância é multifacetada, abrangendo, ademais, a compreensão da epidemiologia e transmissibilidade do vírus SARS-CoV-2 e a avaliação da segurança das vacinas desenvolvidas em resposta à doença. A pandemia, caracterizada por sua rápida disseminação e impacto significativo sobre a saúde global, economias e sociedades, exigiu uma resposta imediata e baseada em evidências científicas para mitigar seus efeitos. Tudo isso se enquadra nos dizeres do artigo 13 da LGPD e, desejavelmente, tais estudos deveriam ter sido realizados com a anonimização e pseudonimização dos dados pessoais das pessoas avaliadas. As vantagens da segunda técnica em relação à primeira são evidentes pelo próprio conceito: guardar informação adicional em ambiente controlado e seguro que permita retroceder para tornar o dado pseudonimizado um dado pessoal é essencial para que se possa auditar o estudo. O próprio Código de Ética Médica parece adepto à técnica da pseudonimização para as questões de saúde pública ao excepcionar do dever de sigilo profissional estampado no seu art. 73, os casos de tratamento de dados pessoais sensíveis do paciente por justo motivo ou dever legal, justamente como ocorre nos casos de doenças de notificação compulsória e ações de vigilância epidemiológica. Por outro lado, os riscos relacionados à manutenção desses conjuntos de dados em ambiente controlado são maiores do que na anonimização, e nem sempre se poderá aferir o grau de confiabilidade da guarda assumida por uma instituição de pesquisa, por mais séria que seja e por mais que se valha das melhores soluções de segurança da informação. Nos dizeres de Luis Eugenio Portela Fernandes de Souza, "dado um cenário inercial provável, sem mudanças significativas nas condições atuais, com o sistema público de saúde em uma situação de restrições econômicas e fragilidade política, mas com capacidade de resistência e avanços pontuais, por meio de iniciativas racionalizadoras das políticas de saúde, a Saúde Coletiva manteria a trajetória dos últimos anos, persistindo como área de conhecimento reconhecida, mas, ao mesmo tempo, teria limitações importantes quanto ao apoio a medidas concretas de intervenção e fortalecimento do Sistema Único de Saúde de acordo com seus princípios constitucionais"6. Sabendo que inexistem sistemas infalíveis ou completamente blindados contra acessos não autorizados, incidentes de segurança poderão surgir, deflagrando discussões mais complexas sobre eventual descumprimento dos preceitos da lei em relação ao dever geral de segurança estabelecido no artigo 46, ao próprio princípio da segurança do artigo 6º, VII, e às esperadas boas práticas relacionadas a dados pessoais, cujas exigências constam do artigo 50, §2º, da LGPD. Isso porque, embora não se negue a relevância da saúde pública e das instituições responsáveis pela realização dos sobreditos estudos, há limitações que não se pode desconsiderar. Portanto, reafirma-se a premência da discussão para que novos estudos possam aclarar o campo de incidência da tutela definida pelo artigo 13 da LGPD, especialmente a partir do labor regulatório infralegal da ANPD e de seu vindouro guia orientativo. Urge reconhecer a importância da conjugação da boa técnica aos padrões mais sólidos de segurança da informação para que a pseudonimização se torne a regra nos estudos em saúde pública, e não mera faculdade, inclusive se tornando preponderante em relação à anonimização de dados nesse contexto específico. __________ 1 FALEIROS JÚNIOR, José Luiz de Moura. Proteção de dados e anonimização: perspectivas à luz da Lei n. 13.709/2018. Revista Estudos Institucionais, Rio de Janeiro, v. 7, n. 1, p. 376-397, jan./abr. 2021, p. 378-379.   2 MASSENO, Manuel David; MARTINS, Guilherme Magalhães; FALEIROS JÚNIOR, José Luiz de Moura. A segurança na proteção de dados: entre o RGPD europeu e a LGPD brasileira. In: LOPES, Teresa Maria Geraldes da Cunha; SAÉNZ GALLEGOS, María Luisa. (Org.). Ensayos sobre derecho y sociedad en la era tecnológica. México: UMSNH, 2020, p. 121-165. 3 A Autoridade Nacional de Proteção de Dados (ANPD) iniciou a consulta pública sobre o Guia de Anonimização e Pseudonimização de Dados Pessoais no dia 30 de janeiro de 2024. Todas as informações estão disponíveis na plataforma Participa+Brasil até 28 de fevereiro de 2024. BRASIL. Autoridade Nacional de Proteção de Dados. ANPD abre consulta à sociedade sobre o Guia de Anonimização e Pseudonimização. ANPD, 30 jan. 2024. Disponível aqui. Acesso em: 1º fev. 2024. 4 CARVALHO, Fernanda Potiguara. Desafios da anonimização: um framework dos requisitos e bosa práticas para compliance à LGPD. São Paulo: Thomson Reuters Brasil, 2022, p. 178-192. 5 SANTOS, Rodrigo Lopes; CRUZ, Adriano da Costa. LGPD na saúde digital: gestão da tecnologia pós-pandemia coronavírus/Covid-19. In: AITH, Fernando; DALLARI, Analluza Bolivar (Coord.). LGPD na Saúde Digital. São Paulo: Thomson Reuters Brasil, 2022, p. 312-314. 6 SOUZA, Luis Eugenio Portela Fernandes de. Saúde pública ou saúde coletiva? Revista Espaço para a Saúde, Londrina, v. 15, n. 4, p. 7-21, out./dez. 2014, p. 19-20.
O deepfake se trata da utilização de inteligência artificial (IA) para que esta adultere sons e imagens, produzindo vídeos de conteúdo enganoso. É possível, por meio deste instrumento, alterar a movimentação dos lábios ou, ainda, colocar trechos de uma fala em um vídeo totalmente diverso, modificando o que determinada pessoa havia dito. Percebe-se que, devido ao deepfake possuir grande potencial de espalhar notícias falsas, as famigeradas fake news, ele foi amplamente explorado nas eleições, como nas dos Estados Unidos em 2016 e, principalmente, em 2020, além de ocorrer nas do Brasil, em 2022. Para a criação de deepfake, aplica-se a técnica de deep learning, a qual se trata de reprodução de um sistema neural humano artificial, adaptando-se e aprendendo por uma rede de dados. Nesse sentido, o programador utiliza de uma grande quantidade de software de código aberto e, a partir do conteúdo fornecido, os algoritmos da inteligência artificial ficarão um contra o outro, produzindo um loop infinito de feedback, para chegar em resultados cada vez mais precisos. Assim, por meio de fotos e vídeos que determinado indivíduo aparece, a IA consegue aprender como ele se comporta, a partir de características faciais, gestos, voz, dentre outras especificidades. Nas eleições dos Estados Unidos, em 2016, que elegeu o Donald Trump para presidente, os deepfakes estiveram muito presentes. Um caso notório que ocorreu foi um vídeo em que o ex-presidente Barack Obama estaria chamando o candidato Donald Trump de "um completo merda". Entretanto, foi revelado que isto não foi dito por Obama, mas sim pelo diretor Jordan Peele, concluindo-se que, na verdade, tal fala foi inserida em um vídeo verídico do ex-presidente. Ainda, nas eleições do referido país em 2020, o personagem político conhecido por proferir diversas fake news, Donald Trump, veiculou em suas redes sociais, inúmeros vídeos manipulados para atacar seu adversário, Joe Biden, culminando na criação da Microsoft de um software especializado em identificar deepfakes. Ao se analisar o panorama do Brasil, o caso mais conhecido de deepfake nas eleições de 2022 foi utilizado em vídeo da apresentadora do Jornal Nacional, Renata Vasconcellos, o qual foi adulterado para evidenciar uma falsa pesquisa de intenção de votos. Neste caso, a jornalista afirmava que o candidato Jair Bolsonaro estava à frente na pesquisa do Ipec, quando, de fato, era ao contrário: o candidato Luiz Inácio Lula da Silva que estava liderando a pesquisa. Existiram, também, diversos outros casos de relevância, como o que William Bonner, âncora do referido jornal, estaria chamando os candidatos à presidência de "bandidos" ou, ainda, um áudio falso em que o candidato à presidência, Ciro Gomes, acusava a existência de fraude eleitoral, com a ciência das Forças Armadas. Os impactos da propagação de deepfakes no cenário de eleições são evidentes e, primordialmente, preocupantes. Quando algum candidato a determinado cargo político é vítima de deepfake, isso pode alterar completamente o rumo das eleições, pois podem atribuir a ele qualquer fala inverídica que desejarem, incluindo falas racistas, misóginas ou homofóbicas, culminando na perda de diversos eleitores. Um grande aliado na propagação desses vídeos ou áudios alterados é o fato de que diversos indivíduos não checam a veracidade da informação, visto que, por se tratar, supostamente, da voz e imagem da pessoa, atribuem uma percepção de autenticidade e acreditam não haver necessidade de averiguar a situação concreta. Soma-se, ainda, o fato de que estes indivíduos compartilham com diversas outras pessoas ou grupos, o que ocasiona em um alto índice de compartilhamento e, portanto, maior alcance dessas inverdades. O que se observa atualmente é que não existe legislação específica que trate sobre o assunto, visto que se trata de ferramenta relativamente recente, assim como diversos tipos de inteligência artificial. Por mais que exista o Marco Civil da Internet e a Lei Geral de Proteção de Dados, que visam proteger o uso de tecnologia digital no Brasil, tais situações evidenciam a necessidade de se proteger os dados pessoais, para que sua ocorrência seja cada vez menor. Nesse sentido, os arts. 9º e 9º-A da Resolução 23610/2019 do TSE, que regulou a propaganda eleitoral nas eleições de 2022, preveem penalidades para a desinformação nas propagandas, situação a qual poderia ser incluída a utilização de deepfakes; entretanto, não se mostrou suficiente para o controle de tais técnicas. Com a finalidade de combater a desinformação e regulamentar o uso da inteligência artificial, foi criado o PL 2.630/2020, cujo relator é o deputado Orlando da Silva (PCdoB-SP), que foi aprovado em 2020 pelo Senado, mas ainda está em análise na Câmara. Em seu artigo 5º, § 3º, há a vedação ao deepfake, mas sem a previsão de responsabilidade cível ou criminal dos responsáveis. No mesmo percurso, foi criado o PL 21/2020, apresentado pelo deputado federal Eduardo Bismarck (PDT-CE), com a finalidade de estabelecer fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil, o qual foi aprovado pelo plenário no ano de 2021. No entanto, o PL 21/20 não apresenta qualquer disciplina específica quanto ao deepfake em período eleitoral. Outrossim, tem-se o Projeto de Lei n° 2338, de 2023, apresentado pelo Senador Rodrigo Pacheco, que visa à definição da necessidade de que os algoritmos tenham transparência e que sejam explicáveis, permitindo um melhor controle do conteúdo gerado pela IA. Não se pode esquecer do fato de ser apresentada em 27 de novembro de 2023 a Emenda 1 ao PL 2338/23 pelo Senador Astronauta Marcos Pontes, que, em seu art. 14, apresenta a necessidade de "imposição de marca d'água para rotular claramente o conteúdo gerado por IA" pelos operadores de sistemas de IA de qualquer nível risco que sejam responsáveis por gerar conteúdo o qual deverá ser autenticado.  Houve, também, uma iniciativa da Justiça Eleitoral sobre os impactos da LGPD no processo eleitoral de registro de candidatura, que ocorreu nos dias 02 e 03 de junho de 2022. Nesse cenário, os especialistas demonstraram uma necessidade de pensar acerca da finalidade e da minimização na coleta e na divulgação de dados nas plataformas de processo judicial eletrônico. Portanto, os diversos projetos de lei que tramitam, além de debates entre especialistas e o Poder Judiciário demonstram a necessidade de se regular o uso do deepfake e proteger os dados dos indivíduos. Se os projetos de lei forem aprovados, certamente serão grandes aliados das eleições no Brasil neste ano de 2024 e as que virão futuramente, evitando a propagação de fake news. __________ Referências bibliográficas CARVALHO, Antonia. Qual o impacto das deepfakes para as eleições? Politize, 2022. Disponível aqui. Acesso em: 28 de set. de 2023. ____. Deepfake: conteúdo do Jornal Nacional é adulterado para desinformar os eleitores. Jornal Nacional, 2022. Disponível aqui. Acesso em: 28 de set. de 2023. ____. Deepfake mostra pesquisa falsa na voz de Renata Vasconcellos, do Jornal Nacional. Exame, 2022 Disponível aqui. Acesso em: 28 de set. de 2023. DIAS, Jefferson A. SILVA, Fabiano F. Bots, fake faces, deepfakes e sua eventual influência no processo eleitoral democrático. Revista Anpal. ____. É falso áudio atribuído a Ciro Gomes sobre tomada de poder pelas Forças Armadas caso Lula seja eleito. Folha, 2022. Disponível aqui. Acesso em: 29 de set. de 2023. LEAL, Victoria L. Deepfake: como essa ferramenta pode afetar o andamento das eleições de 2022. AgeMt PUCSP, 2022. Disponível aqui. Acesso em: 29 de set. de 2023. MARTINI, Francisco. MORETTI, Isis. Deepfake: as consequências de se imitar a vida real. Conjur, 2022. Acesso em: 28 de set. de 2023. OLIVEIRA, Samuel Rodrigues de. Sorria, você está sendo filmado: tecnologias de reconhecimento facial, privacidade e proteção de dados. 2020. 149 f. UFJF, Juiz de Fora, 2020. OSÓRIO, Fábio M. PECK, Patrícia. Eleições serão afetadas por LGDP e fake news. Poder 360, 2022. Acesso em: 29 de set. de 2023. PEIXOTO, Fabiano Hartmann. Inteligência Artificial e Direito. Curitiba: Alteridade Editora, 2019. PRADO, Magaly Parreira do. Deepfake de áudio: manipulação simula voz real para retratar alguém dizendo algo que não disse. TECCOGS - Revista Digital de Tecnologias Cognitivas, nº 23, jan./jun. 2021, p. 45-68. ____. Regulação de inteligência artificial é defendida no Conselho de Comunicação. Agência Senado, 2023. Disponível aqui. Acesso em 28 de set. de 2023. SOARES, Olavo. Deepfake deve invadir campanha eleitoral: entenda como funcionam os vídeos manipulados. Gazeta do povo, 2022. Disponível aqui. Acesso em: 29 de set. de 2023. ____. Tecnologia mais acessível coloca deepfake ao alcance de um clique. Exame, 2023. Disponível aqui. Acesso em: 28 de set. de 2023.
Certamente as leitoras e leitores desta coluna Migalhas de Proteção de Dados já ouviram ou leram sobre Techlash, um termo derivado de "tech" (tecnologia) e "backlash" (reação contrária), refere-se à reação negativa, crítica ou aversão direcionada à indústria da tecnologia, especialmente às gigantes como Meta, Alphabet, Amazon, Apple e Microsoft. Essa oposição é impulsionada por preocupações relacionadas à privacidade, proteção de dados dos usuários e ao potencial de manipulação política.1 A autora Nirit Weiss-Blatt diz que estamos vivendo a era dos grandes escândalos das Big Techs, que é fruto da ideia libertária de não regulação e liberdade de expressão abstrata e absoluta desde os idos pré redes sociais, como demonstra Max Fisher, em seu Máquina do Caos. Esses escândalos podem ser vistos através da já conhecida manipulação de pessoas em momentos eleitorais com a disseminação de desinformação (fake news); a coleta ilegal de dados de usuários pelas Big Techs, o aumento de grupos e comunidades online para disseminação e fabricação de discursos de ódio, como 4Chan, 8Chan2, as comunidades no Reddit3 e no Telegram4 e a utilização de deep fake, utilizado tanto para hostilização ou vingança (ciberbullying), quanto para difamação e injúria. Deep fake, segundo Diogo Rais5, é a mistura de "deep learning" - o aprendizado profundo em que são treinadas as inteligências artificiais - e "fake news" - desinformação, assim, trata-se de um modo refinado de propagação de desinformação, através de vídeos, fotos, em sua maioria de personalidades, em que a imagem e áudio podem ser alteradas com o objetivo de manipular a população. O uso de deep fake é preocupante, por exemplo, quando da aplicação de Inteligência Artificial para desnudar as pessoas, os "nudification AI". Esta tecnologia é capaz de transformar imagens comuns e fotos de redes sociais em falsas representações de nudez. No Rio de Janeiro, adolescentes do colégio particular Santo Agostinho utilizaram essa ferramenta para manipular fotos de mais de 20 meninas, sem a obtenção de seus consentimentos. O impacto nefasto desse incidente evidencia a urgente necessidade de conscientização sobre os riscos associados ao uso irresponsável da inteligência artificial, bem como a importância de proteger a privacidade e dignidade das pessoas online por meio da regulação, ainda inexistente no Brasil. Antes de adentrarmos nas questões sobre regulação de IA e o que achamos ser necessário para evitar o mau uso de tecnologias, é imprescindível dizer que, neste caso do Rio de Janeiro, além de gerar traumas psicológicos nas adolescentes, esta forma de violência pode se tornar epidêmica. É válido ressaltar que no Brasil, a atriz Isis Valverde6 também sofreu esse tipo de violência e está buscando reparação jurídica e punição aos culpados. Também é importante salientar que os impactos psicológicos nessas adolescentes do Rio de Janeiro podem ser devastadores, como ocorre em casos de revenge porn (a pornografia de vingança) - porque as imagens corrompidas são difíceis de serem removidas da rede e as meninas terão seus nomes ligados a estas imagens falsas por muito tempo, desvirtuando seus ciclos sociais de convivência. No Brasil, temos o art. 241-C, do ECA, que prescreve como crime este tipo de simulação e divulgação de imagens pornográficas de menores, além de ser análogo ao crime de pedofilia; também há no Código Penal, o art. 218-C, que tipificou o crime de divulgar pornografia ou cena de nudez sem o consentimento da vítima. Dessa maneira, podemos entender as consequências que uma tecnologia utilizada de forma criminosa pode acarretar, tanto familiar e pessoalmente quanto ao realizar as denúncias devido à vergonha e a exposição das vítimas. Então quais as possibilidades para a prevenção ao mau uso da tecnologia? Entendemos que as medidas principais devem passar por, pelo menos, 4 fatores, vejamos. Desindexação do Link da Tecnologia Maléfica de Sites Buscadores  Este pode ser um tema polêmico, mas em se tratando de nudez, aplica-se o art. 21, ou seja, o provedor de aplicações responde subsidiariamente em se tratando de divulgação de conteúdo de nudez, quando notificado pela vítima não agir de forma diligente. Entretanto, softwares como os utilizados no caso da escola no Rio de Janeiro, não possuem uma finalidade voltada à criação de artes através de imagens como, por exemplo, o Midjourney ou o BlueWilow. A finalidade dessa IA é tornar fotos casuais em fotos com nudez, portanto, a falta de consentimento é quase inerente ao usuário que, além de ofender o ECA, em caso de menores de idade, e o Código Penal, ainda ofendem a LGPD, pois se trata da utilização de dado sensível, somente podendo ser objeto de tratamento se tiver uma das bases legais previstas no art. 11 da LGPD, além de atentar aos fundamentos da proteção de dados pessoais previsto no inc. IV do art. 2º da LGPD, ao violar a privacidade, a honra e a imagem das vítimas; bem como o inc. VII do art. 2º da LGPD, pois atenta contra os direitos humanos, o livre desenvolvimento da personalidade e a dignidade da pessoa humana. Portanto, a desindexação seria uma medida de caráter rápido, o que não impede a busca da responsabilização civil da vítima, sendo tal medida uma tutela que merece reflexão a cada caso, para não dar ensejo à revitimização com a quantidade de exposição de uma imagem com nudez falsa durante o trâmite processual. Além disso, numa busca rápida por qualquer dos buscadores mais famosos, Bing (Microsoft) e Google (que também é a base dos dispositivos IOS, com o Safari), no Brasil, pode-se encontrar uma miríade de softwares com nudity machine learning, isto é, as IA foram treinadas com imenso banco de dados com nudez para se adequar a cor da pele e as nuances corporais da vítima, por isso entendemos que seja  inviável responsabilizar apenas uma dessas empresas produtoras destes softwares, assim, a desindexação seria a primeira forma de evitar o contato fácil de usuários com tais IA's.  Regulação de IA no Brasil Como podemos definir a regulamentação da Inteligência Artificial? Regulamentar implica estruturar um sistema intricado de termos, unidades e categorias para estabelecer uma base (complexa) que assegure ou aprimore a eficácia do objeto regulado, sem obstruir os avanços tecnológicos e econômicos. A legitimidade da tecnologia é crucial para evitar responsabilidades - em outras palavras, regulamentar envolve criar um conjunto de regras e normas que facilitem a interação da IA com a sociedade, promovendo a resolução eficaz de conflitos, prevenindo danos e otimizando sua eficiência7. Quando estamos diante do debate sobre regulação de IA, é crucial que entendamos o que estamos almejando regular. Pois bem, IA são orientadas por humanos com sistemas que empregam algoritmos para compreender, interpretar e tomar decisões, seja na esfera física ou digital. Esses mecanismos processam dados adquiridos através de machine learning (v.g., deep learning and reinforcement learning), analisando informações estruturadas ou não, e aplicam raciocínio para determinar ações que melhor atendam aos objetivos estabelecidos8. Apesar das tecnologias utilizando IA serem consumidas no Brasil, ainda não possuímos legislação adequada para regular o estado em que se encontra a utilização dessas ferramentas no país. Em 2021, o governo federal, através do Ministério da Ciência, Tecnologia e Inovações, lançou a EBIA9 (Estratégia Brasileira de Inteligência Artificial), um documento com pouco mais de 50 páginas que norteia o bom uso de IA e também serve de guia para pesquisas e inovações. Entretanto, quem lê o documento perceberá que são citados todos os mecanismos e institutos para a implementação e criação de IA éticas, que respeitem a privacidade e os direitos fundamentais, contudo não há definições claras de como isso será instituído, quando e quais sistemas (modelos) merecem maior ou menor atenção. Como salientamos acima, é preciso dizer qual é a IA, qual sua finalidade, quais meios de accountability estão disponíveis (a) métodos de explicação; b) testes e validação; c) indicadores de qualidade do serviço; e d) desenvolvimento de uma IA guardiã10) e infelizmente o documento não nos dá nenhuma resposta. Há também um projeto de Lei oriundo da Câmara dos Deputados e agora em trâmite no Senado Federal sob a relatoria do senador Rodrigo Pacheco (PSD/MG) que versa sobre a regulação de IA. O PL 2338/2023, corrigiu inúmeros erros e omissões daquele vindo da Câmara, como inserir no texto conceitos e princípios de governança como accountability, a privacidade, respeito aos dados pessoais, ao Estado de Direito e seus direitos fundamentais e etc. Contudo, o PL 2338/2023, mesmo com as audiências públicas das quais participaram especialistas, ainda não avançou em temas relevantes para a regulação como, por exemplo, identificação de viés algoritmo; responsabilização sobre racismo algorítmico e, sobretudo, deveria ter como fundamento o respeito e proteção à criança e ao adolescente, como demonstra a nota técnica da Coalizão de Direitos na Rede sobre o PL11.  Outro ponto relevante em que o PL é carente, é a escolha do modelo regulatório escolhido em seus dispositivos. Temos ao menos os modelos (i) clássico; (ii) modelo emergente; (iii) modelo ético e; (iv) modelo cautelar, cada um com suas peculiaridades, algumas omissões, mas ao menos é uma tentativa de regular estas tecnologias12, respeitando princípios como (i) não discriminação; (ii) possibilidade de revisão e previsão de viés algoritmico; (iii) privacidade e (iv) accountability, já utilizados na regulação de IA na União Europeia. Regulação das Redes Sociais A regulação de plataformas digitais no Brasil sofre do mesmo mal da regulação de IA. Os projetos não avançam em questões extremamente relevantes, mas em outros Estados eles prosperam com alguns erros e omissões, claro, porque a tecnologia avança mais rápido que a análise pontual dos legisladores, entretanto a União Europeia lidera e gera boas lições e debates sobre regulação, sobretudo a Alemanha com a NetzGD, que desde 2017 inseriu o Código Penal Alemão em seu corpo normativo numa tentativa de prevenir a desinformação e o discurso de ódio. No Brasil, pelo menos desde 2018, há centenas de projetos de lei em trâmite ou ainda em análise em comissões no Congresso Nacional sobre regulação de redes sociais. O projeto que está à frente das discussões é o PL 2630/2020, de relatoria do deputado Orlando Silva (PCdoB/SP), oriundo do Senado Federal. O PL já sofreu grandes mudanças como, por exemplo, a retirada do dispositivo que criaria uma autoridade nacional de regulação - pressuposto para a constituição da autorregulação regulada, tornando indefinível o modelo de regulação que almeja o Legislativo brasileiro. Pontos a serem considerados são: a adoção do Código Penal à temática da tipificação penal quanto à disseminação de desinformação, por exemplo. O tema é sensível, pois institutos penais precisam respeitar o princípio da subsidiariedade e o PL acerta em punir grupos que realizam ações coordenadas de disseminação de fake news e discurso de ódio, ao contrário da punição de apenas um indivíduo que divulga tais temáticas. Contudo, este projeto necessita de melhorias nos princípios de governança e transparência, melhor definição da responsabilização das redes em casos de conivência com a permanência de grupos e comunidades que exaltam o preconceito e a discriminação, além da divulgação e disseminação de pornografia infantil13. O Projeto de Lei, atualmente, está em fase de votação, ainda incompleta, pois devido ao lobby robusto das Big Techs, que recebem valores altos em receita com o modelo de autorregulação, atuaram com propaganda e pressão em parlamentares da oposição ao governo para impedir a votação do projeto.14 Educação Digital O tema da educação digital é abordado tanto em projetos de regulação de IA, quanto de redes sociais. A educação não apenas fomenta a desconfiança do que é consumido na rede, ensinando onde realizar a checagem de fatos, mas também ensina quais os direitos do usuário, quais seus limites e os limites da plataforma, fomenta denúncias a comportamentos danosos na rede e etc15. Este tema é relevante, porque o perfil do usuário de redes sociais brasileiro já melhorou em relação a conteúdos com desinformação, entretanto, segundo pesquisa do InternetLab e Rede Conhecimento Social, dos participantes entrevistados no estudo, 44% expressaram sua convicção na autenticidade da informação quando depositam grande confiança na fonte que compartilhou a notícia. Ao analisar as inclinações políticas, aqueles que se identificam como adeptos da direita estão mais inclinados a confiar em seus círculos de confiança (57%), seguidos pelos da esquerda (47%) e do centro (43%)16. Portanto, é necessário urgentemente regulamentar a inteligência artificial (IA) para preservar os direitos fundamentais dos indivíduos e usuários da internet. À medida que as gigantes da tecnologia enfrentam uma reação negativa devido a questões como privacidade e manipulação política, a regulação da IA emerge como um componente essencial para mitigar riscos e abusos de machine learning. A proteção de crianças e adolescentes ganha destaque nesse contexto, exigindo medidas rigorosas para salvaguardar esse público vulnerável contra conteúdo danoso online. Destacamos mais uma vez a vital importância da regulação das redes sociais no enfrentamento ao impacto prejudicial da disseminação de desinformação, discursos de ódio e práticas nocivas na rede. A definição de diretrizes claras e a efetiva implementação dessas regras são passos indispensáveis para assegurar um ambiente digital seguro e responsável para as crianças e adolescentes e ao Estado. __________ 1 É o que ensina a pesquisadora Nirit Weiss-Blatt, em seu The Techlash and the Crisis Comunication. Los Angeles: Emerald Publishing Limited, 2021, p. 60. 2 FISHER, Max. Máquina do Caos: como as redes sociais reprogramaram nossa mente e nosso mundo. São Paulo: Todavia, 2023, p. 73. 3 Ibidem, p.95. 4 Disponível aqui. 5 RAIS, Diogo. SALES, Stela Rocha. Fake News, Deepfakes e Eleições. In. Fake News: a conexão entre a desinformação e o direito. (Coord.) Diogo Rais. São Paulo: Thomson Reuters Brasil, 2020, p. 28-29. 6 Disponível aqui. 7 Menengola, E., Gabardo, E. ., & González Sanmiguel, N. N. (2023). A Proposta Europeia de Regulação da Inteligência Artificial. Seqüência studos Jurídicos Políticos, 43(91), 1-27. Disponível aqui. 8 FACELI, Katti; LORENA, Ana Carolina; GAMA, João; CARVALHO, André Carlos Ponce de Leon Ferreira de. Inteligência Artificial: Uma Abordagem de Inteligência de Máquina. Rio de Janeiro: LTC, 2011. 9 Disponível aqui. 10 HARTMAN, Ivar A et al. Policy Paper: Regulação de Inteligência Artificial no Brasil. Disponível aqui. 11 Disponível aqui. 12 OLIVEIRA, Cristina Godoy Bernardo de. Regulação de IA e Modelos Jurídicos. 26 de maio de 2023. In: Reconhecimento facial: A tecnologia e os limites para sua utilização. ALESP. YouTube. Disponível em: Reconhecimento facial: A tecnologia e os limites para sua utilização. 13 CURZI, Yasmin. ZINGALES, Nicolo. GASPAR, Walter. LEITÃO, Clara. COUTO, Natália. REBELO, Leandro. OLIVEIRA, Maria Eduarda. Nota técnica do Centro de Tecnologia e Sociedade da FGV Direito Rio sobre o substitutivo ao PL 2630/2020. Rio de Janeiro: FGV Direito Rio, 2021. 14 Disponível aqui. 15 Educação Midiática. 16 Disponível aqui.