COLUNAS

  1. Home >
  2. Colunas

Migalhas de IA e Proteção de Dados

Oferecer uma visão 360º sobre a Lei Geral de Proteção de Dados.

Cintia Rosa Pereira de Lima, Cristina Godoy Bernardo de Oliveira, Evandro Eduardo Seron Ruiz, Nelson Rosenvald e Newton de Lucca
A sociedade digital contemporânea evoluiu do simples online para o denominado "onlife", no qual experiências reais e virtuais se relacionam, modificando profundamente a forma como interagimos e vivemos. Tal transformação impõe desafios ao Direito, exigindo uma percepção aguçada e o desenvolvimento de regulamentações específicas para acompanhar os avanços tecnológicos1. Nesse cenário, os neurodireitos têm ganhado destaque, sendo objeto de debates e regulamentações em diversas partes do mundo. Um exemplo notável ocorreu com a Constituição do Chile2, que foi emendada para proteger a integridade e a segurança psíquica diante do avanço das neurotecnologias. De maneira semelhante, a Espanha deu um importante passo com a Carta de Direitos Digitais, aprovada em julho de 2021. No item XXVI do Capítulo 53, a norma aborda os direitos digitais no uso de neurotecnologias, determinando que as condições, limites e garantias para a implementação e utilização dessas tecnologias sejam regulamentados por lei, com observância de finalidades específicas. Nos Estados Unidos, o Estado do Colorado4 aprovou uma legislação pioneira ao incluir os dados neurais entre os direitos de privacidade. A lei ampliou a definição de dados sensíveis na legislação estadual sobre privacidade pessoal, abrangendo informações relacionadas à atividade cerebral e derivadas do sistema nervoso, em resposta ao crescente interesse das empresas de tecnologia nesse campo. No Brasil, o debate sobre os neurodireitos está em ascensão, especialmente com a Proposta de Emenda à Constituição n. 29, de 2023, que visa inserir o inciso LXXX ao artigo 5º da Constituição Federal, conferindo aos neurodireitos o status de direito fundamental5. Destaca-se, nesse contexto, a iniciativa acadêmica do Professor Eduardo Tomasevicius Filho, que, no primeiro semestre de 2024, ofereceu a disciplina "Direito Civil na Recepção Dogmática dos Neurodireitos" no programa de Pós-Graduação da Faculdade de Direito da Universidade de São Paulo (USP). O curso proporcionou uma pesquisa coletiva e colaborativa, analisando os neurodireitos sob a ótica da legislação e da doutrina, promovendo uma reflexão aprofundada sobre o tema. O futuro dos neurodireitos tende a ser um campo de crescente relevância e complexidade, a depender do desenvolvimento das tecnologias, das técnicas empregadas e das informações neurais extraídas. Nesse cenário, analisar os dados neurais e a possível existência de uma nova categoria de bens, denominada bens neurais, revela-se essencial. Em relação aos dados pessoais, o art. 5º, inciso I, da Lei Geral de Proteção de Dados (lei 13.709/18) os define como informações relacionadas a uma pessoa natural identificada ou identificável. Em consonância com essa definição, Antonia Espíndola Longoni Klee e Guilherme Magalhães Martins6 afirmam que dados pessoais são informações que permitem identificar o indivíduo a quem dizem respeito. Com o avanço das tecnologias, surge a necessidade de analisar a coleta de dados íntimos e mentais, que podem ser utilizados para as mais diversas finalidades, desde a melhoria da qualidade de vida até o induzimento a comportamentos específicos. Partindo da premissa da Lei Geral de Proteção de Dados e do anteprojeto do Novo Código Civil, que propõe inserir o inciso VIII ao artigo 2º, considera-se a possibilidade de inclusão dos dados neurais como uma categoria normativa, inicialmente vinculada aos direitos da personalidade. Os dados neurais podem ser obtidos por meio de diversas técnicas e dispositivos, como eletroencefalogramas (EEG), ressonância magnética funcional, interfaces cérebro-computador (BCI), entre outros. Essas informações incluem: atividades elétricas em diferentes regiões do cérebro, imagens cerebrais detalhadas, padrões de ativação neuronal que podem estar associados a pensamentos, emoções, movimentos ou outros processos mentais e fisiológicos, e até mesmo dados de interação entre diferentes regiões do cérebro. Esses dados, portanto, referem-se às informações íntimas e mentais coletadas sobre a atividade e os processos do sistema nervoso, especialmente do cérebro, relacionadas a uma pessoa natural identificada ou identificável. Contudo, com o avanço das tecnologias, certas informações cerebrais podem eventualmente adquirir conteúdo econômico, classificando-se como bens neurais. Embora relacionados aos dados neurais, os bens neurais diferem por possuírem um caráter patrimonial/econômico associado. Assim, enquanto os dados neurais envolvem informações íntimas e mentais sobre a atividade e os processos do sistema nervoso, os bens neurais possuem as mesmas características, acrescidas de um conteúdo patrimonial. Pode-se concluir, assim, que os dados neurais são uma categoria na qual os bens neurais são uma espécie qualificada pelo conteúdo patrimonial/econômico. Todo bem neural é um dado neural, mas nem todo dado neural será um bem neural. A diferença fundamental entre eles é a presença do elemento patrimonial. Como exemplo de dados neurais, podem ser citadas informações sobre doenças neurológicas e suas consequências, bem como aspectos físicos relacionados à pessoa da qual esses dados são extraídos. Tais informações configuram-se como meros dados, uma vez que, em um primeiro momento, não apresentam um interesse patrimonial propriamente dito. Com o desenvolvimento acelerado das neurotecnologias, é possível que, ao longo dos anos, algumas informações extraídas de dados neurais passem a adquirir um caráter patrimonial. Considere, por exemplo, a possibilidade de que, por meio da leitura de dados cerebrais, seja possível identificar como o cérebro de uma pessoa reagiu a uma doença psíquica e alcançou a cura com o uso de um medicamento específico. Essa informação teria um grande valor econômico, pois inúmeras pessoas que enfrentam a mesma condição quanto indústrias farmacêuticas interessadas no desenvolvimento de novos tratamentos poderiam desejá-la. A importância da distinção entre dados neurais e bens neurais é de fundamental importância, pois envolve a aplicação de regimes jurídicos distintos. Dados neurais, por não possuírem caráter patrimonial, estão sujeitos à sistemática dos direitos da personalidade, protegendo aspectos essenciais da dignidade e da identidade humana e podendo ser defendidos por aqueles legitimados em lei. Em contrapartida, bens neurais, por possuírem caráter patrimonial, estariam submetidos ao regime jurídico da propriedade, sendo inclusive passíveis de transmissão por herança. Em relação à herança, merece destaque a abordagem adotada pela Espanha na Carta de Direitos Digitais, aprovada em julho de 20217. No item VII do Capítulo 1, que trata dos direitos de liberdade, incluindo o direito à herança digital, a Carta estabelece que cabe ao legislador definir quais bens e direitos de natureza patrimonial são transmissíveis por herança e quais estão vinculados aos direitos da personalidade, podendo ser objeto de defesa, preservação e memória. Essa medida pode servir como referência para outros países e legislações, possibilitando, futuramente, uma distinção legal entre dados neurais e bens neurais e maior segurança jurídica quanto ao tema. Portanto, o avanço legislativo diante dos desafios impostos pelas neurotecnologias e pela integração dos bens neurais ao patrimônio digital é indispensável. A categorização dos dados neurais como bens neurais, quando possuírem conteúdo patrimonial/econômico, representa um passo crucial para assegurar segurança jurídica e proteção adequada desses ativos no ordenamento jurídico. Essa evolução é fundamental para promover um futuro mais seguro e equilibrado no campo dos direitos digitais e dos neurodireitos. _______ 1 FLORIDI, Luciano. The Onlife Manifesto: Being Human in a Hyperconnected Era. Oxford: Springer, 2015. Disponível em: . Acesso em: 02/06/2024. 2 CHILE. Biblioteca del Congreso Nacional de Chile (2021). Decreto 100 fija el texto refundido, coordinado y sistematizado de la Constitución Política de la República de Chile. Disponível em: . Acesso em: 20/05/2024. 3 1. Las condiciones, límites y garantías de implantación y empleo en las personas de las neurotecnologías podrán ser reguladas por la ley con la finalidad de: a) Garantizar el control de cada persona sobre su propia identidad. b) Garantizar la autodeterminación individual, soberanía y libertad en la toma de decisiones. c) Asegurar la confidencialidad y seguridad de los datos obtenidos o relativos a sus processos cerebrales y el pleno dominio y disposición sobre los mismos. d) Regular el uso de interfaces persona-máquina susceptibles de afectar a la integridad física o psíquica. e) Asegurar que las decisiones y procesos basados en neurotecnologías no sean condicionadas por el suministro de datos, programas o informaciones incompletos, no deseados, desconocidos o sesgados. 2. Para garantizar la dignidad de la persona, la igualdad y la no discriminación, y de acuerdo en su caso con los tratados y convenios internacionales, la ley podrá regular aquellos supuestos y condiciones de empleo de las neurotecnologías que, más allá de su aplicación terapéutica, pretendan el aumento cognitivo o la estimulación o potenciación de las capacidades de las personas. 4 THE NEW YORK TIMES. Your brain waves are up for sale. A new law wants to chande that. Disponível em: . Acesso em 05/06/2024. 5 BRASIL. Senada Federal. Proposta de Emenda à Constituição nº 29, de 2023. Disponível em: . Acesso em 05/06/2024. 6 KLEE, Antonia Espíndola Longoni; MARTINS, Guilherme Magalhães. A privacidade, a proteção dos dados e dos registros pessoais e a Liberdade de expressão: algumas reflexões sobre o Marco Civil da Internet no Brasil (Lei nº 12.965/2014). In: Direito & Internet III - Tomo I: Marco Civil da Internet (Lei nº 12.965/2014). DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de (coords.). São Paulo: Quartier Latin, 2015. p. 325. 7 ESPANHA. Carta Derechos Digitales. Disponível em: Acesso em: 04/06/2024.
Visando regulamentar com maior precisão o Artigo 6.º, n.º 1, "f", do Regulamento Geral sobre a Proteção de Dados da União Europeia (2016/679(EU), ou RGPD), o Comitê Europeu de Proteção de Dados (European Data Protection Board, EDPB) publicou e passou a adotar, a partir de 8 de outubro de 2024, suas Guidelines 01/20241. O conteúdo do documento diz respeito ao tratamento de dados pessoais com base em interesses legítimos do controlador ou de terceiros. Anteriormente, o tema era avaliado a partir da Opinion 2014-06, emitida pelo Grupo de Trabalho do Artigo 292, antecessor do Comitê Europeu de Proteção de Dados, que abordou o conceito de "interesses legítimos" do controlador como uma base legal para o processamento de dados pessoais sob a antiga Diretiva 95/46/EC. Essa opinião foi fundamental para definir diretrizes e critérios que, posteriormente, foram refinados e incorporados ao RGPD com o Artigo 6.º, n.º 1, "f", que estabelece o interesse legítimo como uma das possíveis hipóteses de lastro para o tratamento de dados pessoais3. Já era de amplo conhecimento a posição do Grupo de Trabalho do Artigo 29 no sentido de que o interesse legítimo deve ser interpretado de forma restrita e que o controlador precisa cumprir três requisitos para justificar o tratamento de dados pessoais com base nessa base legal: primeiro, a existência de um interesse legítimo que seja específico, atual e não conflituoso com a lei; segundo, a necessidade de processamento para alcançar esse interesse, sem outras alternativas menos invasivas; e terceiro, o equilíbrio entre o interesse do controlador e os direitos e liberdades dos titulares de dados. Esses requisitos foram denominados "teste de três etapas" e visavam garantir uma análise cuidadosa e fundamentada antes de se optar pelo interesse legítimo como base legal4. A opinião de 2014 também destacou a importância de controlador documentar o processo de avaliação do interesse legítimo, a fim de cumprir com o princípio da "responsabilização" (accountability) e estar preparado para demonstrar a legalidade do tratamento de dados, se necessário, em fiscalizações, auditorias e até mesmo para o atendimento de ordens judiciais. Além disso, recomendou-se que os controladores fornecessem informações claras e transparentes aos titulares dos dados sobre a base legal de interesse legítimo, promovendo a transparência e fortalecendo a confiança no uso dos dados. Outro ponto importante abordado foi o contexto e o impacto do tratamento de dados para os titulares. A Opinion 2014-06 reconheceu que o impacto pode variar de acordo com a tipologia dos dados tratados, a natureza da relação entre controlador e titular, e as expectativas razoáveis dos titulares em relação ao tratamento. Situações envolvendo certas categorias de dados pessoais (como os genéticos, biométricos e os relativos à saúde do titular) ou em que os titulares sejam vulneráveis (como crianças) exigem uma análise ainda mais rigorosa e, potencialmente, salvaguardas adicionais para garantir a proteção dos direitos fundamentais dos titulares. Tratou-se, portanto, de um relevante marco inicial para estabelecer entendimento uniforme sobre o interesse legítimo, promovendo o uso dessa base legal de forma equilibrada e responsável. A partir de agora, entretanto, as Guidelines 01/2024 do EDPB atualizam e expandem os conceitos apresentados na Opinion 06/2014 e incorporam desenvolvimentos normativos e jurisprudenciais ocorridos desde 2014, incluindo decisões recentes do Tribunal de Justiça da União Europeia (TJUE) que influenciam a interpretação do RGPD. Por exemplo, a decisão no caso C-252/21, de 4 de julho de 2023, forneceu esclarecimentos adicionais sobre a aplicação do Artigo 6.º, n.º 1, "f" e foi considerada nas novas orientações. Além disso, as Guidelines 1/2024 oferecem uma análise mais detalhada dos critérios que os controladores devem atender para processar dados pessoais com base em interesses legítimos, enfatizando a necessidade de: (i) identificar claramente o interesse legítimo perseguido; (ii) avaliar a necessidade do tratamento para alcançar esse interesse; (iii) realizar um balanceamento entre o interesse do controlador e os direitos dos titulares dos dados. A propósito, o Capítulo III das Guidelines 01/2024 é inteiramente dedicado à avaliação da relação entre o legítimo interesse e o repertório de direitos do titular de dados na União Europeia. Esses direitos, que vão desde a transparência até a restrição de tratamento, não apenas reafirmam o controle dos indivíduos sobre seus dados, mas impõem ao controlador a obrigação de respeitar e viabilizar seu exercício, mesmo quando o legítimo interesse é invocado como base legal. Neste sentido, a transparência, como um princípio central, garante que os titulares compreendam claramente como seus dados são utilizados, possibilitando uma participação ativa e informada no processo de gestão dos dados que lhes dizem respeito. A falta de transparência compromete a confiança dos titulares e enfraquece o direito fundamental à proteção de dados, ao passo que a disponibilização de informações detalhadas e acessíveis permite que os titulares exerçam com propriedade os direitos que lhes são atribuídos. Destacam-se alguns direitos, como o direito de acesso, que permite ao titular requisitar ao controlador informações específicas sobre os dados armazenados e a lógica do processamento, conferindo ao titular não apenas um instrumento de informação, mas também uma ferramenta de verificação do cumprimento da legislação. Na relação desse direito com o legítimo interesse, o controlador deve ir além de uma justificativa genérica e expor claramente o equilíbrio entre seus interesses e os direitos do titular, tornando este direito um pilar da transparência e da accountability no tratamento de dados. Já o direito de oposição reflete a capacidade do titular de interferir diretamente no tratamento de seus dados, especialmente quando este se baseia no interesse legítimo. Neste caso, cabe ao controlador interromper o tratamento ou, alternativamente, apresentar provas de que razões legítimas superiores justificam a sua continuidade, o que reforça a proteção dos interesses dos titulares. O direito de apagamento possibilita ao titular solicitar a exclusão de seus dados pessoais em situações nas quais o legítimo interesse deixa de ser aplicável, como ocorre com a retirada do consentimento. Esta prerrogativa representa um limite ao controle do controlador sobre os dados, impondo a ele a obrigação de garantir o respeito ao desejo do titular, salvo em situações excepcionais, como a necessidade de preservação dos dados para defesa em litígios. Em relação às decisões automatizadas e ao perfilamento, o RGPD reconhece que o uso de algoritmos e processamento automatizado pode impactar significativamente os direitos dos titulares. Por fim, os direitos de retificação e de restrição de tratamento oferecem ao titular o poder de corrigir dados imprecisos e de limitar o processamento em casos de controvérsia. No Capítulo IV das Guidelines 01/2024 é possível notar uma preocupação com contextos nos quais o legítimo interesse é usualmente invocado, o que contribui eficazmente para a clarificação das nuances relativas a essa base legal em situações práticas. No tratamento de dados de crianças, as Guidelines enfatizam uma abordagem diferenciada e protetiva. Considerando a vulnerabilidade e a menor compreensão que as crianças possuem em relação aos riscos associados ao uso de seus dados, exige-se dos controladores um cuidado especial e a adoção de medidas adicionais. A aplicação do legítimo interesse nesses casos requer que o controlador realize uma avaliação detalhada, que evidencie a supremacia dos direitos da criança e que evite repercussões negativas em seu desenvolvimento e segurança. Em se tratando de autoridades públicas, as Guidelines claramente limitam a aplicabilidade do legítimo interesse. Para as autoridades, que geralmente dispõem de bases legais específicas, o interesse legítimo não se aplica de maneira automática, a menos que estejam agindo fora de suas funções públicas regulares. A prevenção de fraudes, por sua vez, emerge como um contexto no qual o interesse legítimo é amplamente reconhecido. Esse tipo de tratamento de dados representa um exemplo claro de benefício mútuo: ao proteger o controlador e os titulares dos dados de atividades ilícitas, como fraudes, garante-se a integridade das operações e a segurança dos dados pessoais. Outro ponto relevante é o marketing direto, no qual o interesse legítimo pode ser invocado, desde que respeitados os limites impostos pela legislação específica, que em certos casos exige o consentimento prévio do titular. No âmbito corporativo, o compartilhamento de dados para fins administrativos internos dentro de grupos empresariais é uma situação em que o legítimo interesse pode ser reconhecido, pois otimiza processos internos e fortalece a integração entre subsidiárias e filiais, exige que os controladores adotem transparência e clareza, especialmente no que se refere às expectativas dos titulares. No campo da segurança de redes e informações, o interesse legítimo é interpretado com amplitude, uma vez que a proteção contra ataques cibernéticos e acessos não autorizados reveste-se de alta importância. A natureza desse tratamento transcende o benefício individual da organização e visa a proteção coletiva, garantindo a confiabilidade e segurança de sistemas que processam dados pessoais. Esse contexto, assim, justifica a relevância do interesse legítimo como meio de garantir a estabilidade e resiliência dos sistemas de informação. Finalmente, a transmissão de dados para autoridades competentes em situações que envolvem crimes ou ameaças à segurança pública é abordada como uma necessidade legítima. Todavia, mesmo nesses casos, o documento enfatiza a necessidade de uma avaliação criteriosa que considere a proporcionalidade e a adequação do tratamento. O compartilhamento de dados pessoais deve ser conduzido com responsabilidade e em conformidade com as leis de proteção de dados aplicáveis, assegurando que o interesse legítimo não se sobreponha aos direitos e liberdades fundamentais sem justificativa adequada. Em conclusão, as Guidelines 01/2024 representam um avanço significativo em relação à Opinion 2014-06, ao atualizarem o entendimento sobre o interesse legítimo no tratamento de dados pessoais no contexto do RGPD. Com uma metodologia de avaliação mais detalhada e uma análise contextual de cada cenário de tratamento, o EDPB busca garantir que o uso do interesse legítimo seja alinhado aos princípios de transparência, necessidade e proporcionalidade. Esse avanço europeu é de suma importância para o Brasil, pois oferece uma referência robusta para o desenvolvimento e a aplicação prática da Lei Geral de Proteção de Dados Pessoais (LGPD). É preciso elogiar o labor da Autoridade Nacional de Proteção de Dados (ANPD) brasileira, que lançou recentemente o seu Guia Orientativo sobre a Base Legal do Legítimo Interesse5, que visa orientar a aplicação responsável dessa base legal, de modo a equilibrar os interesses dos agentes de tratamento com os direitos fundamentais dos titulares, mas o acompanhamento detido das diretrizes europeias pode viabilizar aperfeiçoamento ainda maior de suas práticas e fortalecer a segurança jurídica no tratamento de dados para criar uma cultura de proteção de dados alinhada aos melhores padrões globais. __________ 1 EUROPEAN DATA PROTECTION BOARD. Guidelines 1/2024 on processing of personal data based on Article 6(1)(f) GDPR. Bruxelas: EDPB, 2024. Disponível aqui. Acesso em: 14 nov. 2024. 2 ARTICLE 29 DATA PROTECTION WORKING PARTY. Opinion 06/2014 on the notion of legitimate interests of the data controller under Article 7 of Directive 95/46/EC. Bruxelas: European Commission, 2014. Disponível aqui. Acesso em: 14 nov. 2024. 3 GOMES, Rodrigo Dias de Pinho. Legítimos interesses na LGPD: trajetória, consolidação e critérios de aplicação. Indaiatuba: Foco, 2024, p. 88-91. 4 PIVETO, Lucas Colombera Vaiano. Art. 10. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.) Comentários à Lei Geral de Proteção de Dados Pessoais (lei 13.709/2018). 2. ed. Indaiatuba: Foco, 2024, p. 117-118. 5 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS. Guia Orientativo sobre a Base Legal de Legítimo Interesse. Brasília: ANPD, 2024. Disponível aqui. Acesso em: 14 nov. 2024.
sexta-feira, 8 de novembro de 2024

A nossa IA é tamanho único, sirva-se! - Parte 1

Os novos brasileiros que nascerão em 2025 irão nascer num país divido. Segundo o ranking do saneamento deste ano, hoje 32 milhões de brasileiros não têm acesso à água potável e 90 milhões de pessoas não desfrutam de moradias com coleta de esgoto1. Se recursos básicos faltam a uma parte considerável dos 212 milhões de brasileiros, o mesmo acontece com os recursos tecnológicos que hoje são fundamentais para exercer a cidadania por completo. Segundo estudos do Banco Mundial "Em toda a América Latina, a divisão digital não é apenas uma questão tecnológica, mas um reflexo evidente da desigualdade de renda. O Brasil não é exceção. O acesso à internet, uma porta de entrada crucial para a educação, oportunidades de emprego e serviços essenciais, continua a ser distribuído de forma desigual." 2 Em agosto deste ano, a OIT - Organização Internacional do Trabalho, e o Escritório do Enviado do Secretário-Geral da ONU para a tecnologia publicaram um alerta conjunto afirmando que, sem uma ação internacional, a revolução da IA pode aumentar a diferença entre países de alta e baixa renda3. Ou seja, nós cidadãos brasileiros, as empresas aqui instaladas e os serviços públicos nacionais, poderemos todos sermos alcançados também pelo chamado "AI divide", ou seja, veremos uma grande divisão entre os países que usam racionalmente a Inteligência Artificial para promover o seu desenvolvimento e o desenvolvimento de sua sociedade e aqueles países que não usam ou nem ao menos têm acesso a IA. Em abril deste ano, publiquei neste periódico um artigo sobre os riscos de não termos uma IA a estilo do ChatGPT4, ou seja, um grande modelo de linguagem (Large Language Model - LLM), uma IA generativa, que fosse constituída primariamente de textos em português. A prevalência e superioridade das IAs generativas escritas majoritariamente em inglês podem sim afetar a nossa língua, pois estas IAs são tão úteis e capazes quantos os dados que são fornecidos a elas. O que fazer então se estas IAs são alimentadas primariamente com dados estrangeiros escritos na língua inglesa? Como estas IAs podem atender plenamente nossas necessidades como brasileiros? O que sabem sobre a nossa história, nossa cultura, nosso cotidiano, nossa língua? Podemos usar estas IAs como ferramentas nas nossas escolas e nos nossos escritórios? Questões como estas acima não nos levam a um brasilianismo exacerbado, não conduzem a um documento sugerindo uma nova edição da Semana de Arte Moderna de 1922, ou um levante pela antropofagia computacional. Longe disso. A questão é que alguns países já têm respostas a estas perguntas e, devido a estas respostas, estes países criaram seus próprios modelos de linguagem. Estes são alguns deles: Suécia: Três empresas, a AI Sweden, juntamente com a RISE e a WASP WARA Media & Language, desenvolveram um modelo de linguagem generativo em larga escala para as línguas nórdicas, principalmente o sueco. Chama-se GPT-SW3. Como um serviço aberto, qualquer indivíduo, empresa, agência governamental ou organização pode aproveitar o poder do GPT-SW3 para desenvolver produtos e serviços com esta IA generativa; Japão: Com a união do Tokyo Institute of Technology,  da Tohoku University, Fujitsu, RIKEN, Nagoya University, CyberAgent, e Kotoba Technologies, formou-se uma equipe de pesquisadores que lançou o Fugaku-LLM, um grande modelo de linguagem (LLM) com capacidade aprimorada para a língua japonesa e destinado para uso comercial, utilizando o supercomputador Fugaku da RIKEN; China: Certamente a China não poderia se deixar "invadir" por IAs estrangeiras e desde o ano passado já havia lançado mais de 70 LLMs distintos. Hoje a China discute a evolução destes modelos de linguagem5; Índia: A Índia, o país mais populoso do mundo com 1,45 bilhões de pessoas e o país com maior variedade linguística (121 línguas) lançou em outubro deste ano o BharatGen, o primeiro modelo de linguagem indiano feito com apoio governamental. Como afirma o governo indiano o "BharatGen, é uma iniciativa pioneira em IA generativa projetada para revolucionar a prestação de serviços públicos e aumentar o engajamento dos cidadãos por meio do desenvolvimento de um conjunto de modelos fundamentais em linguagem, fala e visão computacional." 6 Brasil: Sim, já temos o sabiá-2, um modelo de linguagem "Made in Brazil" criado pela Maritaca AI, uma startup de Campinas, SP. Este modelo de linguagem foi lançado março deste ano 2024 e foi é tido como o primeiro LLM especializado em português. Temos também o Amazonia IA. O modelo Amazônia IA é capaz de oferecer um contexto mais detalhado sobre temas relacionados à "cultura brasileira". Por exemplo, perguntas como "quais são as festas regionais mais populares do Brasil?" ou "quais são os hábitos alimentares dos brasileiros?" podem ser feitas à IA. Além disso, os usuários podem acessar informações sobre legislação, obras literárias, cultura brasileira, pesquisas científicas locais, entre outros assuntos nacionais7. E o Brasil não para nestes dois modelos, neste artigo recente7, a mesma equipe que lançou o Sabiá, a Maritaca AI de Rodrigo Nogueira, docente voluntário na Unicamp, especializou o modelo Sabiá-2 para a área jurídica criando o Juru, um modelo de linguagem especializado com 1,9 bilhão de tokens únicos de fontes jurídicas brasileiras conceituadas. Neste mesmo artigo, os autores demonstram as capacidades do modelo avaliando-o em exames de conhecimento geral e jurídico8. Considerando as iniciativas acima citadas, além dos já conhecidos modelos, tais como o ChatGPT da Open AI, o  Copilot da Microsoft; o Llama da Meta (Instagram, Facebook e WhatsApp) e os modelos Bard e Gemini da Alphabet (Google), uma das primeiras questões que podem surgir é: Será que o Brasil, como um país independente, deveria ter seu próprio modelo de linguagem desenvolvido com textos na nossa língua portuguesa (almanaques, livros, revistas, jornais e outros periódicos) e com nossos conteúdos artísticos (certamente sem infração de copyright)? Só falar português não basta Percebam que, além do que muitos pensavam antes que bastava ter uma IA generativa que falava nossa língua portuguesa para podermos manter uma identidade nacional, essa ideia, atualmente, já se foi, já era. Vide os modelos Amazonia IA e Juru acima citados. Eles abarcam uma identidade nacional que vai além da língua, mas que versa sobre a cultura nacional como um todo. Nesta IA são incorporados elementos da nossa literatura, gastronomia, tema locais, sistemas jurídicos nacionais, entre outras 'brasilianices'. Portugal também já percebeu a importância desse viés nacionalista, porém não antropofágico. GlórIA é o novo modelo de linguagem de grande escala em português, desenvolvido pelo Grupo de Sistemas Multimodais da NOVA LINCS. GlórIA é um LLM de alto desempenho em PT-PT, ou seja, gerado para "falar" português e elaborado com fontes portuguesas, textos portugueses. O GlórIA é um LLM capaz de gerar textos de alta qualidade sobre uma variedade de tópicos, como história, meio ambiente, culinária, entre muitos outros. Liderada pelo Prof. David Semedo, a equipe da NOVA LINCS lançou o GlórIA, o primeiro modelo generativo treinado em um extenso corpus em português de alta qualidade com mais de 35 bilhões de tokens, abrangendo um conjunto altamente diversificado de fontes de dados [9]. Sabendo tudo isso, ainda fica a questão: "Quais são as vantagens e motivações para se investir num grande modelo de linguagem estritamente nacional?" Motivos para termos um modelo de linguagem nacional Soberania e Segurança Nacional: Países desenvolvem seus próprios LLMs para manter a soberania e a segurança nacional, já que o controle de dados é vital. Lembrem-se, esses modelos de linguagem usam a estratégia de aprendizado por reforço, ou seja, as suas perguntas e os dados que você posta no modelo servem como "alimento" para esta IA generativa. A dependência de LLMs estrangeiros pode colocar em risco a segurança de dados e, eventualmente, deixar brechas para permitir alguma forma de influência externa. LLMs locais ajudam a evitar espionagem e ataques cibernéticos; Relevância Cultural e Linguística: A linguagem é parte fundamental da identidade cultural de um país. LLMs de grandes empresas estrangeiras de tecnologia podem não capturar a diversidade linguística de cada região. Modelos nacionais ajudam a preservar e promover línguas locais, auxiliando na educação e comunicação digital; Privacidade e Ética: Com preocupações crescentes sobre privacidade de dados, LLMs locais garantem conformidade com leis e padrões éticos do país em que são desenvolvidas, podendo ser projetados para mitigar preconceitos presentes em conjuntos de dados estrangeiros; Crescimento Econômico e Avanço Tecnológico: Desenvolver LLMs próprios pode impulsionar o crescimento econômico e o progresso tecnológico, fomentando inovação e criando empregos. Eles podem otimizar operações em várias áreas de aplicação, como educação, segurança, saúde e finanças; e, não menos; Autonomia Estratégica e Competitividade Global: Ter autonomia em capacidades de IA é crucial para competitividade global. LLMs domésticos têm o potencial de permitir que países conduzam suas agendas de IA e participem do cenário global em condições de igualdade. Como quase tudo nesta vida, a construção de um grande modelo nacional de linguagem não é uma tarefa que só permite a visão das vantagens envolvidas. Existem também as desvantagens e, entre elas, o alto custo de desenvolvimento e manutenção destas IAs. No entanto, deixaremos esta discussão sobre as desvantagens na construção de um modelo nacional de IA generativa para o próximo artigo para o qual também abordaremos as diferenças entre um eventual desenvolvimento governamental e as iniciativas particulares. ________ 1 Um cenário que não muda: no Brasil, 90 milhões de pessoas não têm acesso à coleta de esgoto. Revista Exame. Disponível aqui. Último acesso em 3 de novembro de 2024. 2 Bridging Brazil's digital divide: How internet inequality mirrors income gaps. World Bank Blogs. Disponível aqui. Último acesso em 3 de novembro de 2024. 3 Mind the Gap: Bridging the AI divide will ensure an equitable future for all. Disponível aqui. Último acesso em 3 de novembro de 2024. 4 A nossa Língua Portuguesa está em risco de extinção? Migalhas. Disponível aqui. Último acesso em 3 de novembro de 2024. 5 The Evolution of Chinese Large Language Models (LLMs). Disponível aqui. Último acesso em 3 de setembro de 2024. 6 Launch of BharatGen: The first Government supported Multimodal Large Language Model Initiative. Disponível aqui. Último acesso em 3 de setembro de 2024. 7 Conhecendo as IAs brasileiras, Sabiá-2 e Amazônia IA. Disponível aqui. Último acesso em 2 de setembro de 2024. 8 Juru: Legal Brazilian Large Language Model from Reputable Sources. ArXvi. Disponível aqui. Último acesso em 2 de setembro de 2024. 9 GlórIA: the new Portuguese-European Large Language Model. Disponível aqui. Último acesso em 2 de setembro de 2024.
Os registros públicos visam dar autenticidade, segurança e eficácia aos atos jurídicos conforme preceitua o art. 1º da lei de registros públicos (lei 6.015, de 31 de dezembro de 1973). Esta lei rege os cartórios de registro civil de pessoas naturais, registro civil de pessoas jurídicas, registro de títulos e documentos e o registro de imóveis (art. 2º). Os fatos ocorridos na vida do indivíduo, portanto, ao serem inscritos nos livros de registros ganham segurança e autenticidade, vez que foram submetidos ao crivo do registrador ou de seu preposto, em ato chamado de qualificação registral, para só então adentrar ao sistema de registros públicos; consequentemente, geram a chamada eficácia por meio da publicidade declarativa e a possibilidade de, ao serem conhecidos por terceiros, serem também oponíveis erga omnes, vindo a garantir prova de direitos.1 No entanto, destaca-se a atuação dos registros civis das pessoas naturais, que se demonstra fundamental para o exercício da cidadania e do livre desenvolvimento da pessoa humana. Assim, estes cartórios têm contato com a pessoa desde o seu nascimento e participam de atos importantes da vida cotidiana de todo cidadão. O que impõe uma ponderação preliminar se a mesma publicidade inerente à segurança jurídica dos direitos reais desempenhada pelo registro de imóveis, deve ser a que norteia a atuação dos registros civis das pessoas naturais. Parece-nos que o CNJ2 ao incorporar as regras relacionadas à proteção de dados no código nacional de normas (provimento 149, de 30 de agosto de 2023), em especial o capítulo II da parte geral, no Título VI, está atento a tais diferenças estabelecendo regras distintas sobre proteção de dados pessoais levando em consideração cada uma das serventias extrajudiciais (arts. 79 a 135). Algumas regras merecem uma reflexão, sobre as quais se dedica este texto da coluna Migalhas de IA e Proteção de Dados, em especial, o § 2º do art. 114 (sobre a emissão de certidão com dado sensível de pessoa falecida), art. 118 (dispensa requerimento, inclusive de terceiros para emissão de certidão), art. 119 (não se aplicam as restrições dos dados sensíveis e emissão de certidões às pessoas falecidas) e parágrafo único do art. 120 (possibilita a emissão de certidão a qualquer pessoa que apresentar a certidão de óbito). Certidão de registro civil de inteiro teor com dados sensíveis antes e depois da morte Pelo código nacional de normas, apenas o próprio registrado pode solicitar sua expedição, independentemente de autorização do juiz corregedor permanente; todavia em sendo solicitada por terceiros, e havendo dados pessoais sensíveis3, a certidão somente pode ser emitida mediante autorização do juízo competente (§ 1º do art. 114 do CNN/CNJ). Todavia, após o falecimento do titular do dado sensível, as certidões de inteiro teor podem ser fornecidas aos parentes em linha reta independentemente de autorização judicial (§ 2º do art. 114 do CNN/CNJ). Ora, qual seria a razão deste tratamento díspar aos dados pessoais sensíveis de pessoas vivas e pessoas falecidas. Por exemplo, uma pessoa que tenha feito retificação do assento para alterar gênero e prenome - tal informação é um dado sensível, pois se relaciona à vida sexual, cuja publicização não é permitida a fim de assegurar o direito à intimidade destas pessoas. Entretanto, após a morte da pessoa, esta informação passaria a poder ser publicizada pelo parente em linha reta, ao obter a certidão em inteiro teor, independentemente de qualquer motivação a ser analisada? Parece-nos que esta regra revela a confusão que ocorre entre proteção de dados e sigilo, tendo em vista que a LGPD não visa a resguardar segredo das pessoas, a única menção sobre sigilo na LGPD está no capítulo VII (sobre segurança e boas práticas em matéria de proteção de dados). Em outras palavras, o sigilo aqui estabelecido resguarda o acesso indevido às informações que devem ser mantidas em segurança pelos agentes de tratamento de dados. Até porque no art. 18 da LGPD, que traz os direitos assegurados aos titulares de dados, não há menção ao direito ao sigilo.4 Certidão de óbito pode ser emitida para qualquer pessoa O art. 118 do CNN/CNJ traz uma regra que amplia a publicidade da certidão de óbito, permitindo que seja emitida independentemente de requerimento ou autorização judicial, retirando do registrador civil ou do Poder Judiciário, qualquer análise a respeito do ato, quando eventualmente necessário. Assim, por meio de uma certidão de óbito em breve relato, atualmente passível de emissão a qualquer pessoa que o solicite, é possível que se venha a saber: O nome completo do falecido; seu número de inscrição cadastral junto ao Ministério da Fazenda (CPF); o sexo; a cor; o estado civil e a idade; a naturalidade; o número de seu documento de identificação; se era ou não eleitor; a filiação e residência; a data e a hora do falecimento; o local do falecimento; a causa da morte; o município e o cemitério onde foi sepultado, ou o local onde foi cremado (se conhecido); o nome completo do declarante; eventuais declarações a respeito do falecido, normalmente as que se referem o art. 80, itens 6º, 7º, 10º e 12º da lei de registros públicos (se deixou bens, testamento, filhos etc.). A LGPD restringe a divulgação destas informações? Parece-nos que não, na medida em que a publicidade registral tem por base a lei seja para dados pessoais genericamente considerados (inc. II do art. 7º), seja para dados pessoais sensíveis (alínea "a" do inc. II do art. 11). Portanto, se houver necessidade de restringir algumas destas informações será em virtude da proteção à intimidade ou à privacidade e não, necessariamente à proteção de dados. As restrições relativas aos dados sensíveis devem ou não se aplicar às pessoas falecidas? No art. 119 do CNN/CNJ traz outra regra preocupante quanto à distinção do tratamento de dados às pessoas falecidas, pois as restrições relacionadas aos dados pessoais sensíveis não se aplicam às pessoas falecidas. Na coluna Migalhas de IA e de Proteção de Dados da semana passada, enfrentou o tema relacionado à proteção post mortem dos dados pessoais.5 Nesta oportunidade, constatou que a ANPD ignorou a necessária interpretação da LGPD conforme a CF/88 e o CC/02: "Os dados pessoais, sensíveis ou não, como mencionado anteriormente, previstos na LGPD, são uma espécie do gênero direitos da personalidade. Esses dados estão intrinsecamente ligados à dignidade humana e à proteção da identidade e privacidade de cada indivíduo, conectando-os diretamente aos direitos fundamentais de personalidade assegurados pela CF/88 e pelo CC. Assim como o nome, a imagem e a honra, os dados pessoais integram esse conjunto de direitos inalienáveis, cuja função é garantir o livre desenvolvimento da pessoa, tanto no ambiente físico quanto no digital. Nesse sentido, o que a ANPD realizou foi deslocar o conceito jurídico de tutela post mortem de seu contexto macrossocial para um contexto isolado, o que se mostra equivocado." Esta restrição parece-nos fruto de uma influência equivocada do direito europeu sobre proteção de dados pessoais, pois não foi refletida com base na doutrina civil e constitucional já consolidada no país sobre os direitos de personalidade post mortem. O tema foi enfrentado pelo WP29, no parecer 4/07,6  sobre o conceito de dado pessoal, no qual foram estabelecidos quatro requisitos que devem ser preenchidos para que seja considerado um dado pessoal, quais sejam: 1º) "qualquer informação"; 2º) "relacionada a"; 3º) "pessoa natural"; e 4°) "identificada ou identificável".7 Certidão sobre procedimentos preparatórios ou de documentos para a realização de atos no registro civil das pessoas naturais O caput do art. 120 do CNN/CNJ estabelece que a emissão e o fornecimento de certidão sobre procedimentos preparatórios ou documentos apresentados para a realização de atos no Registro Civil das Pessoas Naturais, somente podem ser realizados quando requeridos pelo próprio titular de dados constante dos documentos, que podem ser representados por mandatários com poderes especiais ou representantes legais. Tal restrição não se aplica se o requerente da certidão obtiver uma autorização judicial ou quando o documento for público com publicidade geral e irrestrita. Aqui há um equívoco muito comum: confunde-se a proteção de dados quanto à esfera pública e quanto à esfera privada, uma vez que a própria LGPD se aplica tanto a dados públicos quanto a dados privados, justamente porque o que ela resguarda não é sigilo imposto por lei especial, como sigilo fiscal, bancário, adoção, pessoas transgênero, mas sim, o controle do fluxo de suas informações pelos titulares de dados. Entretanto, o parágrafo único do art. 120 do CNN/CNJ permite que tal certidão seja fornecida para qualquer pessoa que apresentar a certidão de óbito, independentemente de qualquer justificação razoável. Em mais esta ocasião há um tratamento distinto entre a proteção da pessoa viva e da pessoa falecida, que não nos parece ter respaldo no ordenamento jurídico brasileiro. Conclusão A tutela post mortem dos direitos de personalidade tem desafiado o Judiciário, pois a linha divisória entre os direitos de personalidade da pessoa falecida e dos seus sucessores elencados no parágrafo único do art. 12 do CC/02 é muito tênue. No entanto, deve-se agir levando em consideração o que normalmente se esperaria conforme os interesses legítimos da pessoa falecida. Neste sentido, Rosa Maria de Andrade Nery e Nelson Nery Júnior8  afirmam os direitos de personalidade da pessoa falecida como "projeção da existência anterior", em especial quanto a direitos e deveres que se projetam para seus sucessores, como é o caso da proteção do nome, da boa fama, da memória e dos frutos da potência intelectiva e criativa de seu antigo titular.  O problema é que esta não está viva para poder dizer o que e como quer que seus direitos de personalidade sejam administrados, portanto, algumas ferramentas de tutela de assets digitais (herança digital) podem resolver estes problemas. Em suma, grande parte dos questionamentos aqui suscitados relaciona-se à confusão entre privacidade e proteção de dados. Stefano Rodotà9 destaca uma diferença importante: O direito da privacidade possui tutela estática e negativa, enquanto a tutela dos dados pessoais, estruturada a partir de regras sobre o tratamento de dados, poderes de intervenção, dentre outras, possui uma tutela dinâmica, ou seja, surge com a coleta dos dados e permanece com eles durante a circulação e armazenamento. Neste sentido, parece-nos que como a emissão de certidão é uma atividade típica do oficial registrador civil das pessoas naturais, regulada pela lei de registros públicos, bem como por normas de serviços das corregedorias gerais de justiça dos Tribunais de Justiça estaduais e os provimentos do CNJ, sendo este o fundamento da base para o tratamento de dados por parte dos cartórios, e como já evidenciado nesta coluna Migalhas de IA e Proteção de Dados, a emissão de certidão sendo atividade típica dos oficiais registradores não deve ser considerada um compartilhamento de dados.10 Portanto, qualquer restrição deve ter embasamento em lei ou em direitos de personalidade como ocorre na tutela da privacidade e intimidade que se estendem às pessoas falecidas igualmente às pessoas vivas nos termos do parágrafo único do art. 12 do CC. De maneira que não nos parece razoável tratar distintamente sobre emissão de certidões de pessoas vivas e falecidas, seja porque algumas restrições são impostas por leis específicas independentemente da LGPD; seja porque a restrição da proteção de dados às pessoas vivas é de constitucionalidade questionável em virtude da necessária interpretação conforme à Constituição Federal e o diálogo necessário entre LGPD e o CC. Estes e outros temas relacionados à atuação das serventias extrajudiciais e a proteção de dados pessoais estão tratados na obra "Impactos da LGPD e da lei 14.711/23 nos Serviços Notariais e Registrais", coordenada pelo professor Fernando Campos Scaff, professor Vitor Frederico Kümpel e pela professora Cíntia Rosa Pereira de Lima, em pré-lançamento pela editora YK. ________ 1 KÜMPEL, Vitor Frederico; FERRARI, Carla Modina. Tratado de Direito Notarial e Registral. Volume 2: Registro Civil das Pessoas Naturais, São Paulo: YK Editora, 2017. 2 BRASIL. CNJ. CORREGEDORIA NACIONAL DE JUSTIÇA. Código Nacional de Normas do Foro Extrajudicial. Disponível aqui. Acesso: 30 out. 2024. 3 A LGPD considera dado pessoa sensível a informação relacionada à origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural (inc. II do art. 5º); 4 LIMA, Cintia Rosa Pereira de; LIMA,  Marilia Ostini Ayello Alves de. Proteção de dados pessoais e publicidade registral: uma longa caminhada de um tema inesgotável. In: Migalhas de IA e Proteção de Dados. Disponível aqui. Acesso em 22 de agosto de 2024. 5 LIMA, Tiago Augustini de; CARRINHOS, Camila Ananda; LIMA, Cintia Rosa Pereira de Lima. Tutela de dados pessoais post mortem: Uma análise crítica da nota técnica 3/23 da ANPD. Migalhas de IA e Proteção de Dados. 28 de outubro de 2024. Disponível aqui.  Acesso: 30 out. 2024. 6 EUROPA. DATA PROTECTION BOARD (antigo WORKING PARTY 29). Disponível aqui. Acesso: 30 out. 2024. 7 Sobre este debate cf. LIMA, Cíntia Rosa Pereira de. Autoridade Nacional de Proteção de Dados ..., op. cit.,p. 141. 8 Instituições de direito civil. Vol. 1, t. II - Parte Geral. São Paulo: Revista dos Tribunais, 2015. p. 37. 9 Tra diritti fondamentali ed elasticità della normativa: il nuovo codice sulla privacy. In: Europa e Diritto Privato, fasc. 01, pp. 01 - 11, Milão: Giuffrè, 2004. p. 03. No mesmo sentido: FINOCCHIARO, Giusella. Privacy e protezione dei dati personali: disciplina e strumenti operativi. Bologna: Zanichelli, 2012. p. 04 - 05. 10 LIMA, Cíntia Rosa Pereira de; CAMPANELLI, Luciana Amicuccci. Certidão imobiliária na era da lei Geral de Proteção de Dados. Migalhas de IA e Proteção de Dados, São Paulo, 23 ago. 2024. Disponível aqui. Acesso em: 30 out. 2024.
A PRF - Polícia Rodoviária Federal solicitou à ANPD - Autoridade Nacional de Proteção de Dados uma manifestação técnica sobre a possibilidade de criar um memorial no portal web da PRF, conforme o ofício 692/22, com o objetivo de homenagear servidores falecidos. O memorial disponibilizaria, ao público que acessa o portal, a foto dos servidores e o tempo de serviço dedicado à instituição, como forma de prestar homenagem e preservar a memória institucional da PRF, considerando as diretrizes da lei 13.709/18 (LGPD). A consulta da PRF tratava, portanto, da existência ou não, pois há omissão legal ao tema, de tutela post mortem sobre os dados pessoais destes servidores. Em resposta, a ANPD emitiu a nota técnica 3/23/CGF  - cujo argumento central é de que não há incidência da LGPD em casos envolvendo dados pessoais de pessoas falecidas, prescrito no item 6.1 e 6.2 da Nota. No entanto, vale a pena analisar mais a fundo o conteúdo da nota técnica e considerar se existem outros entendimentos possíveis. Na nota, especificamente nos subitens 5.1 e 5.4, a ANPD prescreve:  5.1. Considerando que o tratamento de dados em questão envolve dados pessoais de pessoas falecidas e que não há, na LGPD, tampouco nos normativos infralegais expedidos por esta Autoridade Nacional de Proteção de Dados (ANPD), menção expressa à incidência ou não da LGPD no tratamento de tais dados, foram solicitados subsídios para a Coordenação-Geral de Normatização (SUPER nº 3725625 e 3797726), que serviram como balizador para a análise a seguir. [...] 5.4. Nesse caso, pressupõe-se que a sua incidência se dá no âmbito do tratamento de dados pessoais de pessoas naturais, ou seja, vivas, já que, de acordo com o art. 6º do Código Civil, a existência da pessoa natural termina com a morte. A proteção post mortem dos direitos da personalidade dos titulares de dados pessoais não estaria, então, abarcada pela LGPD, pois não mais há desenvolvimento de personalidade. (grifo nosso) A ANPD reconhece, no subitem 5.1, portanto, a lacuna legislativa diante do tema proposto. Ora, lacunas legais existem desde o Direito Romano (Streck, 2014; Doneda, 2020) e persistiram às mais diversas codificações, código napoleônico, Constituição de Weimar, e etc. e por que não na LGPD? O ponto, portanto, não se trata apenas da identificação da lacuna, mas qual técnica hermenêutica o aplicador utilizou para preenchê-la e resolver o caso, não por menos, o ordenamento jurídico brasileiro prescreve o princípio non liquet (art. 4º da LINDB e 140 do CPC/15).  As lacunas, para Hans Kelsen, são ficções criadas por uma interpretação equivocada do sistema jurídico. Dessa maneira, a lacuna surge como uma imprevisibilidade do legislador e aparece ao intérprete como injusta (Kelsen, 1998, p. 172), ou inoportuna, pois, caso fosse justa, caberia ao Legislativo prever o caso. Entretanto, a realidade impõe desafios à toda sociedade - os avanços tecnológicos são tais casos e por isso merecem atenção especial - assim - as lacunas legais podem ser vistas como avanços do Direito tendo em vista à realidade - porque a hermenêutica exegética permaneceu no código napoleônico, não é mesmo? Diante disso, observa-se um imbróglio: a ANPD, como intérprete, identificou a lacuna, mas não a preencheu de forma adequada ao desconsiderar a analogia exigida pelo ordenamento jurídico brasileiro nesses casos. Embora tenha mencionado o CC, a ANPD não o utilizou de forma apropriada para tratar dos dados pessoais - sensíveis ou não - como uma extensão dos direitos assegurados por normas superiores, como a própria CF, que no art. 5º, inc. X tutela os direitos da personalidade e, no inc. LXXIX, protege os dados pessoais. Além disso, o CC, nos arts. 16 a 18, especialmente em relação ao nome, também oferece diretrizes importantes, Essa interpretação não implica a existência de direitos da personalidade de indivíduos falecidos, mas sim o reconhecimento de que, em determinados casos, aspectos desses direitos, como o uso da imagem, podem ser tutelados por legitimados, como os familiares, para resguardar a memória e a dignidade do falecido, como bem ensina Adriano de Cupis (2008, p. 127).  A técnica hermenêutica, contudo, deveria ter sido melhor aplicada. Segundo Hans-Georg Gadamer (2004, p. 115), em sua filosofia hermenêutica, é o texto que deve orientar o intérprete e oferecer sentido, e não o intérprete que, de maneira solipsista ou discricionária, impõe um sentido à norma. Para Gadamer, o processo de interpretação deve ser um diálogo entre o texto e o intérprete, onde este último se coloca em uma posição de abertura ao significado que o texto oferece, ao invés de projetar sua própria visão subjetiva sobre ele. Danilo Doneda, em uma erudição invejável, também nos ensinava que o [...] conjunto de situações-tipo presentes no Código Civil brasileiro, sob a denominação de direitos da personalidade, não deve ser lido de forma a excluir absolutamente outras hipóteses não previstas. Na verdade, muito mais importante que esse elenco (tímido) é sua leitura à luz da cláusula geral de proteção da personalidade presente na Constituição. Assim, a chamada "positivação" dos direitos da personalidade pelo Código Civil não é o elemento fundador desses direitos, mas tem a função de orientar a interpretação e facilitar sua aplicação e tutela, em hipóteses onde a experiência ou a natureza dos interesses inspirem o legislador a tratá-las com maior detalhe (Doneda, 2020, 73; grifo nosso) Os dados pessoais, sensíveis ou não, como mencionado anteriormente, previstos na LGPD, são uma espécie do gênero direitos da personalidade. Esses dados estão intrinsecamente ligados à dignidade humana e à proteção da identidade e privacidade de cada indivíduo, conectando-os diretamente aos direitos fundamentais de personalidade assegurados pela CF/88 e pelo CC. Assim como o nome, a imagem e a honra, os dados pessoais integram esse conjunto de direitos inalienáveis, cuja função é garantir o livre desenvolvimento da pessoa, tanto no ambiente físico quanto no digital. Nesse sentido, o que a ANPD realizou foi deslocar o conceito jurídico de tutela post mortem de seu contexto macrossocial para um contexto isolado, o que se mostra equivocado (Doneda, 2020, p. 71). Outro aspecto, já decorrente da interpretação da ANPD sobre o tema, é em relação ao consentimento. A LGPD, em seu art. 7º, inciso I, estabelece o consentimento como uma das bases legais para o tratamento de dados pessoais, ressaltando a necessidade de autorização explícita do titular para que seus dados sejam tratados. No entanto, a lei é omissa quanto ao consentimento em relação aos dados pessoais de pessoas falecidas, deixando um vácuo jurídico sobre a continuidade do controle desses dados após a morte do titular.  A problemática emerge mais claramente à luz da nota técnica da ANPD, quando se considera as situações em que o titular dos dados, ainda em vida, consentiu explicitamente com o uso de suas informações. Em tais casos, cabe indagar: após o falecimento, terão os legitimados - familiares ou representantes legais - o direito de representação para intervir e resguardar a privacidade e dignidade desses dados? Essa questão envolve uma tensão entre a vontade do titular em vida e a tutela póstuma dos dados, que exige consideração cuidadosa dos direitos de personalidade e da dignidade da memória. Por outro lado, o cenário se torna ainda mais complexo quando se trata de titulares que não manifestaram consentimento prévio quanto ao uso de seus dados após a morte. Nesse caso, recai sobre a PRF a responsabilidade de determinar a condução do tratamento desses dados de maneira que respeite tanto a memória do titular quanto os interesses dos legitimados, levando em conta a ausência de consentimento explícito. Aqui, a questão da transparência se torna fundamental: como a PRF comunicará o tratamento desses dados aos legitimados? E, em que medida esses representantes poderão intervir ou mesmo se opor ao uso dos dados, na ausência de uma manifestação direta do titular? Portanto, a ausência de diretrizes específicas da ANPD quanto à comunicação e ao consentimento post mortem cria um espaço de incerteza que desafia a PRF a agir de maneira prudente e ética, evitando interpretações discricionárias que possam gerar violação indireta dos direitos de personalidade, mesmo após a morte. __________ 1 Disponível aqui. 2 CUPIS, Adriano de. Os Direitos da Personalidade. São Paulo: Quorum, 2008. 3 DONEDA, Danilo Cesar M. Da Privacidade à Proteção de Dados Pessoais: elementos da formação da Lei Geral de Proteção de Dados. 2ª ed. São Paulo: Thomson Reuters Brasil, 2020. (e-book). 4 GADAMER, Hans-Georg. Verdade e Método II. 2ª ed. Petrópolis: Vozes, 2004. 5 KELSEN, Hans. Teoria Pura do Direito. 6ª ed. São Paulo: Martins Fontes, 1998. 6 STRECK, Lenio Luiz. Hermenêutica Jurídica E(m) Crise: uma exploração hermenêutica da construção do Direito. 11ª ed. Porto Alegre: Livraria do Advogado Editora, 2014.
A "Administração do Espaço Cibernético da China" (CAC) implementou em 1º de março de 2022 o documento "Disposições sobre o Gerenciamento de Recomendações Algorítmicas nos Serviços de Internet da Informação" (República Popular da China, 2022), com o objetivo de controlar e gerenciar os serviços de recomendação algorítmica em todo o território da China Continental. A "recomendação algorítmica" pode ser definida pela geração, síntese, refinamentos e filtragem de pesquisas, mediante intrincados processos de tomada de decisão, conforme disposição do documento regulatório chinês. Tais serviços são utilizados, majoritariamente, nas redes sociais - o aparecimento de recomendações de músicas, sites e até mesmo publicidade, é mediado pelos algoritmos de refinamento, os quais utilizam o aprendizado de máquina (machine learning) para automatizar decisões e prever o comportamento dos usuários a partir de um vasto histórico de dados de treinamento (Hao, 2022) Todavia, atualmente tais algoritmos respaldados de I.A. são verdadeiras "black boxes", ou seja, não são considerados transparentes pois dificultam a visualização das consequências de seu uso. Trata-se, na realidade, de uma meta de governança de sistemas de inteligência artificial (I.A.) a fim de entender como as empresas (principalmente de tecnologia e de redes sociais) são capazes de influenciar o discurso online. É nesse ínterim que a referida regulamentação cria o "repositório de algoritmos" (ou "arquivamento estatal de algoritmos"): Provedores que possuam capacidade de mobilização social e/ou influência da opinião pública devem fornecer uma série de informações para as autoridades estatais responsáveis no prazo de dez dias úteis, além da realização de avaliações de segurança e inspeções de supervisão (República Popular da China, 2022). Esse banco representa uma ferramenta inovadora nas políticas regulatórias chinesas, no entanto, o ocidente não visualizou a iniciativa com bons olhos, intitulando-a de "agressiva" e "intrigante" (Hao, 2022). Neste artigo, serão identificados os principais argumentos a favor e contra a implementação de tais repositórios, assim como a sua comparação com o projeto principiante brasileiro de criação de bases de dados comuns. A República Popular da China e o repositório de algoritmos O supracitado documento inaugura o início das restrições chinesas aos algoritmos de I.A., tomando os primeiros passos, no plano mundial, para a regulação de sistemas intrínsecos à internet (Sheeran, 2023, p. 12). O CAC vem publicando, regularmente, as informações de algoritmos estruturantes de diversas empresas influentes na internet, como ByteDance Ltd (dona do TikTok), Alibaba Group Holding Ltd. e Tencent Holdings Ltd., dono do app WeChat (Hao, 2022). As informações requisitadas vão desde o nome do provedor e do formulário de serviços, o campo de aplicação, o tipo de algoritmo, o relatório de autoavaliação do algoritmo, até o tipo de conteúdo a ser exibido (República Popular da China, 2022). O repositório abarca todos os dados provenientes dos algoritmos das empresas chinesas e forma uma base de dados pública, contendo o processo de criação, treinamento, implantação e alimentação dos algoritmos criados. Para a estrutura governamental chinesa, o repositório de algoritmos é como um baú de objetos preciosos: justamente aqueles que têm o condão de influenciar a opinião pública são depositados, ou seja, minuciosamente analisados e controlados para refletirem os valores socialistas fundamentais chineses, a ideologia do "Partido Comunista Chinês", e as orientações presentes nos discursos do Secretário Geral e líder da nação - Xi Jinping (Sheeran, 2023, p. 19). A RPC já possui um histórico de detalhado planejamento econômico - a saber, a "economia de projetamento" (Jabbour, Gabrielle, 2021, p. 150)  -, logo, apesar de questionável no ocidente, é uma prática comum no país do leste asiático. Assim, para um país movido por uma ideologia extremamente explícita e imiscuída em todas as instâncias da sociedade, o repositório garante a manutenção do discurso político oficial. Outro benefício decorrente dessa vigilância é a prevenção de condutas anticompetitivas, da formação de monopólios e oligopólios, e da disseminação de ideias antiéticas (vício em apostas e pornografia, por exemplo) (República Popular da China, 2022). O governo "coage" as empresas a revelarem informações confidenciais sobre as tecnologias que alimentam suas plataformas, arquivando os segredos comerciais e industriais. Por fim, em uma nova leva de entrega de relatórios, os reguladores implementaram a regra de "limpar os efeitos negativos dos algoritmos", mediante a amplificação de informações prejudiciais, violação da privacidade do usuário e abuso de trabalhadores temporários (Hao, 2022). Em síntese, o regulamento exige a utilização dos algoritmos ??para a promoção da "energia positiva" - frase de Xi Jinping que eleva a opinião pública sobre o governo e a credibilidade do PCC (Hao, 2022). A Europa e os EUA também tentam manusear os algoritmos de redes sociais a fim de combater a desinformação e as fake news, além de promover a saúde mental dos jovens. No entanto, eles são bastante complexos - verdadeiras "caixas pretas" - tornando realmente difícil o deciframento e/ou antecipamento de suas consequências.  Devido a isso, o ocidente encara a tentativa chinesa de manipular e arquivar algoritmos de I.A. como precipitada e "impossível" - Cathy O'Neil, auditora algorítmica, revela: "Na verdade é impossível controlar o que um mecanismo de recomendação faz no geral" (Hao, 2022). Ela argumenta que mesmo com o acesso total a todos os dados, os quais mudam a cada interação do usuário, os próprios engenheiros computacionais lutam para ajustar os comportamentos dos sistemas por eles próprios criados (Hao, 2022). Há de se considerar que, se o controle dos algoritmos ainda é difícil, mesmo com todos os dados disponíveis, seria ainda mais dificultoso para o governo chinês, já que a natureza das informações publicadas no site oficial é bastante singela. Todavia, o CAC publicou no site do registro de algoritmos (a fim de orientar os provedores no processo de submissão de informações), um manual do usuário (provedor dos sistemas de algoritmos de I.A.) para download (República Popular da China, 2024), com a solicitação de diversas informações adicionais para além daquelas publicadas no site inicial. Logo, percebe-se que foram exigidas inúmeras informações adicionais além daquelas publicadas, como: recursos biométricos, informações pessoais, lista dos conjuntos de dados de código aberto e "códigos autoconstruídos" nos quais o algoritmo foi treinado (Sheehan, 2023, p. 30). É evidente que o CAC divulga apenas uma diminuta parte das informações ao público, mantendo aquelas estratégicas, competitivas, pessoais e confidenciais, sob sigilo absoluto. Nas legislações lançadas posteriormente ("Disposições sobre a Administração de Serviços de Síntese Profunda da Internet da Informação - 2022" e "Medidas Provisórias para a Gestão de Serviços de Inteligência Artificial Generativa - 2023)" ainda permanece a previsão de depósito dos algoritmos no repositório, o qual,  no presente estágio, se caracteriza mais como um processo de licenciamento do que como um mero registro, já que os provedores não podem oferecer os seus serviços enquanto os reguladores não houverem aprovado os novos modelos algorítmicos. O fato dos principais alvos dessa medida se constituírem por empresas privadas revela as "condições" de funcionamento impostas pela estrutura governamental chinesa não visualizadas no ocidente. A questão sobre a verdadeira natureza da economia da RPC - socialismo de mercado ou capitalismo de Estado - não é o tópico deste artigo, mas certamente espelha esse caráter incisivo mencionado pela notícia publicada no "The Wall Street Journal" (Hao, 2022) - um dos principais jornais da mídia capitalista ocidental. Em relação ao Brasil, não existe qualquer tipo de iniciativa semelhante àquela da RPC no sentido de coletar as informações de algoritmos de empresas privadas, no entanto, o "Plano brasileiro de Inteligência Artificial" (2024-2028), apresentado em 30 de junho aos membros do governo e ao público em geral, contém uma iniciativa intitulada: "Nuvem soberana" - gerida por órgãos governamentais ou empresas públicas, comportando um ecossistema robusto de dados públicos. Apesar da falta de detalhamento e de sua recente divulgação, percebe-se que compartilha apenas um dos objetivos do repositório - junção de todos os dados em somente um lugar, para rápido e fácil acesso - se distanciando das características particulares ao primeiro (base de dados estatal, parcial divulgação ao público, imposição de sigilo sobre determinadas informações, etc). Considerações Finais Em relação ao aparato governamental, o repositório estatal de algoritmos chinês, configura uma ótima estratégia não somente para manter o controle sobre informações divulgadas à sociedade e sobre algoritmos com capacidade de mobilização pública, mas também para a construção de um banco de dados de origem empresarial e social, garantindo a competitividade econômica (das empresas privadas nacionais). Todavia, do ponto de vista do corpus social, tal arquivamento não desvela segurança jurídica, pois todas as informações biométricas e pessoais que os algoritmos utilizam para realizar suas predições agora também estarão em mãos governamentais. Percebe-se a ausência de consentimento livre e informado, além da implementação de uma conjuntura crítica, visto que os dados biométricos são extremamente sensíveis. Portanto, se o Brasil possuísse ânsia por implementá-lo nacionalmente, deveria investir, primeiramente, em um aparato de governança para gerir, de modo mais adequado, as informações sensíveis das empresas particulares assim como os dados biométricos e confidenciais da população. Caso contrário, a fiabilidade, não somente do repositório, mas também da própria estrutura governamental brasileira, será posta em xeque. ________ HANYU. Primeira recomendação do algoritmo de revisão do People's Daily Online: não deixe o algoritmo determinar o conteúdo. People's Daily Online: 18/09/2017. Disponível aqui. Acesso em: 30 de setembro de 2024. HAO, Karen. China May Be Chasing Impossible Dream by Trying to Harness Internet Algorithms. The Wall Street Journal. 30/08/2022. Disponível aqui. Acesso em: 06 de outubro de 2024. SHEEHAN, Matt. Tracing the Roots of China's AI Regulations. Carnegie Endowment for International Peace. Washington, DC. 2024. Disponível em: . Acesso em: 03 de outubro de 2024. SHEEHAN, Matt. China's AI Regulations and How They Get Made. Carnegie Endowment for International Peace. Washington, DC. 2023. Disponível em: . Acesso em: 03 de outubro de 2024. REPÚBLICA POPULAR DA CHINA. Disposições sobre avaliação da segurança dos serviços de informação da Internet com atributos de opinião pública ou capacidades de mobilização social. Administração do espaço cibernético da China. Rede de Informações da Rede China. 15/11/2018. Disponível aqui. Acesso em: 06 de outubro de 2024. REPÚBLICA POPULAR DA CHINA. Anúncio da Administração do Ciberespaço da China sobre a divulgação de informações de registro de algoritmo de serviço de informações da Internet. Administração do espaço cibernético da China. Rede de Informações da Rede China. 08/2024. Disponível aqui. Acesso em: 06 de outubro de 2024. REPÚBLICA POPULAR DA CHINA. Disposições sobre o gerenciamento de recomendações algorítmicas nos serviços de informações da Internet. Administração do espaço cibernético da China; Ministério da Indústria e Tecnologia da Informação; Ministério da Segurança Pública; Administração Estatal de Regulamentação do Mercado. Tradução de: China Law Translate. 31/12/2021. Disponível aqui.
Após 6 anos de promulgação da Lei Geral de Proteção de Dados Pessoais (LGPD), ainda pairam incertezas e leituras inconclusivas sobre alguns de seus conceitos, embora haja consenso de que o marco regulatório surgiu em um contexto global de crescente valorização da privacidade e da proteção de dados pessoais, acompanhando a tendência estabelecida pelo Regulamento Geral sobre a Proteção de Dados (RGPD) da União Europeia. Dentre os principais conceitos da LGPD, destaca-se o tratamento de dados pessoais, que engloba toda e qualquer operação que envolva o uso de dados pessoais, conforme estabelecido no inciso X do artigo 5º da lei. Ao lado desse conceito, encontramos o uso compartilhado de dados, previsto no inciso XVI do mesmo artigo, que, por sua vez, apresenta uma definição mais complexa e sujeita a interpretações diversas, especialmente quando se trata do regime aplicável ao Poder Público e à transferência internacional de dados. Com efeito, o conceito de tratamento de dados pessoais abrange qualquer operação realizada com dados pessoais, como coleta, produção, recepção, classificação, utilização, acesso, reprodução, transmissão, distribuição, processamento, arquivamento, armazenamento, eliminação, avaliação, modificação, comunicação, transferência, difusão ou extração. Essa definição é ampla e exemplificativa - o que se infere pela própria opção do legislador pela utilização do advérbio "como" após apresentar o conceito no mencionado inciso X - pois contempla todas as atividades que podem envolver dados pessoais, seja no âmbito privado ou público. A abrangência do conceito de tratamento de dados é proposital, visando garantir que qualquer tipo de operação com dados pessoais seja devidamente regulada pela LGPD. Nesse sentido, a definição reflete a necessidade de proteger os direitos dos titulares de dados em todas as etapas do ciclo de vida dos dados pessoais. O inciso XVI do artigo 5º da LGPD define, por sua vez, o uso compartilhado de dados como a "comunicação, difusão, transferência internacional, interconexão de dados pessoais ou tratamento compartilhado de bancos de dados pessoais por órgãos e entidades públicos no cumprimento de suas competências legais, ou entre estes e entes privados, com autorização específica, para uma ou mais modalidades de tratamento permitidas por esses entes públicos, ou entre entes privados". Embora o conceito seja claro em termos de abrangência das operações que podem ser consideradas de uso compartilhado, levanta dúvidas quanto à sua distinção em relação ao tratamento de dados, especialmente quando envolve os participantes do compartilhamento, em três situações: (i) apenas entre entes públicos; (ii) entre ente público e ente privado; (iii) entre entes privados. Além disso, a inclusão de termos como "comunicação" e "difusão", que também aparecem no rol exemplificativo do inciso V, e "interconexão", que é um termo totalmente novo e não conceituado, cria uma zona cinzenta, dificultando a compreensão de quando o uso compartilhado se distingue do tratamento de dados como um todo. A confusão torna-se ainda mais evidente no âmbito das relações entre o Poder Público e entidades privadas, já que o uso compartilhado é tratado como uma modalidade qualificada de tratamento de dados, mas uma possível explicação para a fragmentação do conceito de uso compartilhado em relação ao tratamento de dados reside na estruturação de um duplo regime para o Poder Público, conforme previsto no Capítulo IV da LGPD. O artigo 23 regula o tratamento de dados pessoais por parte de entes públicos, impondo condições específicas para que dados pessoais sejam manejados no exercício de suas competências, quais sejam: o cumprimento de finalidade pública e o atendimento do interesse público. Já o artigo 26 busca assegurar que o compartilhamento de dados ocorra de maneira responsável, respeitando os princípios de proteção de dados previstos no artigo 6º da lei, como a finalidade, necessidade e segurança. A previsão é de que o uso compartilhado atenda diretamente a interesses públicos legítimos, evitando abusos ou utilizações indevidas de informações pessoais. Pertinente a reflexão de Luiza Leite Cabral Loureiro Coutinho: "Diferentemente das relações privadas, em que o titular de dados faz escolhas em se relacionar ou não com determinada pessoa jurídica cadastrando, ou não, seus dados na base de dados de um site de compras, por exemplo, para que possa exercer a qualidade de consumidor de produtos e serviços daquele fornecedor, tal condição de optante na relação jurídica com o Poder Público não existe, uma vez que todos, como cidadãos, em função do pacto social, são compelidos a se relacionarem com o Estado, que coleta massivamente dados de toda a população desde o nascimento de cada cidadão até a sua morte"1. A existência de dois regimes distintos para o Poder Público é um reflexo da necessidade de definir diretrizes específicas para as operações realizadas por entes públicos, tanto no que tange ao tratamento interno de dados quanto ao compartilhamento com outras entidades. O uso compartilhado de dados, nesse contexto, surge como uma categoria especial de tratamento de dados, que exige a observância de regras adicionais. Sabe-se, pois, que a LGPD foi fortemente inspirada no RGPD, norma supranacional válida para todos os países-membros da União Europeia. O RGPD estabelece uma base sólida para a proteção de dados pessoais, permitindo que cada país membro internalize suas diretrizes com adaptações às suas realidades locais. No entanto, não aborda explicitamente o conceito de uso compartilhado de dados, deixando margem para interpretações variadas. Essa lacuna no regulamento europeu reflete a diversidade de regimes jurídicos existentes entre os países que integram a União Europeia, especialmente no que diz respeito ao tratamento de dados pelo Poder Público2. Por isso, a decisão do legislador brasileiro de criar um conceito específico para o uso compartilhado de dados busca evitar possíveis ambiguidades e garantir que o regime de tratamento pelo Poder Público seja devidamente tutelado. O §1º do artigo 26 da LGPD é claro ao estabelece restrições e exceções para o compartilhamento de dados pelo Poder Público a entidades privadas. Em regra, tal atividade é proibida, exceto em situações específicas como a descentralização de atividades públicas, nos casos em que os dados sejam acessíveis publicamente, ou quando houver previsão legal ou respaldo em contratos administrativos, convênios ou outros instrumentos congêneres. Além disso, a transferência também é permitida em situações que visem à prevenção de fraudes, irregularidades, ou à proteção da segurança e integridade do titular dos dados, desde que as finalidades sejam claras e delimitadas. Já o §2º define que quaisquer contratos e convênios que envolvam a transferência de dados pessoais entre o Poder Público e entidades privadas devem ser comunicados à Autoridade Nacional de Proteção de Dados (ANPD). Essa exigência reforça a transparência e o controle sobre o uso de dados pessoais, garantindo que a ANPD possa fiscalizar e monitorar as operações de tratamento de dados, assegurando a conformidade com a legislação e os direitos dos titulares de dados. A ANPD, no Guia Orientativo sobre o Tratamento de Dados Pessoais pelo Poder Público, cuja segunda versão foi publicada em junho de 20233, explica que o compartilhamento de dados pessoais ocorre quando órgãos e entidades públicas concedem acesso ou transferem bases de dados para outros entes públicos ou privados com o objetivo de atender finalidades públicas. Na visão da autoridade nacional, o conceito de "uso compartilhado de dados", definido pela LGPD, inclui várias formas de transferência e comunicação de dados para o cumprimento de competências legais. Esse uso é essencial para atividades rotineiras do Poder Público, como pagamento de servidores e prestação de serviços públicos. No entanto, o uso compartilhado deve seguir os princípios e bases legais da LGPD, garantindo transparência, segurança jurídica e a proteção dos direitos dos titulares, evitando abusos e desvios de finalidade. Para orientar o Poder Público, a ANPD destaca os principais requisitos a serem observados nesses processos, ajustáveis conforme o contexto de cada caso. A tabela do Anexo I do Guia Orientativo da ANPD detalha os requisitos e recomendações para o uso compartilhado de dados pessoais pelo Poder Público, a saber: (a) Formalização e registro: Recomenda-se a instauração de um processo administrativo formal, incluindo análise técnica e jurídica, decisão administrativa por meio de contrato ou convênio, além da edição de ato normativo interno; (b) Objeto e finalidade: O uso compartilhado deve especificar de forma objetiva e detalhada os dados pessoais envolvidos, a finalidade específica desse uso, e deve ser feita uma avaliação da compatibilidade entre a finalidade original e a nova finalidade do compartilhamento; (c) Base legal: É necessário indicar a base legal que justifica o uso compartilhado, conforme previsto na LGPD, reforçando a importância de seguir as normas adequadas para o tratamento de dados; (d) Duração do tratamento: Deve-se definir claramente o período durante o qual os dados serão compartilhados, com justificativa fundamentada e também é necessário esclarecer se os dados serão conservados após o término do tratamento ou se serão eliminados; (e) Transparência e direitos dos titulares: Informações sobre o compartilhamento devem ser divulgadas de forma clara, tanto nas páginas eletrônicas das entidades envolvidas quanto diretamente para os titulares de dados, isto é, a entidade deve se certificar de que essas informações sejam facilmente compreensíveis e deve definir as responsabilidades e os procedimentos para atender solicitações dos titulares; (f) Prevenção e segurança: Recomenda-se a adoção de medidas técnicas e administrativas adequadas para proteger os dados pessoais e evitar incidentes de segurança; (g) Outros requisitos: A depender do caso concreto, outros requisitos podem ser necessários, como a autorização para novos compartilhamentos, a responsabilidade financeira, e a elaboração de relatórios de impacto à proteção de dados. Esses requisitos visam garantir uma gestão cuidadosa e segura dos dados durante todo o processo. No mais, embora o uso compartilhado de dados entre entes privados seja permitido pela LGPD, sua aplicação é mais restrita e deve obedecer a critérios específicos4. Todavia, não há regime específico definido na lei para que tal atividade de tratamento seja realizada, o que cria incertezas sobre a própria necessidade da distinção conceitual. Quiçá a única passagem na qual se observa a relevância dessa distinção para a iniciativa privada seja o §4º do artigo 11 da LGPD, que proíbe o uso compartilhado de dados pessoais sensíveis referentes à saúde entre controladores com o objetivo de obter vantagem econômica. No entanto, existem exceções a essa regra, como nos casos de prestação de serviços de saúde, assistência farmacêutica e assistência à saúde, desde que tais práticas beneficiem os interesses dos titulares de dados e sigam o § 5º do mesmo artigo. Essas exceções permitem o uso compartilhado de dados sensíveis para assegurar a portabilidade de dados, quando solicitada pelo titular, e para facilitar transações financeiras e administrativas decorrentes da prestação de serviços de saúde. Essas exceções estão relacionadas a situações em que o compartilhamento é necessário para o cumprimento de uma obrigação legal ou regulatória, para a execução de contratos, ou para a proteção da vida e da integridade física do titular dos dados ou de terceiros. Além disso, o uso compartilhado entre entes privados deve ser avaliado à luz das demais disposições da LGPD, especialmente no que se refere à necessidade de garantir a segurança dos dados e o cumprimento dos princípios gerais da Lei. O conceito de uso compartilhado de dados na LGPD, embora à primeira vista pareça confuso, é uma ferramenta importante para regular as operações de tratamento de dados no Brasil, especialmente quando envolve o Poder Público e a transferência internacional de dados. A distinção entre o uso compartilhado e o tratamento de dados é essencial para a aplicação correta das normas previstas na lei, garantindo que as atividades de tratamento sejam realizadas de acordo com o regime jurídico adequado. A inspiração no RGPD é evidente, mas o legislador brasileiro foi além, criando um conceito próprio para o uso compartilhado de dados que leva em consideração as peculiaridades do sistema jurídico nacional e as necessidades do setor público. Em conclusão, o uso compartilhado de dados deve ser visto como uma modalidade qualificada de tratamento de dados, aplicável em contextos específicos, e que exige a observância de regras claras e bem definidas para garantir a proteção dos direitos dos titulares de dados e a conformidade com a legislação vigente. __________ 1 COUTINHO, Luiza Leite Cabral Loureiro. Um sistema government-to-business de compartilhamento de dados: os riscos e limites de incidência do artigo 26 da Lei Geral de Proteção de Dados. In: CRAVO, Daniela Copetti; JOBIM, Eduardo; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Direito público e tecnologia. Indaiatuba: Foco, 2022, p. 323-324. 2 LIMBERGER, Têmis. Artigo 23. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Comentários à Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018). 2. ed. Indaiatuba: Foco, 2022, p. 281-285. 3 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS (ANPD). Guia orientativo sobre o tratamento de dados pessoais pelo Poder Público. Versão 2.0. Brasília, 2023. Disponível aqui. Acesso em: 03 out. 2024. 4 LIMBERGER, Têmis. Artigo 26. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Comentários à Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018). 2. ed. Indaiatuba: Foco, 2022, p. 309.
sexta-feira, 27 de setembro de 2024

A IA que a ONU quer ver

Entre os dias 20 e 23 deste mês de setembro, vários chefes de Estado e de governo dos 193 Estados-membros da ONU, representantes da porção jovem do mundo e representantes da sociedade civil, pesquisadores e o setor privado reuniram-se, na sede das Nações Unidas, em Nova Iorque, para a Cúpula do Futuro 2024. Esta reunião não só abrangeu temas sobre Inteligência Artificial (IA), mas também outros temas foram debatidos, tais como: a pobreza extrema e a fome no mundo; as emissões de gases de efeito estufa; os conflitos bélicos e políticos que ocasionam grandes deslocamentos de pessoas; as ameaças ao planeta devido às mudanças climática e, como era esperado, os riscos associados às novas tecnologias. Todas estas discussões passam pela afirmação política da instituição alegando que "a governança multilateral, concebida em tempos mais simples e mais lentos, deixou de ser adequada para a realidade complexa, interligada e em rápida mutação dos nossos dias"1. Entenderam isso? Na verdade, esta discussão sobre futuro, nesta organização, é uma discussão antiga que começou na reunião da Assembleia Geral da ONU em setembro de 2022. Esta foi a reunião que formatou a atual Cúpula do Futuro, incluindo aqui seu propósito "de reforçar a governança global em favor das gerações presentes e futuras ... com recomendações para fazer avançar a nossa agenda comum e responder às questões atuais e desafios futuros"2. As primeiras decisões desta Assembleia Geral de 2022 culminaram num documento de maio de 20233 que destaca os principais pontos e visões dessa cooperativa chamada ONU. Essa visão global da IA está bem retratada no relatório final sobre "Governança da Inteligência Artificial para a Humanidade"4 lançado no dia 17 de setembro de 2024, às vésperas da Cúpula do Futuro. Elenco abaixo as conclusões resumidas deste documento de mais de 100 páginas e que são apresentadas logo a partir da sétima página. O que a ONU pensa sobre a IA 1. A inteligência artificial (IA) está revolucionando diversos setores ao abrir novas fronteiras científicas, otimizar redes de energia, melhorar a saúde pública e a agricultura, além de apoiar o progresso em relação aos Objetivos de Desenvolvimento Sustentável (ODS). 2. Sem governança adequada, as oportunidades da IA podem não se manifestar ou ser distribuídas de forma equitativa, ampliando a desigualdade digital e limitando os benefícios a poucos Estados, empresas e indivíduos. A falta de confiança e governança ineficaz pode restringir o potencial da IA. 3. A IA também traz riscos, como o viés e a vigilância, além de novas preocupações, como as "alucinações" dos modelos de linguagem, disseminação de desinformação, riscos à paz e segurança, e o consumo de energia em tempos de crise climática. 4. Sistemas de IA rápidos, opacos e autônomos desafiam as regulamentações tradicionais e podem transformar o mundo do trabalho. Armas autônomas e usos de IA na segurança pública levantam questões legais, de segurança e humanitárias sérias. 5. Atualmente, há um déficit de governança global em relação à IA. Apesar das discussões sobre ética e princípios, o conjunto de normas e instituições ainda é incipiente e cheio de lacunas. A responsabilidade é frequentemente ausente, especialmente no uso de sistemas de IA inexplicáveis que afetam os outros, e o cumprimento das regras muitas vezes depende do voluntarismo, em contraste com o discurso. 6. Como observado em nosso relatório provisório, a governança da IA é crucial, não apenas para enfrentar os desafios e riscos, mas também para garantir que aproveitemos o potencial da IA de maneira inclusiva. Sim, são estes os pontos principais que não parecem estar tão preocupados com os benefícios que a ciência sempre trouxe para o mundo como estão com a governança da IA, ou seja, quem irá ditar as regras da IA. Dos seis tópicos, metade deles foca em governança. Será que realmente a IA está tão "desgovernada" assim. Sera que a IA é realmente esse agente tecnológico com esse potencial ofensivo a humanidade? Outros agentes tecnológicos disruptivos De tempos em tempos a tecnologia prega peças na gente. Qual leitor aqui se lembra quando a humanidade passou apreensiva pelo réveillon do ano de 1999, bem na virada do século? Pois foi um susto antes e um susto maior depois. Um susto antes pois, no século passado, era comum os softwares armazenarem apenas os últimos dois dígitos do ano por razões de economia de memória. Sendo assim, existia a expectativa que muitos programas de computador, na virada do século, fossem interpretar o ano novo, 2000, como o ano de 1900. Como ficariam os satélites? As emissões de passagens aéreas? Os boletos com vencimento em janeiro? Foram muitas horas gastas para remediar a situação que fora então chamado de "bug do milênio"5. O outro susto foi na efetiva mudança de século: praticamente nada aconteceu. O réveillon foi um sucesso. O bug... parece que quem viu este bug, por coincidência, também viu o cometa Halley anos antes. Um pouco mais próximo de nós, em maio de 2008, "o STF decidiu que as pesquisas com células-tronco embrionárias não violam o direito à vida, tampouco a dignidade da pessoa humana. Esses argumentos foram utilizados pelo ex-procurador-geral da República, Claudio Fonteles, na  ADIn 3510 ajuizada com o propósito de impedir essa linha de estudo científico"6. Nesta época, tivemos grandes discussões na sociedade, principalmente na definição de quando se dá o início da vida e, outras como a possibilidade de uso destas células para clonagem humana. O STF apaziguou ambas. Levantei estes dois temas anteriores pois, cada um ao seu modo, ambos apresentam evoluções da ciência que, de alguma forma, impactaram a sociedade. Muito embora o mundo já tenha enfrentado desafios semelhantes e, talvez, mais impactantes, com outras "engenhocas" disruptivas, tais como a máquina a vapor, os motores elétricos, o avião, o telefone, e até mesmo a iluminação pública que dizimou o emprego dos acendedores de postes no começo do século XX no Brasil; talvez nada se compare aos efeitos da Computação, tanto para o progresso, quanto para o malefício. O computador é uma máquina que tem o potencial de "invadir" todas as atividades humanas, como já está fazendo há alguns anos. Por isso mesmo, que logo ao ser criada, essa máquina já tinha a alcunha de ser a única máquina universal que o homem já havia criado, dadas suas possibilidades de aplicações. Preocupações com a IA Aqui eu destaco que, quando comentamos sobre os avanços da IA, muitas vezes estamos nos referindo apenas (e não apenas) às aplicações da IA. Não apenas, pois são estas aplicações da IA que irão participar do nosso cotidiano. São estas aplicações que irão escolher os filmes de streaming que iremos assistir, irão dirigir os aviões, irão pilotar automóveis as ruas, escolher o que iremos ver nas redes sociais, auxiliar nas nossas redações no trabalho... percebam que estas são aplicações da IA que já estão presentes nas nossas vidas. O que será que ainda está por vir? A resposta a esta última pergunta está nas pesquisas sobre IA. Esta resposta ainda está sendo elaborada. Neste ponto, não há organização neste mundo que consiga "brecar" esta atividade. Percebam que não há paralelo na comparação entre pesquisas em laboratórios de biociências, como foi o caso das células troncos embrionárias, nas quais as pesquisas só podem ser realizadas em locais físicos, com recursos físicos (os embriões, as células), em alguns poucos laboratórios bem desenvolvidos e constituídos por um grupo de pesquisadores, com pesquisa em computação. Neste último caso, os computadores são abundantes, quase onipresentes. Todo cientista da computação tem acesso a dezenas deles, dos mais simples, aos mais sofisticados. Os modelos estão nos livros, nos artigos científicos. Pesquisar em IA é uma tarefa que envolve conhecimento, técnica, inovação, criatividade e criação de códigos, ou seja, de software. Neste "pequeno mundo" da Computação, ainda quase tudo é possível. A IA que o mundo deveria ver A seguir, elenco os desafios que eu acredito que as pesquisa sobre Inteligência Artificial poderão trazer respostas: 1. Educação. Como usar os recursos da IA para oferecer uma educação de qualidade para todos os jovens? Como estes recursos podem ser usados para eliminar as barreiras de acesso tecnológico que hoje existe para os mais velhos, para as pessoas com incapacidades físicas, para as pessoas com poucos recursos financeiros e os que vivem distantes dos grandes centros. Como fazer uma educação inclusiva com a IA que temos hoje? 2. Saúde. Como promover um acesso mais igualitário a saúde por meio da IA? Como abranger mais pessoas? Como melhorar suas condições sanitárias e físicas? Como usar a IA para aproximar as famílias distantes, os deficientes físicos das escolas, dos centros de saúde? 3. Agricultura. Como usar a IA para aumentar a produção de alimentos frescos e fazer com que estes alimentos cheguem a todos, independentemente de sua situação na geografia do planeta, de sua situação financeira? 4. Segurança. Como usar a IA para aumentar nossa segurança nas cidades e no campo. Nossa segurança financeira, nossa segurança com nossos dados pessoais, nossa segurança nos transportes, nas compras e outras transações. 5. Serviços e produção. Como usar a IA para permitir aos cidadãos mais acesso aos serviços públicos, mais cidadania. Como usar a IA para facilitar o trabalho braçal, aumentar a mecanização e treinar e oferecer trabalhos menos desgastantes fisicamente para as pessoas. E por fim, 6. Liberdade. Como usar a IA e fazer do mundo um lugar de cidadãos globais, com direito de ir e vir sem serem importunados por motivos de fé, crença, religião, cor da pele, crenças e opiniões. Como usar a IA para que as pessoas sejam e se sintam efetivamente livres para exporem suas opiniões sem sofrerem retaliações, para fazê-las donas dos seus deveres como serão dos seus direitos. Estão aqui seis pontos de discussão que a ONU poderia encampar, em contraste com os seis anteriormente apresentados. Sei que é muita a pretensão deste autor, mas... São seis pontos de discussão que todos os estados membros podem trabalhar em suas "casas" e não se sentirem presos a esta agremiação que acha que os problemas do mundo são tantos que as nações independentes precisam da opinião de um escritório geral de burocratas para resolverem seus, nossos problemas. Para tantos a IA é um problema, mas para muitos a IA é um desafio e será uma solução para um mundo bem melhor, um mundo de pessoas responsáveis, livres e governadas por pessoas que eles escolheram pelo sufrágio universal. __________  1 Cúpula do Futuro. Aja agora para o nosso futuro comum. Disponível aqui. Último acesso em 23 de setembro de 2024. 2 Resolution adopted by the General Assembly on 8 September 2022. Disponível aqui. Último acesso em 23 de setembro de 2024. 3 Our Common Agenda. Policy Brief 5. A Global Digital Compact an Open, Free and Secure Digital Future for All. Disponível aqui. Último acesso em 24 de setembro de 2024. 4 Governança da Inteligência Artificial para a Humanidade. Disponível aqui. Último acesso em 23 de setembro de 2024. 5 "Bug do milênio": 20 anos do primeiro grande desafio de cibersegurança. Disponível aqui. Último acesso em 23 de setembro de 2024. 6 STF libera pesquisas com células-tronco embrionárias. Disponível aqui. Último acesso em 23 de setembro de 2024.
A lei 14.790/2023, também conhecida como Lei das Bets, a qual dispõe sobre a modalidade lotérica denominada apostas de quota fixa, alterou as normas brasileiras sobre a temática1. Com as novas regras, apostas virtuais, apostas físicas, evento real de temática esportiva, jogos online, e eventos virtuais de jogos online são regulamentados2. No artigo 2º, a legislação apresenta glossário sobre os termos cruciais para o seu entendimento3. A apresentação do significado dos vocábulos é importante para garantir a segurança jurídica e evitar conflitos mediante a redação apresentada. Segundo o supramencionado artigo, apresentam-se os seguintes significados: aposta, quota-fixa, apostador, canal eletrônico, aposta virtual, aposta física, evento real de temática esportiva, jogos online, evento virtual de jogo online, agente operador de apostas, e aplicações de internet. Enquanto isso, o artigo 3º define apostas de quota fixa como os eventos reais de temática esportiva e os eventos virtuais de jogos online4. Qualquer empresa que pretenda atuar no mercado de apostas de quota fixa, no Brasil, deverá obter licença comercial, mediante prévia autorização a ser expedida pelo Ministério da Fazenda. De acordo com a legislação, os agentes operadores de apostas que tenham o direito de exploração da atividade no Brasil poderão dar início a sua atuação a partir de 1º de janeiro de 2025. Todas as organizações que estejam pleiteando o licenciamento devem, desde o dia 29 de dezembro de 2023, seguir a legislação aplicável6, e todas outras normativas sobre o tema7. 1. MUDANÇA DE PARADIGMA: ANTES E DEPOIS DA LEI Nº 14.790, DE 29 DE DEZEMBRO DE 2023 A aposta de quota fixa, popularmente conhecida como aposta esportiva, foi autorizada no Brasil em 2018, por meio da Lei nº 13.7568. Entretanto, como não houve regulamentação adicional sobre o tema, os apostadores estavam desamparados, tendo em vista que as empresas exploradoras dessa atividade estavam sediadas, exclusivamente, em outros países9. Em 2018, a regulamentação das apostas no Brasil apresentava distinções significativas entre os tipos de eventos. Eram permitidas as apostas esportivas de quota fixa, nas quais o valor do prêmio era determinado previamente ao evento esportivo. Em contrapartida, as apostas em eventos virtuais de jogos online não estavam autorizadas refletindo uma lacuna regulatória que não contemplava a crescente complexidade e demanda desse segmento e causando um cenário de instabilidade jurídica, afetando diretamente o consumidor. Anteriormente à Lei nº 14.790/2023, o panorama das apostas no Brasil era caracterizado pela permissão de atuação, mas falta de regulamentação sobre o tema10. A legislação estipulava que as empresas que oferecessem os serviços de apostas online poderiam funcionar por meio de sites que estivessem hospedados em domínios fora do Brasil11. No que diz respeito à tributação, todo o montante arrecadado pelas organizações era remetido para fora do Brasil, não incidindo a aplicabilidade de taxas ou impostos federais, apesar da exploração da atividade no país12. Devido à falta de conexão entre o marco legal existente e a realidade do mercado de apostas no Brasil, que apresentou crescimento exponencial nos últimos anos, em 2023, aprovou-se a Lei nº 14.790/2023. A nova regulação mudou o paradigma sobre apostas online no país, estabelecendo deveres e responsabilidades às empresas do setor13. A nova lei apresenta como foco a responsabilidade, a integridade e a transparência, estabelecendo padrões rigorosos para os agentes operadores, como a adoção de práticas consumeristas compatíveis com o Código de Defesa do Consumidor (CDC)14, a proteção integral de crianças e adolescentes, como disciplina o Estatuto da Criança e do Adolescente (ECA)15, a proteção de dados pessoais conforme a Lei Geral de Proteção de Dados (LGPD)16, a implementação de robusto sistema direcionado ao combate à lavagem de dinheiro e financiamento do terrorismo17, prevenção a fraudes e manipulações de apostas, e o incentivo ao jogo responsável e prevenção de comportamentos patológicos18. A partir de um quadro legal claro e detalhado para a operação dessas atividades. O governo brasileiro pretende aumentar a transparência, promover a segurança dos apostadores, e incentivar as boas práticas no mercado de apostas online. 2. O PAPEL REGULADOR DA SECRETARIA DE PRÊMIOS E APOSTAS A Secretaria de Prêmios e Apostas (SPA), vinculada ao Ministério da Fazenda, foi criada para regular o setor de apostas e prêmios no Brasil. A supervisão das operações de apostas, a emissão de licenças e o monitoramento do cumprimento das normas estabelecidas pela legislação será de responsabilidade da secretaria.19. As organizações devem cumprir uma série de requisitos para oferecer serviços de apostas legais no Brasil20, a SPA tem como objetivo proteger os direitos dos apostadores, garantindo que os jogos e apostas sejam conduzidos de forma segura e que os prêmios sejam pagos conforme acordado entre o apostador e o agente operador. O órgão é responsável pela gestão da receita gerada pelas apostas e prêmios, isso inclui o recolhimento de impostos e contribuições financeiras relacionados a essas atividades, assegurando que a arrecadação esteja alinhada com as políticas fiscais do governo. Em relação à tributação, a Lei das Bets estabelece que, do total arrecadado após as deduções pertinentes, 88% serão direcionados para custear e manter o agente operador. Já os outros 12% serão distribuídos da seguinte forma: 36% serão destinados ao setor esportivo; 28% ao turismo; 13,6% à segurança pública; 10% à área educacional; 10% à seguridade social; 1% será alocado para a implementação de medidas que visem prevenir, controlar e mitigar os danos sociais associados à prática de jogos21. 3. SOBRE AS CONDUTAS VEDADAS NA OFERTA DE APOSTAS O art. 29 trata sobre as condutas vedadas na oferta de apostas, estabelecendo a proibição de oferta de qualquer forma de adiantamento, bônus ou vantagem prévia para incentivar apostas. Isso destaca o compromisso do legislador em prevenir comportamentos que podem induzir o consumidor22. O art. 29 proíbe aos agentes operadores conceder adiantamentos, bonificações ou vantagens prévias a apostadores, mesmo que para promoção. Também veda a formação de parcerias para facilitar crédito ou fomento mercantil para apostadores e a instalação de qualquer agência ou representação que ofereça crédito ou operações financeiras dentro de seus estabelecimentos. Essas regras visam garantir o jogo responsável, a proteção do consumidor e os direitos do apostador. Além disso, existem diversos requisitos que devem ser cumpridos por parte das organizações, inclusive cláusulas de advertência ao consumidor, as quais devem ser incluídas nas mensagens publicitárias veiculadas23. Na mesma direção, a Portaria SPA/MF nº 1.231/2024 estabelece regras e diretrizes para as ações de comunicação e marketing, para o jogo responsável e regulamenta os direitos e deveres de apostadores e de agentes operadores24. 4. POLÍTICA DO JOGO RESPONSÁVEL E PREVENÇÃO AOS TRANSTORNOS DE JOGO PATOLÓGICO A Portaria SPA/MF nº 1.231/2024 estabelece uma série de dispositivos legais para complementar as disposições e acelerar a implementação das práticas de jogo responsável25. A política de jogo responsável é um conjunto de práticas adotadas por empresas de apostas para garantir que suas atividades sejam éticas e seguras, protegendo os apostadores, prevenindo vícios e promovendo uma experiência de jogo justa. Para a expansão do mercado de apostas online no Brasil, é essencial que haja responsabilidade multisetorial quanto às práticas de jogo responsável e prevenção de comportamentos patológicos por parte dos apostadores. Sendo assim, os agentes operadores têm a obrigatoriedade de implementá-las e incentivá-las, reforçando a segurança e a integridade do serviço prestado.  Para promover o jogo responsável, as empresas devem adotar uma série de ferramentas que garantam a proteção dos jogadores e um ambiente de jogo seguro. Devem ser levados em conta requisitos como consciência sobre as regras adotadas pela plataforma, as reais chances de perdas e ganhos por parte do jogador, a falta de relação entre a capacidade física e intelectual do apostador com o resultado aleatório dos eventos virtuais de jogos online26, por exemplo. Nesse sentido, dentre os recursos necessários para que haja ciência sobre os riscos do jogo, estão as opções de suporte ao consumidor e disponibilização de informação facilmente acessível27. Também destacam-se algumas das medidas que podem ser implementadas por parte dos agentes operadores, como: limites de depósito28, autoexclusão29, alertas30, definição de pausa31, suporte ao apostador32, materiais educativos33. 5. COMENTÁRIOS FINAIS A regulamentação de apostas online no Brasil é crucial para garantir um mercado seguro e transparente ao apostador, protegendo todos os direitos previstos constitucional e infraconstitucionalmente. Ao estabelecer normas claras e rigorosas, é possível estabelecer cooperação multissetorial em prol da prevenção de fraudes, garantindo que os agentes operadores respeitem as leis locais, assegurem os direitos dos apostadores, e recolham taxas e impostos necessários à exploração de atividade econômica no país. Políticas voltadas à prevenção de problemas associados ao jogo compulsivo, promovendo práticas de jogo responsável, e oferecendo  suporte àqueles que possam enfrentar dificuldades são essenciais. Isso não só protege a saúde e o bem-estar dos apostadores, como também contribui para um ambiente de apostas controlado e justo. A expectativa para o setor é de que as novas regras reforcem a integridade e transparência das operações, principalmente com a obrigação de que as empresas estejam sediadas no Brasil e condicionadas à jurisdição local. Se as normas estabelecidas pela Lei nº 14.790/2023 não forem cumpridas, os agentes operadores podem ser multados em até R$ 2 bilhões de reais34. Do ponto de vista econômico, o mercado de apostas bem regulamentado e responsável pode gerar receitas significativas para o governo por meio de impostos e taxas, incentivando e movimentando a indústria brasileira em diversos setores. Do ponto de vista legal, a regulação sobre a matéria é um passo em direção ao estabelecimento de segurança jurídica, beneficiando o apostador, o consumidor, e o titular de dados pessoais, nas suas diversas posições de vulnerabilidade. ________         1 De acordo com o art. 1º da Lei nº 14.790/2023: "Art. 1. Esta Lei dispõe sobre a modalidade lotérica denominada apostas de quota fixa e altera: I - a Lei nº 5.768, de 20 de dezembro de 1971, para consolidar e estabelecer novas regras sobre a distribuição gratuita de prêmios a título de propaganda e sobre a distribuição de prêmios realizada por organizações da sociedade civil, com o intuito de arrecadar recursos adicionais destinados à sua manutenção ou custeio; II - a Lei nº 13.756, de 12 de dezembro de 2018, para estabelecer diretrizes e regras para a exploração da loteria de apostas de quota fixa; e III - a Medida Provisória nº 2.158-35, de 24 de agosto de 2001, para dispor sobre a taxa de autorização referente às atividades de que trata a Lei nº 5.768, de 20 de dezembro de 1971". Para mais informações: https://www.planalto.gov.br/ccivil_03/_ato2023-2026/2023/lei/l14790.htm#art57-3.b. 2 A Lei nº 14.790/2023 "dispõe sobre a modalidade lotérica denominada apostas de quota fixa; altera as Leis nºs 5.768, de 20 de dezembro de 1971, e 13.756, de 12 de dezembro de 2018, e a Medida Provisória nº 2.158-35, de 24 de agosto de 2001; revoga dispositivos do Decreto-Lei nº 204, de 27 de fevereiro de 1967; e dá outras providências.". 3 De acordo com o art. 2º da Lei nº 14.790/2023: "Art. 2º Para fins do disposto nesta Lei, considera-se: I - aposta: ato por meio do qual se coloca determinado valor em risco na expectativa de obtenção de um prêmio; II - quota fixa: fator de multiplicação do valor apostado que define o montante a ser recebido pelo apostador, em caso de premiação, para cada unidade de moeda nacional apostada; III - apostador: pessoa natural que realiza aposta; IV - canal eletrônico: plataforma, que pode ser sítio eletrônico, aplicação de internet, ou ambas, de propriedade ou sob administração do agente operador de apostas, que viabiliza a realização de aposta por meio exclusivamente virtual; V - aposta virtual: aquela realizada diretamente pelo apostador em canal eletrônico, antes ou durante a ocorrência do evento objeto da aposta; VI - aposta física: aquela realizada presencialmente mediante a aquisição de bilhete em forma impressa, antes ou durante a ocorrência do evento objeto da aposta; VII - evento real de temática esportiva: evento, competição ou ato que inclui competições desportivas, torneios, jogos ou provas, individuais ou coletivos, excluídos aqueles que envolvem exclusivamente a participação de menores de 18 (dezoito) anos de idade, cujo resultado é desconhecido no momento da aposta e que são promovidos ou organizados: a) de acordo com as regras estabelecidas pela organização nacional de administração do esporte, na forma prevista na Lei nº 14.597, de 14 de junho de 2023 (Lei Geral do Esporte), ou por suas organizações afiliadas; ou b) por organizações de administração do esporte sediadas fora do País; VIII - jogo on-line: canal eletrônico que viabiliza a aposta virtual em jogo no qual o resultado é determinado pelo desfecho de evento futuro aleatório, a partir de um gerador randômico de números, de símbolos, de figuras ou de objetos definido no sistema de regras; IX - evento virtual de jogo on-line: evento, competição ou ato de jogo on-line cujo resultado é desconhecido no momento da aposta; X - agente operador de apostas: pessoa jurídica que recebe autorização do Ministério da Fazenda para explorar apostas de quota fixa; e XI - aplicações de internet: o conjunto de funcionalidades que podem ser acessadas por meio de um terminal conectado à internet.". Para mais informações: https://www.planalto.gov.br/ccivil_03/_ato2023-2026/2023/lei/l14790.htm#art57-3.b. 4 De acordo com o art. 3º da Lei nº 14.790/2023: "Art. 3º As apostas de quota fixa de que trata esta Lei poderão ter por objeto: I - eventos reais de temática esportiva; ou II - eventos virtuais de jogos on-line.". 5 De acordo com o art. 12 da Lei nº 14.790/2023: "Art. 12. A expedição da autorização para exploração de apostas de quota fixa será condicionada ao recolhimento do valor fixo de contraprestação de outorga, conforme estipulado na regulamentação do Ministério da Fazenda. Parágrafo único. O valor estipulado a título de outorga fixa será limitado a, no máximo, R$ 30.000.000,00 (trinta milhões de reais), considerado o uso de 3 (três) marcas comerciais a serem exploradas pela pessoa jurídica em seus canais eletrônicos por ato de autorização.". 6 De acordo com o art. 58 da Lei nº 14.790/2023: "Art. 58. Esta Lei entra em vigor na data de sua publicação e produz efeitos: I - quanto ao inciso VI do caput do art. 39, a partir da data de vigência da regulamentação do Ministério da Fazenda que possibilite aos interessados a apresentação de pedido de autorização para a exploração de apostas de quota fixa; II - quanto ao art. 51, na parte em que altera o § 1º-A do art. 30 da Lei nº 13.756, de 12 de dezembro de 2018, para dispor sobre a contribuição à seguridade social, a partir do primeiro dia do quarto mês subsequente ao de sua publicação; III - quanto à alínea b do inciso III do caput do art. 57, a partir do primeiro dia do quarto mês subsequente ao de sua publicação; e IV - quanto aos demais dispositivos, na data de sua publicação." 7 Para mais informações sobre a legislação sobre apostas de quota fixa no Brasil. Disponível aqui. 8 Para mais informações sobre a Lei nº 13.756/ 2018. Disponível aqui. 9 BRASIL61. Apostas esportivas são permitidas desde 2018, mas ainda não existe regulamentação sobre tema, dizem especialistas. Disponível aqui. 10 BRASIL61. Apostas esportivas são permitidas desde 2018, mas ainda não existe regulamentação sobre tema, dizem especialistas. Disponível aqui. 11 BRASIL61. Apostas esportivas são permitidas desde 2018, mas ainda não existe regulamentação sobre tema, dizem especialistas. Disponível aqui. 12 BRASIL61. Apostas esportivas são permitidas desde 2018, mas ainda não existe regulamentação sobre tema, dizem especialistas. Disponível aqui. 13 Para mais informações, verificar a Lei nº 14.790/2023. Disponível aqui. 14 Para mais informações sobre o Código de Defesa do Consumidor (CDC). Disponível aqui. 15 Para mais informações sobre o Estatuto da Criança e do Adolescente (ECA). Dinsponível aqui. 16 Para mais informações sobre a Lei Geral de Proteção de Dados (LGPD). Disponível aqui. 17 Para mais informações ver a Lei nº 9.613/1998, que "dispõe sobre os crimes de "lavagem" ou ocultação de bens, direitos e valores; a prevenção da utilização do sistema financeiro para os ilícitos previstos nesta Lei; cria o Conselho de Controle de Atividades Financeiras - COAF, e dá outras providências. Disponível aqui. Ver também a portaria SPA/MF nº 1.143/2024 estabelece políticas, procedimentos e controles internos de prevenção à lavagem de dinheiro. 18 Ver a Portaria SPA/MF nº 1.231/2024, que estabelece regras e diretrizes para o jogo responsável e para as ações de comunicação e marketing, e regulamenta os direitos e deveres de apostadores e de agentes operadores. 19 A Secretaria de Prêmios e Apostas foi estabelecida por meio do Decreto 11.907/2024. Disponível aqui. 20 Para mais informações sobre a Lei nº 13.756/ 2018. Disponível aqui. 21 Para mais informações, verificar o art. 30, § 1º-A da Lei nº 14.790/2023. Disponível aqui. 22 De acordo com o art. 29 da Lei nº 14.790/2023: "Art. 29. É vedado ao agente operador: I - conceder, sob qualquer forma, adiantamento, antecipação, bonificação ou vantagem prévia, ainda que a mero título de promoção, de divulgação ou de propaganda, para a realização de aposta; II - firmar parceria, convênio, contrato ou qualquer outra forma de arranjo ou ajuste negocial para viabilizar ou facilitar o acesso a crédito ou a operação de fomento mercantil por parte de apostador; e III - instalar ou permitir que se instale em seu estabelecimento físico qualquer agência, escritório ou representação de pessoa jurídica ou física que conceda crédito ou realize operação de fomento mercantil a apostadores.". 23 Conselho Nacional Brasileiro de Autorregulamentação Publicitária (CONAR). Código Brasileiro de Autorregulamentação Publicitária. Disponível aqui. 24 A Portaria SPA/MF nº 1231/2024 "estabelece regras e diretrizes para o jogo responsável e para as ações de comunicação, de publicidade e propaganda e de marketing, e regulamenta os direitos e deveres de apostadores e de agentes operadores, a serem observados na exploração comercial da modalidade lotérica de apostas de quota fixa de que tratam o art. 29 da Lei nº 13.756, de 12 de dezembro de 2018, e a Lei nº 14.790, de 29 de dezembro de 2023. Disponível aqui. 25 Disponível aqui. 26 A Portaria SPA/MF nº 1.207/2024 "estabelece requisitos técnicos para funcionamento e homologação dos jogos on-line e estúdios de jogos ao vivo, um dos objetos de apostas da modalidade lotérica de aposta de quota fixa.". Disponível aqui. 27 Ver "Princípios de responsabilidade social e jogo responsável". Disponível aqui. 28 Permitindo que os apostadores definam um valor máximo para depósitos em períodos diários, semanais ou mensais. 29 Possibilita ao usuário se afastar temporariamente ou permanentemente da plataforma de apostas. 30 Notificações periódicas sobre o tempo gasto no jogo. 31 Permite que os jogadores programem períodos específicos em que sua conta ficará inativa. 32 Canais de suporte podem ajudar jogadores com problemas, oferecendo assistência. 33 Oferecer orientações sobre como usar as ferramentas de controle e identificar comportamentos de risco. 34 De acordo com o art. 41 da Lei nº 14.790/2023: "Art. 41. São aplicáveis às pessoas físicas e jurídicas que infringirem o disposto nesta Lei as seguintes penalidades, de forma isolada ou cumulativa.".
Na Era da Informação, as pessoas têm acesso a uma infinidade de dados disponíveis na Internet, os quais estão dispersos na rede mundial de computadores, dificultando o acesso, a localização e a análise sistematizada dos mesmos.  No mundo corporativo, as pessoas jurídicas geram uma infinidade de dados que são processados, armazenados em servidores, podendo ser consultados pelos sócios, empregados e colaboradores. Porém, esses dados "brutos" pouco revelam sobre o negócio, tendências de consumo, perfil de clientes, aderência do mercado a produtos e a serviços, a não ser que sejam tratados1. Os dados, portanto, ganham valor estratégico e negocial quando são tratados, quando se transformam em informação, o que se dá a partir da avaliação, da análise, inclusive estatística, da sistematização e da parametrização dos dados. Os players do setor da tecnologia, cientes dessa dificuldade inerente à nova Era e dessa oportunidade mercadológica na exploração comercial desses dados, colocaram-se em franca concorrência no mercado tecnológico, porque o desenvolvimento de um software consiste na sistematização de instruções em sequência e na definição de dados, sendo este o ato de programar, etapa essencial da criação de um software.2 Os agentes do setor da tecnologia iniciaram uma corrida em direção ao desenvolvimento de sistemas de BI3, APPS4, IA's5 e plataformas de streaming, entre outras soluções tecnológicas que têm os dados por insumo, seja como conteúdo, seja como direcionamento de navegação e do consumo do usuário, seja como estrutura informacional da concepção da ferramenta. Diante de tal cenário, é correto afirmar que muitas das soluções tecnológicas na atualidade surgem e são concebidas a partir da organização, da parametrização e da análise estatística, sistematizada e contextualizada desses dados, revelando que eles possuem valor econômico. A valorização e a exploração econômica de um bem, material ou imaterial, gera interesse por parte da Ciência Jurídica, e o Direito tende a discipliná-lo e a tutelá-lo juridicamente, seja para acomodar os interesses envolvidos e sanear os conflitos, seja para garantir maior segurança e previsibilidade jurídicas aos negócios empresariais. Assim se deu na época do surgimento do software como bem explorado economicamente de modo independente do hardware, ou seja, da máquina que o processava.   O Direito se posicionou e reconheceu que o software deveria ser entendido como uma obra autoral, equiparando-o à obra literária6.   O mercado do software ganhou em complexidade, surgindo ao longo do tempo diversos tipos, como já tive a oportunidade de detalhar em artigo publicado na Revista Científica Virtual da Escola Superior de Advocacia de São Paulo/SP, Edição 35 de 20207.  Para o presente artigo, vale destacar entre esses tipos, os aplicativos8, os APPS9, os videogames, entre outros, de modo que qualquer que seja o tipo de programa de computador, deve ser ele tratado, reconhecido e disciplinado como obra autoral. Não são apenas os softwares protegidos por Direito de Autor; o banco de dados também é reconhecido pela lei como obra autoral.10 Desse modo, os dados reunidos e organizados a partir de uma determinada lógica ou critério, passam a integrar um banco de dados. Tanto o banco de dados, como os programas de computador, sendo obras autorais, garantem ao desenvolvedor o direito de propriedade e, com ele o direito de uso, de exploração, de adaptação, de modificação, entre outros direitos previstos na lei. Os dados, a partir da perspectiva do banco de dados, deixam de ser apenas um insumo, para ser parte integrante de uma obra autoral, explorável economicamente, independentemente de um sistema de computador ou de outra criação intelectual. Os dados, assim considerados, ganham relevância e uma tutela diversa daquela consignada na Lei Geral de Proteção de Dados.  Individualmente considerados, os dados continuarão a pertencer a seus titulares, sujeitos à Lei Geral de Proteção de Dados.  Porém, os dados organizados e parametrizados poderão compor um banco de dados, passível de ser detido como propriedade autoral por uma outra pessoa, geralmente uma pessoa jurídica - o controlador, por exemplo11 -, e por ela explorado comercialmente.   Evidente que dessa relação poderão surgir conflitos entre os titulares dos dados e o proprietário do banco de dados. Outro fato da atualidade no tocante à indústria do software repousa no interesse dos empresários em perseguir uma proteção autônoma aos seus elementos (internos e externos).  Sob essa perspectiva, revela-se importante conhecê-los, a fim de perquirir qual proteção legal é possível12. Listo-os a seguir:  MICROCÓDIGOS - sequências de instruções internas acessíveis por microprocessador; PROGRAMA-OBJETO - consiste no registro ou na transcrição do código binário em fita, disco, disquete, placa de memória do programa-fonte;  LINGUAGEM DE PROGRAMAÇÃO - conjunto de regras gramaticais e de símbolos.  Envolve as regras da linguagem que traduzem o código binário; PASTA DE ESPECIFICAÇÕES E INFORMAÇÕES - dados e informações pesquisadas, desenvolvidas e utilizadas para a programação, para a idealização do programa;  ORGANOGRAMAS, AS ANÁLISES ORGÂNICAS E FUNCIONAIS - projetos ou roteiros, incluindo "projetos funcionais" que são resultados de cálculos científicos e organogramas, que podem consistir em uma compilação de dados com análise orgânica; ALGORITMOS E REGRAS - regras gerais e princípios matemáticos a partir dos quais se desenvolvem os programas e sistemas de criptografias; ESTRUTURA E ARQUITETURA DOS PROGRAMAS - entenda-se, aqui, o encadeamento ou a organização dos subprogramas;  PROGRAMA-FONTE - lista de instruções que compõe o programa; FUNCIONALIDADES, ASPECTO TELEVISUAL, INTERFACE DO USUÁRIO E CLONES DE PROGRAMAS - são desenhos ou modelos, expressão televisual, ícones, interface do usuário menus e comandos para interação do usuário com o sistema; DOCUMENTOS E MANUAIS DO USUÁRIO - textos explicativos de funcionamento do programa para leitura pelo usuário, utilizados para auxiliar a compreensão e o correto uso; BASE DE DADOS - conjunto de dados organizados consistente em arquivos eletrônicos de dados e de informações determinados e organizados para serem usados juntamente e pelo programa. A base de dados - ou banco de dados - é reconhecidamente um elemento do software, o qual é protegido de forma autônoma pelo Direito de Autor, como acima indicado.  Ou seja, além de o software, em si e em sua integralidade, ser uma obra autoral, o banco de dados que o integrar poderá ser protegido individualmente como obra autoral autônoma. Essa reflexão é importante porque, a depender de como o software é concebido e desenvolvido, pode se reservar e garantir a propriedade do banco de dados a uma pessoa (idealizador), e o programa de computador à outra (desenvolvedor), por exemplo.   Sarah A. Hinchliffe reconhece que o banco de dados pode ser envolvido na operação de um APP13, e, assim sendo, os direitos relativos a esse banco de dados devem ser observados e respeitados. Nesse diapasão se o banco de dados for prévio ao APP ou outro tipo de software, o desenvolvedor deverá obter autorização prévia do titular do banco de dados para uso no desenvolvimento (licença prévia para uso do banco de dados). Porém, segundo a teoria do fair use14, se forem utilizados apenas poucos elementos, ou se o uso for necessário para garantir a integração das tecnologias, então o licenciamento poderá ser dispensado.  Também é possível que um banco de dados público informe um APP, que poderá ser reconhecido como obra autoral e, consequentemente, como propriedade privada de um agente econômico em particular15. Por fim, outro elemento que merece reflexão é a pasta de informações. Os programas de computador, na atualidade, deixaram de ser horizontais (gerais que atendem a várias profissões, a vários setores da economia) para serem verticais (com aplicações específicas e próprias de um determinado setor), fato que inverte o valor da pasta de informações, que reúne dados e informações próprias daquele que encomenda o desenvolvimento de um software, justamente para que atenda às suas necessidades específicas.  O desenvolvedor não detém, via de regra, conhecimento prévio desses dados e informações que pertencem ao encomendante, e não são de domínio público.  Dito isso, a software house deverá obter autorização para usar economicamente a pasta das especificações e das informações no desenvolvimento de aplicativos e sistemas de computador que quiser comercializar por conta própria, cuja propriedade, via de regra, reclama para si, não obstante serem do encomendante os dados e as informações utilizadas na concepção do programa.  Em contrapartida, é possível ao encomendante reclamar para si a titularidade do programa, justamente porque o elemento central e chave é a pasta de informações, de titularidade do encomendante, informações essas relevantes ao negócio. Também é possível que a pasta de informações seja protegida pelo dever de confidencialidade, a ser estabelecido contratualmente, e, ainda, pelo Direito Concorrencial, se o uso sem autorização do seu titular configurar ato de concorrência desleal16.   As reflexões apostas resumidamente neste artigo apenas revelam que a Economia 4.0 está alicerçada nos dados e no uso que deles se faz, de modo que eles ganham cada vez mais relevância para o mundo dos negócios e, consequentemente, para o Direito, merecendo mais estudos a partir dos diversos interesses que em torno deles gravitam, das variadas aplicações econômicas e das implicações jurídicas que os envolvem. __________ 1 A Lei Geral de Proteção de Dados (LGPD) define tratamento de dados como: Art. 5º Para os fins desta Lei, considera-se: (...) X - tratamento: toda operação realizada com dados pessoais, como as que se referem a coleta, produção, recepção, classificação, utilização, acesso, reprodução, transmissão, distribuição, processamento, arquivamento, armazenamento, eliminação, avaliação ou controle da informação, modificação, comunicação, transferência, difusão ou extração; 2 GOMES, Orlando. A Proteção dos Programas de Computador. 1-16. GOMES, Orlando et al. A proteção Jurídica do "Software". Rio de Janeiro: ed. Forense, 1985. p. 2 e 4 3 Sistemas de computador que realizam a análise dos dados direcionada para a estratégia do negócio, gerando uma inteligência negocial. 4 Sistemas computacionais desenvolvidos para serem usados em dispositivos eletrônicos móveis, como smartphones e tablets. 5 Inteligência Artificial. 6 Lei 9.609/1998 (Lei dos Programas de Computador) Art. 2º O regime de proteção à propriedade intelectual de programa de computador é o conferido às obras literárias pela legislação de direitos autorais e conexos vigentes no País, observado o disposto nesta Lei. 7 DOMINGUES, Alessandra de Azevedo Domingues. O Mercado dos APPS e as Possíveis Proteções Legais. Revista Científica Virtual da Escola Superior de Advocacia OAB/SP, Direito, Inovação e Tecnologia Desafios da Economia 4.0, DOMINGUES, Alessandra de Azevedo (coord.), n. 35, verão de 2020, p.10-32. disponível em: Revista Científica da Escola Superior de Advocacia: Direito, Inovação e Tecnologia - Ed. 35 by ESA OAB SP - Issuu. 8 Aplicativos são programas de computador operados pelo usuário; resolvem um problema determinado, sendo específicos quando tratam de uma necessidade do usuário, ou padrão quando concebidos para tratar a necessidade de uma categoria de usuários.  9 APPS são programas destinados aos equipamentos móveis, como tablets e smartphones, que funcionam da mesma maneira como um navegador da web por meio de comunicação via Internet. Tradução livre do trecho: "are software programs that run on devices including mobile, tablets and smartphones , and work in the same manner as a web browser by communication over the internet. (...)" in HINCHLIFFE, Sarah A. So, You've Created an App? disponível aqui, acesso em 09 de abril de 2016, p. 2. 10 A Lei de Direitos Autorais elenca, no artigo 7º., diversas criações do homem como obras autorais, entre as quais estão os programas de computador e o banco de dados (ou base de dados), conforme abaixo:  Art. 7º São obras intelectuais protegidas as criações do espírito, expressas por qualquer meio ou fixadas em qualquer suporte, tangível ou intangível, conhecido ou que se invente no futuro, tais como: XII - os programas de computador; XIII - as coletâneas ou compilações, antologias, enciclopédias, dicionários, bases de dados e outras obras, que, por sua seleção, organização ou disposição de seu conteúdo, constituam uma criação intelectual. 11 LGPD - Art. 5º Para os fins desta Lei, considera-se: VI - controlador: pessoa natural ou jurídica, de direito público ou privado, a quem competem as decisões referentes ao tratamento de dados pessoais; 12 Vide BERTRAND, André. A Proteção Jurídica dos Programas de Computador: notas de SOUZA, Marco Antonio Costa, ROCHA, Manuel Lopes. tradução DRESCH, Vanise Pereira. Porto Alegre: Livraria do Advogado, 1996, WACHOWICZ, Marcos. Propriedade Intelectual do Software & Revolução da Tecnologia da Informação. 1. ed. 3a. tir.  Curitiba: Juruá, 2006 e LOBO, Carlos Augusto da Silveira. A Proteção Jurídica dos Programas de Computador. 95-113. in GOMES, Orlando et al. A proteção Jurídica do "Software". Rio de Janeiro: ed. Forense, 1985. 13 HINCHLIFFE, Sarah A. So, You've Created an App? disponível aqui, acesso em 09 de abril de 2016, p.2. 14 O Fair Use é instituto constante da lei de Copyright americana, que representa uma relativização da propriedade do autor, em benefício do acesso ao conhecimento, através do qual, portanto, se busca conciliar os interesses privados e o público comum e coletivo. Para aplicar o Fair Use há que se levar em consideração os seguintes fatores: ü  O propósito e o caráter do uso, em especial sem natureza comercial e para fins educativos não lucrativos. ü  A natureza da obra (ficção ou não ficção, inédita ou publicada). ü  A quantidade e a substancialidade da porção usada em relação ao conjunto da obra (no Brasil entendimento Judiciário é que trecho seria até 10%, internacionalmente entendimento é que seria de até 25%) - quem usa está ajudando a divulgar a obra original (uso social). ü  O efeito do uso sobre o mercado potencial da obra protegida ou sobre o seu valor. A lei brasileira não agasalhou explicitamente essa figura, mas há entendimento na doutrina de que haveria a previsão do fair use no artigo 46 que reza: Art. 46. Não constitui ofensa aos direitos autorais: II - a reprodução, em um só exemplar de PEQUENOS TRECHOS, para uso privado do copista, desde que feita por este, sem intuito de lucro; VIII - a reprodução, em quaisquer obras, de PEQUENOS TRECHOS de obras preexistentes, de qualquer natureza, ou de obra integral, quando de artes plásticas, sempre que a reprodução em si não seja o objetivo principal da obra nova e que não prejudique a exploração normal da obra reproduzida nem cause um prejuízo injustificado aos legítimos interesses dos autores. Sobre o critério "pequenos trechos", leia-se as seguintes ponderações: "(...) A questão é saber o que se entende por 'pequeno trecho', uma vez que a lei não traz essa explicação, cabendo interpretá-la com base no bom senso. Obviamente, a reprodução de cinquenta por cento de uma obra não caracterizaria um 'pequeno trecho'. Apesar de a quantificação não ser a melhor forma de interpretar a extensão desse conceito, (...) Dessa forma, é importante saber o tamanho da obra reproduzida para que se possa verificar se a reprodução pode ou não ser caracterizada como 'pequeno trecho', de forma a ser utilizada sem necessidade de autorização. (...)" CARBONI, Guilherme. Fonte Conjur, acessado em 25.05.2016.   "Normalmente, entende-se por 'pequeno trecho' a reprodução de uma parte da obra que não prejudique a sua exploração normal, isto é, que as pessoas não deixem de comprar o original da obra por se darem por satisfeitas com a reprodução do pequeno trecho. Portanto, não se trata de uma questão meramente quantitativa da reprodução. Para conferir maior segurança jurídica, normalmente se deve levar em conta o tamanho da obra como um todo para verificar se a extensão da reprodução." Disponível aqui,  acessado em 25.05.2016. 15 vide LEE, Melissa, ALMIRALL, Esteve Ewareham, JONATHAN. Open Data & Civic Apps: 1st Generation Failures - 2nd Generation Improvements, disponível aqui, acesso em 15 de abril de 2016. 16 Segundo o artigo 195 da Lei da Propriedade Industrial (lei 9.279/96), comete crime de concorrência desleal quem: (...) XI - divulga, explora ou utiliza-se, sem autorização, de conhecimentos, informações ou dados confidenciais, utilizáveis na indústria, comércio ou prestação de serviços, excluídos aqueles que sejam de conhecimento público ou que sejam evidentes para um técnico no assunto, a que teve acesso mediante relação contratual ou empregatícia, mesmo após o término do contrato; XII - divulga, explora ou utiliza-se, sem autorização, de conhecimentos ou informações a que se refere o inciso anterior, obtidos por meios ilícitos ou a que teve acesso mediante fraude; (...) (grifei)
sexta-feira, 6 de setembro de 2024

A falta que faz um X

O fechamento de uma big-tech de redes sociais no Brasil, como ocorreu com o X (ex-Twitter) no último dia de agosto, pode ter uma série de consequências significativas que vão além de afetar diretamente quase que 10% da população brasileira que usa seus serviços1. A saída do X do Brasil trará consequências econômicas, sociais, científicas e políticas. Vamos iniciar esse tempo comentando um pouco sobre o X para ajudar a montar um contexto sobre a expulsão dos seus serviços no Brasil. Quem é o X da questão? A empresa original, Twitter, foi fundada em 2006 por três visionários (Jack Dorsey, Biz Stone, e Evan Williams) sob o conceito de ser uma plataforma de microblog que permitia aos usuários enviar mensagens curtas de até 140 caracteres, conhecidas como tweets. O Twitter rapidamente ganhou popularidade como uma plataforma para comunicação rápida e disseminação de informações em tempo real, especialmente durante eventos ao vivo e notícias de última hora. Ao longo dos anos, o Twitter enfrentou uma série de desafios relacionados ao crescimento de usuários, rentabilidade e, como sempre, às questões de moderação de conteúdo. Essas mesmas situações continuaram, mesmo depois de outubro de 2022, quando Elon Musk adquiriu o Twitter por aproximadamente US$ 44 bilhões e fechou seu capital. Ainda no mesmo ano, Musk anunciou várias mudanças na plataforma e na sua estrutura organizacional, incluindo alterações de políticas, promovendo demissões de pessoal e lançamentos de novas funcionalidades. Em 2023, Musk anunciou um rebranding do Twitter para "X," refletindo sua visão de transformar a plataforma num "super app", ou seja, expandir o escopo da plataforma além de sua função original de rede social, incorporando serviços financeiros e outros tipos de funcionalidades integradas, similar ao que é feito por super apps como o WeChat da China. O X, atualmente, não é uma empresa independente, mas é uma das três empresas coligadas que formam a X Corp., que também nasceu no mesmo ano de 2023. Só para formar um contexto mais amplo, uma das duas outras empresas foi criada com a intenção única de adquirir um empréstimo de US$ 13 bilhões justamente para adquirir o Twitter. Ainda sobre o conglomerado, a X Corp., é uma subsidiária da X Holding Corporation. Ambas as X, são empresas sediadas no estado de Nevada, nos EUA. Com um escritório no Brasil desde 2012, o X encerrou suas operações no último dia 17 de agosto, citando a ameaça do Ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), de prender a representante legal da empresa no país. Na época, o X local era uma empresa com cerca de 40 funcionários dirigidos Linda Yaccarino, diretora-executiva da big tech. Antes do período de instabilidade da empresa no Brasil, o X empregava 150 funcionários2. Alguns conjecturam sobre a pouca relevância da plataforma no Brasil relativamente a outros países. No entanto, conforme dados públicos do Statista, de abril deste ano, o Brasil era o sexto país com o maior número de usuários ativos no X, totalizando 21,48 milhões de usuários, ficando atrás do Reino Unido (24.3), Indonésia (24.8), Índia (25.4), Japão (69.2) e Estados Unidos (106.2). Por outro lado, a plataforma sofreu uma queda de 40% na receita um ano após a aquisição de Elon Musk, de acordo com o Wall Street Journal. O último relatório financeiro público da X é referente ao segundo trimestre de 2022, quando a empresa reportou uma receita de US$ 1,18 bilhão e um prejuízo de US$ 270 milhões3. Voltemos agora para analisar os eventuais impactos da saída desta empresa do Brasil. Consequências econômicas Perda de Empregos: Essa é a consequência mais óbvia. Os funcionários locais do X já perderam seus empregos, no entanto, como a empresa também tinha como fonte de rendimento a propaganda, diversos postos indiretos dos produtores de conteúdo de marketing digital também perderam uma fonte de recurso. Impacto em Negócios Locais: Muitas pequenas e médias empresas que dependem de plataformas de redes sociais para marketing e vendas diretas podem enfrentar desafios de encontrar seus clientes potenciais em novas redes sociais. A saída do X reduz o alcance de mercado destas empresas e afeta potencialmente suas receitas. Investimentos Estrangeiros: Pode haver uma redução no investimento estrangeiro direto, à medida que outras empresas de tecnologia reconsiderarem suas operações e investimentos futuros no país, temendo condições regulatórias, instabilidade jurídica ou sujeição às políticas semelhantes do STF.  Consequências sociais e acadêmicas Alteração na Dinâmica de Comunicação: Os usuários que dependiam desta rede social para manter conexões pessoais e profissionais precisam migrar para outras plataformas, o que pode alterar a dinâmica social. Três dias após o fechamento do X, seu concorrente mais próximo, a BlueSky, atraiu mais de 2 milhões de novos usuários4. Só por curiosidade, o próprio STF já abriu um perfil nesta plataforma que ainda não tem um representante legal no país, como exigido ao X5. Impacto na Informação e Mídia: Esta rede social recentemente se tornou uma fonte crítica de notícias e informações para muitos usuários. Seu fechamento afeta o acesso à informação e a pluralidade das fontes. Acadêmica: Entre as redes sociais, o atual X e o seu antecessor Twitter, eram as únicas fontes abertas de informação em redes sociais usadas por pesquisadores em todo o mundo. Particularmente, eu iniciei minhas pesquisas sobre um tema de Análise de Opinião/Sentimentos usando o Twitter em 2014. Os interessados em saber mais sobre o uso desta plataforma para a pesquisa podem utilizar o link nesta referência bibliográfica6.  Consequências políticas  Regulação e Censura: O fechamento do X é uma consequência clara de desentendimentos sobre políticas de regulação das mídias sociais, e também sobre censura e políticas de privacidade. A consequência é a intensificação de debates sobre temas anteriormente consagrados na sociedade e no arcabouço legal, tais como a liberdade de expressão e controle governamental sobre serviços privados. Um dos motores do desentendimento partiu de Alexandre de Moraes na inclusão de Elon Musk como investigado no inquérito das milícias digitais (INQ 4874). Como se não bastasse, o ministro instaurou um inquérito para investigar as ações de Musk em relação a crimes de obstrução à Justiça, organização criminosa e incitação ao crime. Impacto em Campanhas e Mobilização: Partidos políticos e ativistas de todos os espectros políticos e ideológicos sempre usaram as plataformas sociais para mobilizar e engajar cidadãos nos seus temas de campanhas. A descontinuidade da ferramenta de divulgação irá dificultar a replicação desses esforços em outras plataformas. Alinhamento político: A partir deste bloqueio o Brasil passa a fazer parte de um pequeno número de países que já usaram do mesmo expediente de exclusão digital, ou seja, figura ao lado da China que baniu também o Facebook, o Flickr e o Hotmail em 2009; o Iran que também baniu o X em 2009; a Rússia que em 2022 restringiu o acesso ao X, Facebook e Instagram; a Korea do Norte que em 2016 excluiu o então Twitter, o Facebook, YouTube e vários outros serviços web; o Turcomenistão que em 2018 bloqueou aplicativos de mídias sociais como X, WhatsApp e Facebook, além de sites de notícias estrangeiras e de oposição; Mianmar que após um golpe de estado em 2021 baniu o Instagram e o X; além do Uzbequistão que também pertence ao seleto grupo. Consequências tecnológicas Surgimento de Alternativas: O que se espera é que os usuários continuarão pautando seus serviços, informações e opiniões eventualmente em novos espaços digitais que impulsionarão o crescimento de plataformas sociais locais, regionais ou internacionais que preencham o vácuo deixado, incentivando e estimulando o desenvolvimento de novas tecnologias. As tecnologias de informação e comunicação social (TICS) abriram não só um novo mundo de comunicação dando voz a todos os cidadãos, como também passou a fornecer recursos aos pequenos empreendedores e assim facilitar sua projeção no mundo virtual. É também notável que essas mesmas TICS criaram e promoveram um espaço de difusão e expressão de ideias de grupos anteriormente dispersos geograficamente. Nós, usuários das redes sociais, criamos um universo virtual e paralelo de opções sem fazermos oposição ao mundo analógico anterior. Nos apossamos da liberdade de expressão e nos regulamos internamente pelos recursos de criação e movimentação entre os diversos grupos de discussão que nos acolhe na web. Criamos um espelho digital das interações sociais físicas que transcende barreiras geopolíticas e nos aproxima pelos interesses comuns. Já são quase 30 anos da internet comercial no Brasil. Nesse tempo formamos uma geração inteira, jovem e brilhante, criada nos moldes da livre expressão. Não há luz no fim do túnel para iniciativas que rompam essa nova realidade, com esse novo mundo. Para entender melhor esse drama: uma timeline parcial do X no Brasil Nov./2022 Equipes de moderação do Twitter são reduzidas e, depois, terceirizadas Dez./2022 Elon Musk suspende perfis de jornalistas que publicam localização em tempo real de pessoas, inclusive do seu jato particular Jan./2023 Twitter começa a ser denunciado por ocorrências do 8 de janeiro Abr./2023 Depois de ataques em escolas públicas, a justiça exige maior controle no conteúdo das mensagens postadas Abr./2023 Dia 24, nasce o X Abr./2023 Surgem notícias que o X cumpre pedidos de remoção e de moderação de perfis específicos Mai./2023 Linda Yaccarino é a nova CEO da empresa 03 de Abr./2024 Começam os Twitter Files Brasil 06 de Abr./2024 Musk compartilha os Twitter Files Brasil. Avisa que divulgará todos os pedidos de informação feitos por Alexandre de Moraes e removerá todas as restrições impostas à perfis do X feitas por ordem judicial 07 de Abr./2024 Moraes inclui Elon Musk no inquérito das milícias digitais 03 de Mai./2024 X para de exibir anúncios políticos no Brasil. Segue a decisão da Google Jul./2024 X começa a treinar IAs com os dados dos usuários 18 de Ago./2024 X recebe mandado de intimação e anuncia o fim da operação no Brasil 28 de Ago./2024 STF intima X a apresentar representante legal no Brasil em até 24h 30 de Ago./2024 Moraes determina o bloqueio do X por operadoras, redes de telefonia e lojas de aplicativos 31 de Ago./2024 X é bloqueado no Brasil. Não tenho conclusão. Talvez o desfecho fosse outro se tivéssemos seguido os trâmites usuais vistos num estado democrático de direito: denúncia, investigação, inquérito, acusação, audiência, julgamento, veredito, sentença, apelação execução da sentença. Cada etapa cumprida pela instância competente assegurando os direitos das partes.  __________ 1 X perde usuários no Brasil e seu bloqueio deve esvaziar ainda mais o portfólio de anunciantes. Valor Econômico. Disponível aqui. Último acesso em 3 de setembro de 2024. 2 Na gestão de Elon Musk, relevância da X no Brasil é posta em xeque. InfoMoney. Disponível aqui. Último acesso em 3 de setembro de 2024. 3 X's Tumultuous First Year Under Elon Musk, in Charts. Wall Street Jornal. Disponível aqui. Último acesso em 3 de setembro de 2024. 4 Com queda do X, BlueSky conquista mais de 2 milhões de novos usuários. Metrópoles. Disponível aqui. Último acesso em 3 de setembro de 2024. 5 Why Brazil's Supreme Court blocked X and what it means for the platform. Economic Times. Disponível aqui. Último acesso em 3 de setembro de 2024. 6 Exemplo de aplicações do Twitter no âmbito acadêmico. Link para teste aqui. Último acesso em 3 de setembro de 2024.
Considerações Iniciais  As garantias adequadas para a transferência internacional são de extrema relevância para se assegurar o livre fluxo de informações e do bem-estar do comércio em âmbito global. A discussão sobre os parâmetros e hipóteses de transferência de dados entre países, ou grupos de países, envolve aspectos técnicos, econômicos, jurídicos, de circulação de dados da internet, de modelos globais de negócio, a respeito das leis aplicáveis aos dados armazenados ou em circulação.1 A grande diversidade de modelos de proteção de dados traz consigo a necessidade de um esforço de convergência e interoperabilidade entre esses diferentes sistemas a fim de que tais fluxos sejam permitidos. Devido à necessidade de harmonização entre legislações de diferentes países, as operações além das fronteiras nacionais de um país implicam maiores riscos aos direitos e liberdades dos titulares2.  De acordo com a Portaria nº 11 de 27 de janeiro de 2021, que tornou pública a agenda regulatória da Autoridade Nacional de Proteção de Dados (ANPD) para o biênio 2021-2022, os artigos 33, 34 e 35 da LGPD começassem a ser regulamentados no segundo semestre de 20223.  Nessa direção, a ANPD seguiu com os procedimentos necessários ao andamento às exigências da regulação do fluxo internacional de dados na  Lei Geral de Proteção de Dados (LGPD)4 e publicou, em 23 de agosto de 2024, a Resolução CD/ANPD Nº 19, que aprova o Regulamento de Transfere^ncia Internacional de Dados e o conteu´do das cla´usulas-padra~o contratuais (CPCs).5 Diante da necessária busca de que o Brasil esteja dentro dos padrões internacionais relacionados às melhores práticas de proteção aos dados pessoais, ressalta-se a importância da matéria. A seguir objetiva-se uma breve análise sobre: 1. Lei Geral de Proteção de Dados e o Fluxo Internacional de Informações; 2. A Diferença entre Transferência Internacional de Dados e o Trânsito de Dados Pessoais; 3. 1. LEI GERAL DE PROTEÇÃO DE DADOS E O FLUXO INTERNACIONAL DE INFORMAÇÕESA partir da lei 13.7096, de 14 de agosto de 2018, conhecida como LGPD, o Brasil passou a ter normas específicas sobre o tratamento de dados pessoais. A proteção de dados pessoais, anteriormente tratada de maneira esparsa no ordenamento jurídico nacional, estruturou-se em uma legislação específica7. A LGPD inaugurou um sistema que está focado na prevenção e na criação de uma cultura de proteção de dados pessoais8. A legislação brasileira dialoga9 com outros diplomas legais vigentes, garantindo a ampla tutela aos titulares de dados10. Apresenta diferentes hipóteses para operações transfronteiriças, tratando do tema, especificamente, no Capítulo V, intitulado "Da Transferência Internacional de Dados", respectivamente, nos artigos 33 a 36.  A LGPD traz a previsão da transferência internacional de dados pessoais abordando os aspectos relacionados às regras aplicáveis ao fluxo para países e organismos internacionais. Ao total, são apresentadas nove hipóteses em que se permite o fluxo internacional de dados, sendo este considerado como um rol taxativo. Importa destacar que não há hierarquia entre entre os mecanismos de transfere^ncia, sendo que o me´todo escolhido dependera´ da finalidade e do contexto para o tratamento dos dados pessoais11. Em rol taxativo, o artigo 33 define as hipóteses em que a transferência internacional é permitida12. Alternativamente, o fluxo de informações pessoais para fora do território nacional só é permitido caso, i) os países ou organismos internacionais proporcionarem grau de proteção de dados pessoais adequado ao previsto na LGPD; ii) o controlador oferecer e comprovar garantias de cumprimento dos princípios, dos direitos do titular e do regime de proteção de dados previsto na LGPD; iii) a transferência for necessária para a cooperação jurídica internacional entre órgãos públicos de inteligência, de investigação e de persecução, de acordo com os instrumentos de direito internacional; iv) a transferência for necessária para a proteção da vida ou da incolumidade física do titular ou de terceiros; v) a autoridade nacional autorizar a transferência; vi) a transferência resultar em compromisso assumido em acordo de cooperação internacional; vii) a transferência for necessária para a execução de política pública ou atribuição legal do serviço público; viii) o titular tiver fornecido o seu consentimento específico e em destaque para a transferência, com informação prévia sobre o caráter internacional da operação, distinguindo, claramente, esta e outras finalidades; e ix) é necessária para atender às hipóteses previstas nos incisos II, V e VI do artigo 7º da LGPD. O artigo 34 está relacionado aos tópicos que devem ser levados em conta quando da definição de nível de proteção adequado de país estrangeiro ou organismo internacional13. O dispositivo 35 trata sobre a definição das CPCs e verificação de outras salvaguardas14, enquanto o artigo 36 apresenta observância aos princípios gerais de proteção e dos direitos do titular15. 2. A DIFERENÇA ENTRE TRANSFERÊNCIA INTERNACIONAL DE DADOS E O TRÂNSITO DE DADOS PESSOAIS Segundo Robert Bond, "'transferência" não é o mesmo que "trânsito" de informações16. Os dados pessoais podem passar pelo país B no caminho do país A para o país C, sem, no entanto, nenhuma operação de processamento substancial ocorrer neste caminho, já que a transferência é para o país C17. Por exemplo, no caso de uma empresa sediada na Alemanha enviar dados para uma empresa baseada nos Estados Unidos da América (EUA), mas, durante a transferência, os dados passarem pelo território uruguaio, sem, de fato, acontecer qualquer tratamento das informações no país. Casos como este servem de modelos para diferenciar "tranferência" e "trânsito", porque, na situação supramencionada, a operação internacional é realizada apenas entre a empresa alemã e a empresa norte-americana, sendo que os dados apenas transitaram no Uruguai18. Diante do fluxo internacional de dados, considera-se como "exportador" o agente de tratamento que transferirá os dados pessoais para um "importador", localizado em outro país. Considera-se como "importador" o agente de tratamento situado fora do território nacional, que receberá esses dados do "exportador". No exemplo acima, o "importador" seria a empresa norte-americana e o "exportador", a empresa alemã. 3. RESOLUÇÃO CD/ANPD Nº 19, DE 23 DE AGOSTO DE 2024  1. Publicada em 23 de agosto de 2024, a Resolução CD/ANPD Nº 19 aprova o Regulamento de Transfere^ncia Internacional de Dados e o conteu´do das cla´usulas-padra~o contratuais. As novas normas sobre o fluxo transfronteiriço de informações pessoais entram em vigor na data de sua publicac¸a~o, sendo assim, necessário que os agentes de tratamento se adequem às exigências sobre os procedimentos e regras aplicáveis a tais operações. 2. Em relação às cla´usulas contratuais para realizar transfere^ncias internacionais de dados devera~o incorporar as cla´usulas-padra~o contratuais aprovadas pela ANPD, existe o prazo de ate´ 12 (doze) meses, contados da data de publicac¸a~o da Resoluc¸a~o, para a adequação por parte dos agentes de tratamento. 3. A Resolução destaca os requisitos necessários para as operações que envolvam decisões de adequação, cláusulas contratuais específicas para determinada transferência, cláusulas-padrão contratuais e normas corporativas globais. Além disso, ressalta que é possível a realizac¸a~o de transfere^ncia internacional de dados com base nos mecanismos previstos no art. 33 da LGPD que na~o dependam de regulamentac¸a~o, desde que atendidas as  especificidades do caso concreto e os requisitos legais aplica´veis. 4. Destaca que a transfere^ncia internacional de dados pessoais deve ser realizada em conformidade com o disposto na LGPD e na Resolução, observadas as seguintes diretriz garantia de cumprimento dos princi´pios, dos direitos do titular e de ni´vel de protec¸a~o equivalente ao previsto na legislac¸a~o nacional, independentemente do pai´s onde estejam localizados os dados pessoais objeto da transfere^ncia. 5. Reitera a necessária a implementac¸a~o de medidas efetivas de transpare^ncia, assegurando o fornecimento de informac¸o~es claras, precisas e facilmente acessi´veis aos titulares. Além disso, a adoc¸a~o de boas pra´ticas e de medidas de prevenc¸a~o e seguranc¸a apropriadas e compati´veis com a natureza dos dados pessoais tratados, a finalidade do tratamento e os riscos envolvidos na operac¸a~o. 6. Defende que o fluxo internacional de informações deve estar limitado ao mi´nimo necessa´rio para o alcance de suas finalidades, com abrange^ncia dos dados pertinentes, proporcionais e na~o excessivos em relac¸a~o a`s finalidades do tratamento de dados. 7. Toda a operação somente será realizada para atender a propo´sitos legi´timos, especi´ficos, expli´citos e informados ao titular, sem possibilidade de tratamento posterior de forma incompati´vel com essas finalidades, e desde que amparada em uma das hipo´teses legais previstas no art. 7º ou no art. 11 da LGPD ou em um dos seguintes mecanismos va´lidos de realizac¸a~o da transfere^ncia internacional. 8. A aplicac¸a~o da legislac¸a~o nacional a` transfere^ncia internacional de dados independe do meio utilizado para sua realizac¸a~o, do pai´s de sede dos agentes de tratamento ou do pai´s onde estejam localizados os dados. 9. Estabelece que a LGPD é aplicável aos dados pessoais provenientes do exterior sempre que estes sejam objeto de tratamento no territo´rio nacional. A LGPD na~o se aplica aos dados pessoais provenientes do exterior somente quando ocorrer: a) tra^nsito de dados pessoais, sem a ocorre^ncia de comunicac¸a~o ou uso compartilhado de dados com agente de tratamento situado em territo´rio nacional; b) retorno dos dados pessoais, objeto de tratamento no territo´rio nacional, exclusivamente ao pai´s ou organismo internacional de provenie^ncia, desde que:o pai´s ou organismo internacional de provenie^ncia proporcione grau de protec¸a~o de dados pessoais adequado, reconhecido por decisa~o da ANPD; c) a legislac¸a~o do pai´s ou as normas aplica´veis ao organismo internacional de provenie^ncia se apliquem a` operac¸a~o realizada; d) a situac¸a~o especi´fica e excepcional de na~o aplicac¸a~o da LGPD. 10. Cabe ao controlador verificar se a operac¸a~o de tratamento:  a) caracteriza transfere^ncia internacional de dados;      b) submete-se a` legislac¸a~o nacional de protec¸a~o de dados pessoais; c) esta´ amparada em hipo´tese legal e em mecanismo de transfere^ncia internacional va´lidos. 11. A transfere^ncia internacional de dados sera´ caracterizada quando o exportador transferir dados pessoais para o importador. A coleta internacional de dados na~o caracteriza transfere^ncia internacional de dados e observara´ as disposic¸o~es da LGPD, quando verificada uma das hipo´teses indicadas no art. 3º da LGPD. 12. Quaisquer operações que envolvam aspecto transnacional devem respeitar os princípios de proteção de dados e salvaguardar os direitos dos titulares. A lei preve^ um conjunto de normas destinadas a garantir a higidez das operac¸o~es de transfere^ncia internacional19, estabelecendo que os países interessados neste tipo de transação devem oferecer garantias em mesmo grau que aquele oferecido pela LGPD. 13. O controlador ou o operador que deixem de adotar as medidas de segurança cabíveis respondem pelos danos decorrentes de violação da segurança dos dados. A LGPD imputa responsabilidade aos agentes de tratamento a definição sobre medidas técnicas, administrativas e de segurança, aptas a proteger os dados pessoais de acessos não autorizados e de situações acidentais, ou ilícitas, de destruição, perda, alteração, comunicação ou qualquer forma de tratamento inadequado ou ilícito20.  14. As CPCs aprovadas pela ANPD garantem que exportadores e importadores de dados apliquem as mesmas medidas técnicas e organizacionais, em termos de proteção de dados no Brasil. Dessa forma, garantindo a proteção dos direitos e liberdades dos titulares dos dados. 15. Em todos os casos de fluxo internacional de dados, deve-se realizar avaliação de todas as circunstâncias da transferência e deve-se considerar a adoção de medidas adicionais para garantir proteção suficiente aos titulares. 16. As cláusulas-modelo elaboradas pela autoridade brasileira, contém as obrigações das partes envolvidas na transferência e os direitos dos titulares dos dados a serem transferidos. Caso o controlador adote as CPCs sugeridas pela autoridade, vincular-se-á a todos os requisitos e as obrigações estipuladas no documento, podendo realizar a transferência dos dados pessoais sem a necessidade de anuência da ANPD ou dos respectivos titulares. CONSIDERAÇÕES FINAIS A Resolução CD/ANPD nº 19 integra os esforços para que o Brasil conte com um sistema robusto de definição, aprovação e fiscalização do fluxo transnacional de dados pessoais, garantindo a efetividade internacional do sistema de proteção brasileiro. Ao regulamentar o tema da transferência internacional de dados, a ANPD se posicionou no cenário internacional, defendendo o sistema de proteção de dados brasileiro. O estabelecimento de regras e procedimentos direcionados à garantia dos direitos dos titulares é fundamental para a eficácia da LGPD. A disponibilização de cláusulas-tipo auxilia os agentes de tratamento diante do cumprimento de seus deveres e justa proteção de direitos dos titulares, ainda que existam diferentes níveis legislações de proteção de dados ao redor do mundo. __________ 1 LIMA, Cíntia Rosa Pereira de. Autoridade Nacional de Proteção de Dados e a efetividade da Lei Geral de Proteção de Dados. São Paulo: Almedina, 2019. 2 FUNDAÇÃO GETULIO VARGAS (FGV). Guia de Proteção De Dados Pessoais: Transferência Internacional. São Paulo: FGV. 2020, p. 15. Disponível aqui. Acesso em: 10 fev. 2022. 3 BRASIL. Portaria nº 11, de 27 de janeiro de 2021. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2021. Disponível aqui. Acesso em: 25 jan. 2022.          4 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS (ANPD). Proposta de realização de Tomada de Subsídios para regulamentação de transferência internacional de dados pessoais, nos termos dos arts. 33 a 35 da Lei nº 13.709, de 14 de agosto de 2018. Brasília. 2021. Disponível aqui. Acesso em: 12 jun. 2022. 5 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS.  Resolução CD/ANPD nº 19, de 23 de agosto de 2024. Brasília. Disponível em: < RESOLUÇÃO CD/ANPD Nº 19, DE 23 DE AGOSTO DE 2024 - RESOLUÇÃO CD/ANPD Nº 19, DE 23 DE AGOSTO DE 2024 - DOU - Imprensa Nacional (in.gov.br)>, acessado em 29 de agosto de 2024. 6 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados (LGPD). Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022 7 DONEDA, Danilo . [et al.]. Tratado de Proteção de Dados Pessoais. Prefácio. Rio de Janeiro: Forense, 2021. 8 MENDES, Laura Schertel Ferreira. Habeas data e autodeterminação informativa: os dois lados da mesma moeda. Direitos Fundamentais & Justiça, Belo Horizonte, n. 39, jul./dez. 2018, p. 186. 9 MARQUES, Claudia Lima. Diálogo das Fontes: do conflito à coordenação de normas no direito brasileiro. São Paulo: Revista dos Tribunais. 2012, p. 23. 10 Carta de apoio à sanção da Lei de Proteção de Dados do Presidente do Brasilcon, Diógenes Carvalho, e da Ex-Presidente do Brasilcon, Cláudia Lima Marques, RDC 119, p. 517-520. 11 LEONARDI, Marcel. Transfere^ncia Internacional de Dados Pessoais. In: DONEDA, Danilo . [et al.]. Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021, p. 303. 12 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022. Art. 33. "A transferência internacional de dados pessoais somente é permitida nos seguintes casos: I - para países ou organismos internacionais que proporcionem grau de proteção de dados pessoais adequado ao previsto nesta Lei; II - quando o controlador oferecer e comprovar garantias de cumprimento dos princípios, dos direitos do titular e do regime de proteção de dados previstos nesta Lei, na forma de: a) cláusulas contratuais específicas para determinada transferência; b) cláusulas-padrão contratuais; c) normas corporativas globais; d) selos, certificados e códigos de conduta regularmente emitidos; III - quando a transferência for necessária para a cooperação jurídica internacional entre órgãos públicos de inteligência, de investigação e de persecução, de acordo com os instrumentos de direito internacional; IV - quando a transferência for necessária para a proteção da vida ou da incolumidade física do titular ou de terceiro; V - quando a autoridade nacional autorizar a transferência; VI - quando a transferência resultar em compromisso assumido em acordo de cooperação internacional; VII - quando a transferência for necessária para a execução de política pública ou atribuição legal do serviço público, sendo dada publicidade nos termos do inciso I do caput do art. 23 desta Lei; VIII - quando o titular tiver fornecido o seu consentimento específico e em destaque para a transferência, com informação prévia sobre o caráter internacional da operação, distinguindo claramente esta de outras finalidades; ou IX - quando necessário para atender as hipóteses previstas nos incisos II, V e VI do art. 7º desta Lei." 13 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022. Art. 34 da Lei Geral de Proteção de Dados. Art. 34. "O nível de proteção de dados do país estrangeiro ou do organismo internacional mencionado no inciso I do caput do art. 33 desta Lei será avaliado pela autoridade nacional, que levará em consideração: I - as normas gerais e setoriais da legislação em vigor no país de destino ou no organismo internacional; II - a natureza dos dados; III - a observância dos princípios gerais de proteção de dados pessoais e direitos dos titulares previstos nesta Lei; IV - a adoção de medidas de segurança previstas em regulamento; V - a existência de garantias judiciais e institucionais para o respeito aos direitos de proteção de dados pessoais; e VI - outras circunstâncias específicas relativas à transferência.". 14 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022. Art. 35 da Lei Geral de Proteção de Dados. Art. 35. "A definição do conteúdo de cláusulas-padrão contratuais, bem como a verificação de cláusulas contratuais específicas para uma determinada transferência, normas corporativas globais ou selos, certificados e códigos de conduta, a que se refere o inciso II do caput do art. 33 desta Lei, será realizada pela autoridade nacional. § 1º Para a verificação do disposto no caput deste artigo, deverão ser considerados os requisitos, as condições e as garantias mínimas para a transferência que observem os direitos, as garantias e os princípios desta Lei. § 2º Na análise de cláusulas contratuais, de documentos ou de normas corporativas globais submetidas à aprovação da autoridade nacional, poderão ser requeridas informações suplementares ou realizadas diligências de verificação quanto às operações de tratamento, quando necessário. § 3º A autoridade nacional poderá designar organismos de certificação para a realização do previsto no caput deste artigo, que permanecerão sob sua fiscalização nos termos definidos em regulamento. § 4º Os atos realizados por organismo de certificação poderão ser revistos pela autoridade nacional e, caso em desconformidade com esta Lei, submetidos a revisão ou anulados. § 5º As garantias suficientes de observância dos princípios gerais de proteção e dos direitos do titular referidas no caput deste artigo serão também analisadas de acordo com as medidas técnicas e organizacionais adotadas pelo operador, de acordo com o previsto nos §§ 1º e 2º do art. 46 desta Lei. 15 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Diário Oficial [da] República Federativa do Brasil, Brasília, Distrito Federal, 2018. Disponível aqui. Acesso em: 25 jan. 2022. Art. 36 da Lei Geral de Proteção de Dados. Art. 36. As alterações nas garantias apresentadas como suficientes de observância dos princípios gerais de proteção e dos direitos do titular referidas no inciso II do art. 33 desta Lei deverão ser comunicadas à autoridade nacional.". 16 BOND, Robert. International Transfers of Personal Data - an update. Business Law International. v. 5, n. 3, 2014, p. 424. De acordo com o autor, "'transfer' is not the same as 'transit'. Personal data may pass through country B on the way from country A to country C, but if no substantive processing operation takes place en route, the transfer is to country C.". 17 BOND, Robert. International Transfers of Personal Data - an update. Business Law International. v. 5, n. 3, 2014, p. 424. 18 INFORMATION COMMISSIONER'S OFFICE (ICO). Guide to the General Data Protection Regulation (GDPR). London: Information Commissioner's Office (ICO). 2021, p. 228. Disponível aqui. Acesso em: 3 jul. 2022. 19 CARVALHO, Angelo Gamba Prata de. Transfere^ncia internacional de dados na lei geral de protec¸a~o de dados - Forc¸a normativa e efetividade diante do cena´rio transnacional. In: FRAZA~O, Ana; TEPEDINO, Gustavo; OLIVA, Milena Donato (coord.). A Lei Geral de Protec¸a~o de Dados Pessoais e suas repercusso~es no direito brasileiro. Sa~o Paulo: Revista dos Tribunais. 2019, p. 623. 20 CENTRE FOR INFORMATION POLICY LEADERSHIP (CIPL); CENTRO DE DIREITO, INTERNET E SOCIEDADE DO INSTITUTO BRASILIENSE DE DIREITO PÚBLICO (CEDIS-IDP). O papel da Autoridade Nacional de Proteção de Dados Pessoais (ANPD) conforme a nova Lei Geral de Proteção de Dados Pessoais (LGPD). 2020, p. 7. Disponível aqui. Acesso em: 25 jan. 2022.
A certidão imobiliária é fruto da publicidade inerente aos registros públicos, seja para desencadear a eficacização dos direitos reais erga omnes, seja para garantir certeza e segurança jurídica às transações imobiliárias.1 Justamente por isso, os artigos 16 e 17 da Lei nº 6.015/1973 (Lei de Registros Públicos - LRP), impõem ao registrador a emissão de certidões e de informações quando solicitado, independentemente de motivação. Contudo, após o advento da LGPD, Lei nº 13.709/2018, ganhou força o discurso contra a publicidade registral e notarial de forma indistinta. Assim, tornou-se necessário ressignificar a publicidade registrária, elemento basilar dos direitos reais, e compatibilizá-la com os dispositivos de proteção e tratamento de dados pessoais e da privacidade, posto que, aparentemente, apontam em sentidos opostos, evidenciando a atualidade e a relevância do tema. Em outra ocasião, reforçamos a ideia de que a LGPD não trouxe no rol dos direitos dos titulares de dados previsto no art. 18 da lei o direito ao sigilo ou mitigação da publicidade.2 Muito embora, a proteção à privacidade (inc. I) e à intimidade (inc. IV) sejam alguns dos fundamentos do sistema de proteção de dados pessoais nos termos do art. 2º da LGPD, in verbis: Art. 2º A disciplina da proteção de dados pessoais tem como fundamentos: I - o respeito à privacidade; II - a autodeterminação informativa; III - a liberdade de expressão, de informação, de comunicação e de opinião; IV - a inviolabilidade da intimidade, da honra e da imagem; V - o desenvolvimento econômico e tecnológico e a inovação; VI - a livre iniciativa, a livre concorrência e a defesa do consumidor; e VII - os direitos humanos, o livre desenvolvimento da personalidade, a dignidade e o exercício da cidadania pelas pessoas naturais. Observe-se que tão importante quanto os fundamentos acima destacados, a LGPD traz no inciso V outro, qual seja: "o desenvolvimento econômico e tecnológico e a inovação". Neste sentido, deve-se compreender a importância da certidão imobiliária para o desenvolvimento econômico do país, pois é um instrumento imprescindível para a segurança dos negócios jurídicos imobiliários. Isto porque a inscrição de um título no assento imobiliário, seja em decorrência de ato de registro ou ato de averbação (artigo 167 da LRP), ocorre somente após a devida qualificação registrária, realizada à luz do sistema legal e normativo vigentes, uma vez que os atos desempenhados pelos delegatários no exercício da função fundamentam-se, preponderantemente, no regime jurídico de direito público, no qual vigora o princípio da legalidade estrita. Destaca-se que o princípio da legalidade está diretamente relacionado ao princípio da publicidade registrária, posto que não há como o registro ser público se não for conhecido e não há como ter oponibilidade erga omnes se o ato não estiver em consonância com os preceitos legais e não puder ser comprovado documentalmente.3 Logo, o registro lato sensu de um título gera presunção relativa de veracidade, prevalecendo a favor ou contra quem por ele for atingido, o que faz com que o efeito em face da coletividade decorra da publicidade da inscrição.4 As certidões, por sua vez, instrumentalizadas em papel de segurança ou de forma eletrônica, podem ser expedidas em inteiro teor (transcrição integral, ipsis litteris da matrícula); em breve relatório (informações essenciais e atuais do imóvel e dos titulares); por quesitos (respostas às indagações formuladas pela parte, embora se imponha a indicação das alterações posteriores ao ato cuja certidão é emitida, independentemente do pedido); ou ainda, expedidas em forma de certidão da situação jurídica atualizada do imóvel, nos termos do artigo 19 da LRP, com nova redação dada pela lei 14.382/2022. Importante consignar a existência da certidão eletrônica, em qualquer destas modalidades, e pode ser solicitada por intermédio do SERP (Registro Eletrônico dos Registros Públicos) e materializada por qualquer registrador, mediante o uso de assinatura avançada ou qualificada, assim como pode ser visualizada eletronicamente e impressa pelo próprio usuário, conforme artigo 17 da LRP, tratando-se de grande facilitador para propagação da publicidade dos assentos imobiliários.   Diante deste complexo contexto, um debate crucial é se definir se a emissão de certidão seria ou não compartilhamento de dados, o que nos parece que não, na medida em que se trata de uma atividade fim do Registro de Imóveis em virtude do que determina a lei e as normas regulamentadoras.5 Então qual seria o impacto da Lei Geral de Proteção de Dados às atividades de notas e de registros, uma vez que é aplicável por expressa determinação dos §§ 4ª e 5º do art. 23 da LGPD. Nesta coluna, foi objeto de análise a regulamentação da aplicação da LGPD às serventias extrajudiciais em âmbito federal, pois o Provimento n. 134/2022 do CNJ, já estabeleceu regras importantes sobre controlador, a necessidade de indicação do encarregado de dados, a exigência de políticas de boas práticas e governança, o mapeamento das atividades de tratamento e a definição de procedimentos para o cumprimento de medidas técnicas e administrativas, além de outros, demandando análise cuidadosa de seu escopo de incidência.6 Este provimento foi incorporado no Código Nacional de Normas do Foro Extrajudicial da Corregedoria Nacional de Justiça do Conselho Nacional de Justiça (Provimento nº 149/2023), notadamente quanto à identificação do requerente e a indicação de finalidade para emissão de certidão de registro lato sensu e prestação de informação (arts. 123 a 128). Na realidade, o citado artigo contém conceito aberto, qual seja, "finalidade do pedido", que possui conteúdo e valoração eminentemente subjetivos, de modo com que mais parece uma tentativa de adequação formal da privacidade e proteção de dados à atividade registrária do que, propriamente, uma via concreta de efetivação de tais direitos. Isso devido ao fato de que não se mostra razoável atribuir ao registrador emitir juízo de valor quanto à finalidade indicada pelo requerente: uma porque o conceito aberto de finalidade permite a pluralidade de interpretação entre as serventias e impede a adequada prestação do serviço público, em prejuízo ao usuário; outra porque acarreta mitigação da publicidade dos atos registrários, comprometendo toda a sistemática imobiliária, que se fundamenta no efeito erga omnes do registro. Por outro lado, a submissão de tal pedido ao Juízo competente mostra-se em dissonância com a exegese do artigo 18 da lei 6.015/73, do artigo 10, inciso IV e do artigo 13, inciso III da lei 8.935/947 e, ainda, pode causar potencial problema de ordem pública, uma vez que a grande demanda de pedidos no país ensejaria maior burocratização do serviço, tornando-o menos eficiente e célere, o que, nitidamente, não é o intuito.8 Nesse cenário, imputar ao requerente da certidão imobiliária a indicação da finalidade do pedido aparenta descabido, já que não tem o condão de evitar eventuais danos ao titular do direito real, porque após a emissão de tais documentos inexiste qualquer controle daquilo que será feito com os dados fornecidos. Por fim, há de se pontuar que a ética é, acima de tudo, produto cultural e não jurídico, de modo com que aquilo que será feito com os dados pessoais contidos em um assento imobiliário transcende o campo do direito, que não deve ser utilizado como ferramenta para mitigação da ampla publicidade inerente ao registro imobiliário, sob pena de ao se valer de normas protetivas de tratamento e de dados pessoais, acabar por comprometer a confiabilidade e a transparência do sistema registrário, mundialmente conhecido por sua segurança e eficácia. __________ 1 KÜMPEL, Vitor Frederico. Sistema de Transmissão da Propriedade Imobiliária sob a Ótica do Registro. São Paulo: YK, 2021. 2 LIMA, Cintia Rosa Pereira de; LIMA,  Marilia Ostini Ayello Alves de. Proteção de dados pessoais e publicidade registral: uma longa caminhada de um tema inesgotável. In: Migalhas de IA e Proteção de Dados. Disponível aqui, acesso em 22 de agosto de 2024. 3 ALMADA, Ana Paula P. L. Registro de imóveis. In: GENTIL, Alberto (Coord.). Registros públicos. 2. ed. Rio de Janeiro: Forense, 2021.p.363. 4 CARVALHO, Afranio de. Registro de imóveis. 3. ed. Rio de Janeiro: Forense, 1982, p. 163 e p. 194. Para o referido autor, o princípio da inscrição configura a versão contemporânea da tradição do direito romano, já que o direito real imobiliário decorre de dois elementos diferentes: o título, que consubstancia a vontade das partes e a inscrição, que transforma o direito obrigacional em direito real e possui efeito perante toda a coletividade. Dessa forma, a inscrição tem o mesmo papel da tradição do direito romano. 5 LIMA, Cintia Rosa Pereira de; LIMA,  Marilia Ostini Ayello Alves de. Proteção de dados pessoais e publicidade registral: uma longa caminhada de um tema inesgotável. In: Migalhas de IA e Proteção de Dados. Disponível aqui, acesso em 22 de agosto de 2024. 6 FALEIROS JÚNIOR, José Luiz de Moura; PERROTTA,  Maria Gabriela Venturoti. O provimento 134/22 do CNJ e a aplicação da LGPD aos serviços notariais e de registro. In: Migalhas de IA e Proteção de Dados. Disponível aqui, acesso em 22 de agosto de 2024. 7 KÜMPEL, Vitor Frederico. Tratado Notarial e Registral.São Paulo: YK Editora, 1ª Ed., 2020, vol.5, tomo I, p.550. 8 CHEZZI, Bernardo. Aplicação da LGPD ao registro de imóveis. In: GALHARDO, Flaviano;  PARO, João Pedro; NALINI, José Renato; BRANDELLI, Leonardo (Coords). Direito registral e novas tecnologias. Rio de Janeiro: Forense, 2021, p. 140. 
sexta-feira, 16 de agosto de 2024

A automação de documentos no Direito

A automação de documentos na área jurídica refere-se ao uso de tecnologia para criar, gerenciar e armazenar documentos legais de forma eficiente e precisa. Esta tecnologia utiliza softwares avançados e IA para preencher automaticamente formulários padrão com informações de casos específicos, reduzir o tempo gasto em tarefas repetitivas e mitigar erros humanos.1 Um dos objetivos é usar partes de textos entre os diversos documentos legais. Digamos, um "copia e cola" inteligentes.Além destas tarefas, a automação permite a padronização dos formatos de documentos, facilitando a busca e recuperação, o que é essencial em ambientes jurídicos dinâmicos e de alto volume de trabalho. Hipoteticamente, como em tudo na computação, com a implementação da automação, escritórios de advocacia e departamentos jurídicos podem dedicar mais tempo a tarefas estratégicas e ao atendimento aos clientes, melhorando a eficiência operacional e a qualidade dos serviços prestados.2 Contudo, a incorporação dessa tecnologia exige atenção à conformidade com regulamentos de proteção de dados e à manutenção da segurança e privacidade das informações, um aspecto crucial no cenário jurídico atual.3 Eficiência e Produtividade no Setor Jurídico A automação de documentos jurídicos tem se tornado uma necessidade crucial para aumentar a eficiência e produtividade em escritórios de advocacia e departamentos jurídicos no Brasil. Isso ocorre devido à capacidade das tecnologias de automação de melhorar significativamente a forma como os profissionais gerenciam e produzem documentos legais. Um dos principais benefícios da automação é a redução do tempo gasto em tarefas repetitivas. Ferramentas de automação permitem a criação de documentos padronizados a partir de modelos que podem ser preenchidos automaticamente com informações específicas de cada caso. Segundo Susskind3, a automação pode cortar o tempo de elaboração de documentos em até 80%, liberando tempo para os advogados se concentrarem em atividades mais estratégicas. Além disso, a automação melhora a precisão e consistência dos documentos, minimizando os erros humanos que são comuns em tarefas manuais de elaboração de documentos. Estudos, como os de Markoff4, mostram que erros em documentos jurídicos manuais podem levar a complicações legais e financeiras, enquanto a automação ajuda a garantir que todos os detalhes críticos sejam processados corretamente. No caso específico do Brasil, a carga de trabalho nos escritórios é geralmente elevada devido ao grande volume de litígios. Segundo Oliveira e Cunha5, a adoção de soluções tecnológicas no setor jurídico ajuda a aliviar essa carga, permitindo que os profissionais gerenciem casos de maneira mais eficiente e com menos estresse. Além das melhorias internas nos escritórios, a automação também tem um impacto positivo sobre os clientes. A utilização de tecnologias para agilizar processos pode resultar em custos mais baixos para os clientes, visto que as horas de trabalho advocatício necessárias são reduzidas.6 Além de tudo, a adequação às tecnologias de automação pode proporcionar uma vantagem competitiva significativa. Escritórios que adotam tais tecnologias frequentemente destacam-se no mercado por sua eficiência e capacidade de entregar resultados com maior rapidez e precisão.7 Impacto na Prática Jurídica e no Acesso à Justiça Uma das mudanças mais notáveis da automação de documentos é a democratização do acesso aos serviços jurídicos. Automação permite que pequenas empresas de advocacia e advogados autônomos ofereçam serviços de alta qualidade a preços mais acessíveis, ou seja, mais pessoas podem ter acesso a serviços jurídicos, ampliando a cobertura do sistema judicial.8 A automação também está influenciando a educação e formação jurídica. Com o aumento do uso dessas tecnologias, há uma necessidade crescente de que novos profissionais do direito sejam treinados em habilidades tecnológicas além do conhecimento jurídico tradicional. Muitas escolas de direito estão começando a incorporar cursos sobre tecnologia e automação em seus currículos para preparar seus alunos para essas mudanças.9 Outro aspecto relevante é a utilização de tecnologia para a resolução de disputas online (ODR - Online Dispute Resolution), que tem funcionado como um meio eficaz de resolver conflitos sem a necessidade de procedimentos judiciais complexos. Plataformas automatizadas de resolução de disputas podem auxiliar na redução da carga dos tribunais, tornando a justiça mais ágil e acessível, especialmente em áreas rurais ou menos desenvolvidas. Desafios Éticos e Regulatórios No entanto, a automação de documentos jurídicos não traz apenas avanços tecnológicos, mas também uma série de desafios éticos e regulatórios que precisam ser abordados para garantir sua implementação segura e eficaz no Brasil. Um dos principais desafios é a segurança e privacidade dos dados. Com a crescente digitalização de documentos e o uso de inteligência artificial, existe uma preocupação significativa quanto à proteção de informações confidenciais. A LGPD, estabelece diretrizes rigorosas para o tratamento de dados pessoais. Portanto, há a necessidade de garantir que as ferramentas de automação de documentos estejam em total conformidade com a LGPD, protegendo os dados pessoais dos clientes. Outro ponto crítico é a transparência dos algoritmos usados em ferramentas de automação. A falta de clareza sobre como essas tecnologias tomam decisões, principalmente aquelas que usam IA, pode levar a questões de responsabilidade e confiabilidade. A comunidade de Direito já trabalha para criar diretrizes claras para a explicabilidade dos algoritmos no campo jurídico, assegurando que os advogados entendam e possam confiar nas decisões assistidas por inteligência artificial.10 Adicionalmente, há preocupações sobre o impacto da automação na ética profissional e no emprego. A automação pode potencialmente reduzir a demanda por trabalho humano em tarefas rotineiras, levantando discussões sobre a necessidade de requalificação profissional. Embora a automação possa substituir algumas atividades, ela também pode criar novas oportunidades para advogados que se posicionam como especialistas em tecnologia legal.11 A adoção da automação de documentos na área do direito representa uma oportunidade transformadora para escritórios de advocacia e departamentos jurídicos em todo o Brasil. Ao incorporar esta tecnologia, os profissionais do direito não apenas têm a chance de aumantar a eficiência e precisão de suas operações, mas também podem dedicar mais tempo ao desenvolvimento de estratégias jurídicas inovadoras e ao atendimento personalizado de seus clientes. Além de reduzir custos operacionais e minimizar erros humanos, a automação permite que os serviços jurídicos sejam mais acessíveis, tornando a justiça mais equitativa e inclusiva. À medida que o setor jurídico se adapta às demandas do século XXI, aqueles que abraçam a automação estarão na vanguarda, oferecendo soluções mais rápidas, precisas e eficazes. Portanto, investir em automação não é apenas uma decisão estratégica inteligente, mas também um passo essencial rumo a um futuro jurídico mais moderno e eficiente. _________ 1 Casey, A. J., & Niblett, A. (2019). The Technology of the Law: The Automation of Legal Technology. Journal of Law and Technology. 2 Ashley, K. D. (2017). Artificial Intelligence and Legal Analytics: New Tools for Law Practice in the Digital Age. Cambridge University Press. 3 Susskind, R. (2017). Tomorrow's Lawyers: An Introduction to Your Future. Oxford University Press. 4 Markoff, J. (2020). Machines of Loving Grace: The Quest for Common Ground Between Humans and Robots. HarperCollins. 5 OLIVEIRA, Fabiana Luci de; CUNHA, Luciana Gross. Os indicadores sobre o Judiciário brasileiro: limitações, desafios eo uso da tecnologia. Revista direito GV, v. 16, n. 1, p. e1948, 2020. Disponível aqui. 6 FARIAS, Pedro Lima Gondim de. A advocacia na era digital: uma análise sobre possíveis impactos práticos e jurídicos das novas tecnologias na dinâmica da advocacia privada. 2020. UFRN. Disponível aqui. 7 TEIXEIRA, Fernando Gil. O Direito enquanto recurso indispensável às empresas e potenciador de vantagem competitiva. 2020. Dissertação de Mestrado. Universidade da Beira Interior (Portugal). 8 BRESCIA, Raymond H. et al. Embracing disruption: How technological change in the delivery of legal services can improve access to justice. Alb. L. Rev., v. 78, p. 553, 2014. 9 FORNASIER, Mateus de Oliveira. Legal education in the 21st century and the artificial intelligence. Revista Opinião Jurídica, v. 19, n. 31, p. 1-32, 2021. Disponível aqui. 10 FERRARI, Isabela. Accountability de Algoritmos: a falácia do acesso ao código e caminhos para uma explicabilidade efetiva. Inteligência Artificial: 3º Grupo de Pesquisa do ITS, ITS-Instituto de Tecnologia e Sociedade do Rio, 2018. 11 FORNASIER, Mateus de Oliveira. The impact of the introduction of artificial intelligence in advocacy: skills and professional ethics necessary for the future lawyer. Revista da Faculdade de Direito UFPR, Curitiba, v. 66, n. 2, p. 69-94, maio/ago. 2021. ISSN 2236-7284. Disponível aqui.
sexta-feira, 9 de agosto de 2024

Deep fake e propaganda eleitoral 2024

Atualmente, com o avanço frenético das plataformas tecnológicas de Inteligência Artificial, há, também, como já trabalhado em outras colunas neste Migalhas, preocupações nas discussões acerca dos impactos negativos e positivos consequentes do descompasso entre o desenvolvimento de IA e a dificuldade de regulação. Dentre os impactos negativos, as deep fakes têm se tornado alvo de análises e críticas, visto que são conteúdos de imagem e voz altamente realistas criados a partir de comandos de IA generativa, de modo a juntar inúmeras informações das redes neurais profundas. Desse modo, as deep fakes são ferramentas extremamente eficazes para as campanhas de desinformação em diversos âmbitos, principalmente para as eleições municipais que se avizinham, afetando o direito à informação aos sujeitos afetados, o princípio da transparência e a lisura da propaganda eleitoral. Já há inúmeros exemplos de deep fakes que vêm sendo utilizadas em larga escala, mesmo que haja proibição pela resolução 23.610/2019, com seu novo texto produzido pelo TSE na resolução 23.732/2024, quanto ao uso de deep fakes nas propagandas eleitorais e obrigação de aviso de utilização de IA quando esta for utilizada. Além disso, o atual Projeto de Lei 2.338/2023 tenta apresentar um arcabouço legislativo para regulamentar a IA, entretanto não apresenta formas de proteção efetiva dos usuários, não adere ao princípio de vulnerabilidade dos usuários e apresenta vaga definição das responsabilidades em termos de transparência. Vejam, a preocupação quanto a má utilização da tecnologia com fins de campanha eleitoral são mais do que válidas, o histórico não é dos melhores. De acordo com o calendário eleitoral de 2024, a propaganda eleitoral se inicia em 16 de agosto e se define, basicamente, com a divulgação de propostas dos candidatos e candidatas, seus currículos com intuito de captação de votos e convencimento dos eleitores. Com a utilização massiva das novas tecnologias com fins eleitorais, principalmente a partir de 2018 no Brasil, os números de propaganda eleitoral contendo desinformação cresceram vertiginosamente. Como exemplo, nas eleições de 2022, o TSE aplicou mais de R$ 940 mil em multas por uso de desinformação na internet, mesmo com toda a campanha realizada pelo Tribunal, com os canais de comunicação criados para denúncias, o momento adequado para divulgação de propostas é usado para divulgação de desinformação. O uso das deep fakes pelo TSE ocorreram devido ao amplo acesso a ferramentas como o ChatGPT, da OpenAI e o Gemini, da Google, por exemplo. É imprescindível ressaltar que a utilização de deep fakes em contextos eleitorais não é recente, desde 2018, como dissemos acima, este tipo de conteúdo pode ser constatado e, em sua grande maioria, usado com fins de sátira. Entretanto, não é permitido utilizar em campanhas eleitorais conteúdo fabricado ou manipulado que tenha como fim a desinformação, seja descontextualizando a realidade ou até mesmo criando fatos não verdadeiros. A nosso ver, essa é uma deliberação correta do TSE, pois deep fakes estão cada vez mais verossímeis e isso pode realmente causar prejuízos significativos ao equilíbrio das eleições ou à integridade de todo o processo eleitoral. Dessa forma, candidatos e candidatas, partidos políticos e/ou a federação partidária que se envolver na produção e disseminação desse tipo de conteúdo podem enfrentar a cassação do registro da candidatura ou do mandato, comprometendo assim a legitimidade da eleição. Além disso, tal conduta configura crime eleitoral, conforme previsto no art. 323 do Código Eleitoral (Lei n° 4737/65), resultando em pena de detenção que pode variar de 2 meses a 1 ano, além do pagamento de multa. A imposição dessas sanções é essencial para garantir um processo eleitoral justo e transparente, protegendo os eleitores de manipulações tecnológicas maliciosas. Todavia, há outra questão a ser considerada1: a padronização das decisões judiciais envolvendo deep fakes. Atualmente, não há uma legislação específica que delineie as condutas gerais para orientar essas decisões, como princípios e diretrizes, o que pode resultar em uma falta de uniformidade nos julgamentos. Além disso, há uma necessidade crescente de conhecimentos especializados em Techlaw por parte do Judiciário, o que gera outro desafio significativo. A natureza dinâmica da tecnologia, que se altera rapidamente à medida que avança, significa que as decisões judiciais podem não acompanhar a melhor interpretação jurídica. Essa lacuna pode levar a inconsistências e a uma aplicação inadequada da justiça em casos envolvendo deep fakes, prejudicando a proteção dos direitos dos cidadãos e a integridade do processo eleitoral. Como exemplo, poderíamos citar: Tábata Amaral (PSB) v. Ricardo Nunes (MDB) ocorrido no início de 2024, em contexto de pré candidatura à prefeitura da cidade de São Paulo. No vídeo, o rosto do prefeito Nunes aparece no corpo de Ryan Gosling atuando no filme Barbie com o trocadilho "Quem", ao invés de "Ken", sugerindo que o atual prefeito é desconhecido. O caso foi levado por Nunes ao TRE/SP e foi decidido que o vídeo não possui conteúdo vexatório, portanto não há como inferir que há ofensa à honra do prefeito e não há qualquer menção às eleições de 2024, portanto, não se configuraria abuso ou propaganda eleitoral antecipada. Pergunta: Como a Resolução nº 23.732/2024 estabelece quais conteúdos podem gerar ofensas à honra ou configuração de abuso de poder político? Não seria todo ou qualquer conteúdo manipulado ou criado que se incorreria em sanção? Outro caso: em São Pedro da Aldeia (RJ), um administrador de um perfil no Instagram publicou vários áudios simulando a voz do prefeito em uma conversa com teor sexual com seu assessor de gabinete. O caso foi judicializado e o perfil não foi excluído, apenas a liminar com pedido de remoção do conteúdo foi deferida, contudo, o perfil continuou publicando outros áudios manipulados (deep fakes) e, então, ocorreu a decisão para exclusão do perfil e a suspensão do acesso àquela conta no Instagram por 180 dias. Pergunta: quando e quais são os limites entre liberdade de expressão e censura em casos de deep fakes? Mais um caso: em Santa Rita (PB), foi publicado um vídeo criado a partir de deep fake, simulando a voz do atual do prefeito e pré candidato a reeleição Nilvan Ferreira (Republicanos), em que ele tece muitos elogios a seu adversário de pleito, o pré candidato Jackson Alvino (PSD), mas até o momento não encontramos a decisão do TRE/PB sobre o caso. Pergunta: E se a deep fake for produzida por um(a) eleitor(a), não filiado a nenhum partido político ou militante político partidário, como será aplicada a regra? As inteligências artificiais generativas são complexas e transparência, explicabilidade e opacidade são conceitos inerentes a essas tecnologias, como já citamos aqui neste Migalhas2, por isso, a educação dos operadores do direito é imprescindível para a análise envolvendo as novas tecnologias. Os exemplos citados ilustram claramente os desafios complexos que o uso de deep fakes apresenta ao sistema eleitoral brasileiro. A falta de padronização nas decisões judiciais, a necessidade de conhecimentos especializados em Techlaw e a rápida evolução da tecnologia são fatores que complicam ainda mais a situação. A Resolução nº 23.732/2024 do TSE é um passo importante, mas é evidente que é necessário um esforço contínuo para adaptar e fortalecer o arcabouço legal que rege o uso de tecnologias emergentes nas eleições. É crucial que as autoridades eleitorais, legisladores e a sociedade civil trabalhem juntos para garantir que a integridade do processo eleitoral seja protegida. A criação de mecanismos eficientes para detecção e enfrentamento de deep fakes, combinada com uma educação ampla sobre o tema para operadores do direito e eleitores, é essencial. Além disso, a implementação de canais de denúncia, como o número de telefone 1491, criado pelo TSE, representa uma iniciativa importante para envolver os cidadãos na identificação e reporte de conteúdos desinformativos. A interseção entre liberdade de expressão e a necessidade de proteger a honra e a integridade dos candidatos deve ser cuidadosamente equilibrada para evitar tanto a censura quanto o abuso de direito. No entanto, a prioridade deve ser a manutenção de um ambiente eleitoral justo e transparente. À medida que avançamos para as eleições municipais de 2024, a vigilância e a ação proativa serão fundamentais para garantir que a verdade nas campanhas eleitorais prevaleça e que os eleitores possam tomar decisões informadas, livres de manipulações tecnológicas manipuladas. __________ 1 Disponível aqui. 2 Disponível aqui.
Ataques cibernéticos são os acessos não autorizados ao sistema de informação para a prática de condutas ilícitas, tais como, roubo de identidade, transações eletrônicas indevidas, sequestros, frutos e etc. Um estudo de 2010 mostrou que um hacker pode se infiltrar em apenas uma das muitas unidades de controle eletrônico de um veículo para manipular o sistema crítico de segurança e controlar as funções, como desativar os freios, travar seletivamente as rodas e parar o motor, tudo isso usando apenas o Bluetooth e conexões celulares existentes.1 Estes ataques acontecem comumente diante de sistemas de compartilhamento de informações, ou seja, o compartilhamento de informações cibernéticas frequentemente usado para promover a disseminação da ciberinteligência seja entre os entes privados e entre estes e os entes públicos.2 Em virtude desta ameaça concreta, a regulamentação sobre carros autônomos deve enfrentar o tema exigindo que o fabricante ateste que o sistema utilizado no carro autônomo possui, por exemplo, recursos de auto diagnóstico, capazes de detectar e responder a ataques cibernéticos, intrusões não autorizadas, bem como um sistema de alerta ao operador do sistema operacional e ao motorista sobre estes ataques. Em outras palavras, o veículo deve alertar o operador de um ataque cibernético e permitir que os comandos do operador prevaleçam sobre os comandos gerados pelo hacker.3 Neste sentido, já ficou demonstrada a viabilidade destes ataques cibernéticos, com a possibilidade de falsificação de GPS, interferência e visão ofuscante, dentre outros, isto porque o sistema usado em carros autônomos funciona a partir de diversas conexões entre os sensores e outros sistemas como o Lidar da Google. Este contexto foi analisado por Jonathan Petit e Steven E. Shladover.4 É evidente que o sistema de automação terá acesso às informações pessoais do dono do veículo, como os locais, o horário, a rotina de sua vida cotidiana, se ele ou ela transporta outras pessoas no veículo, dentre outras. Portanto, o fabricante deve observar as regras legais para o tratamento de dados pessoais, no Brasil, reguladas pela LGPD e outras leis esparsas. Um dos pontos cruciais é a obtenção do consentimento, que é uma das bases de tratamento de dados pessoais conforme o art. 7o, inc. I da LGPD, como já tivemos oportunidade de analisar nesta coluna.5 Assim, ao adquirir um carro autônomo, o proprietário tem o direito de tomar ciência de maneira efetiva sobre a política de proteção de dados e privacidade, com a qual deverá concordar para poder utilizar as funcionalidades do sistema autônomo.6 Mas as bases de tratamento de dados não se resumem ao consentimento, o fabricante poderá realizar a coleta, o armazenamento, e todas as demais atividades descritas de maneira exemplificativa no art. 5o, inc. X da LGPD, sob o fundamento de uma ou mais bases legais para o tratamento de dados elencadas no art. 7o da LGPD, quais sejam: - cumprimento de obrigação legal ou regulatória (inc. II); - quando necessário para a execução do contrato (inc. V); - para o exercício regular de direito em processo judicial, administrativo ou arbitral (inc. VI); - para a proteção da vida ou da incolumidade física do titular ou de terceiro (inc. VII); ou - para atender aos interesses legítimos do fabricante (inc. IX). Por isso, as empresas devem ser claras sobre as medidas contra os ataques cibernéticos em suas políticas de privacidade e de proteção de dados, sob pena de responder por prática comercial abusiva como no caso conhecido como Federal Trade Commission - FTC v. Wyndham Worldwide Corp.7 Enfim, estes ataques cibernéticos devem ser combatidos pelas empresas de maneira eficiente, podendo ser um vício do produto que deve ser analisado com cautela, estando o responsável legal obrigado às consequências legais. Outro ponto sensível diz respeito aos limites éticos na programação dos carros autônomos, ou seja, escolhas diante de circunstâncias adversas como uma possível colisão do veículo. Sobre estes problemas e outras importantes questões envolvendo o desenvolvimento, testes e uso dos carros autônomos conferir a obra "Sistema de Responsabilidade Civil para Carros Autônomos", da Editora Foco. __________ 1 MARKOFF, John. Researchers Show How a Car's Electronics Can Be Taken Over Remotely. In: New York Times (09 de março de 2011). Disponível aqui, acessado em 20 de março de 2020. 2 NOLAN, Andrew. Cybersecurity and Information Sharing: Legal Challenges and Solutions. In: Congressional Research Service, de 13 de março de 2015. Disponível aqui, acessado em 10 de março de 2020. 3 CRANE, Daniel A.; LOGUE, Kyle D.; PILZ, Bryce C. A Survey of Legal Issues Arising From The Deployment of Autonomous and Connected Vehicles. In: Michigan Telecommunications and Technology Law Review, vol. 23, pp.  191 - 320 (2017). Disponível aqui, acessado em 10 de março de 2024. p. 222. 4 PETIT, Jonathan; SHLADOVER, Steven. Potential Cyberattacks on Automated Vehicles. In: IEEE Transactions on Intelligent Transportation Systems, vol. 16, (2015), pp. 546 - 557. Disponível aqui, acessado em 20 de março de 2024. P. 06: "An autonomous automated vehicle can perceive its environment using multiple sensors. Recent implementations use different combinations of components: ranging sensors (lidar, radar), GPS, and map for Stanford autonomous automated vehicle; stereo camera and laser for Oxford RobotCar; stereo cameras, 3-D lidar, radar, and GPS for Annie WAY's autonomous automated vehicle. However, future autonomous automated vehicles may integrate more components, and thus, we consider the following attack surfaces." 5 Sobre os termos e condições de uso, cf. DE LIMA, Cíntia Rosa Pereira. Políticas de proteção de dados e privacidade e o mito do consentimento. In: Migalhas de IA e Proteção de Dados. Disponível aqui, acessado em 31 de julho de 2024. 6 LIMA, Cíntia Rosa Pereira de. Sistema de Responsabilidade Civil para Carros Autônomos. Indaiatuba (SP): Foco, 2023. 7 Wyndham Worldwide Corp., 799 F.3d 236, 241 (3d Cir. 2015).
Introdução Os smart contracts ou "contratos inteligentes" foram idealizados por Nick Szabo1 em trabalhos apresentados na década de 1990, nos quais o autor defendia que a revolução tecnológica afetaria diversos institutos da sociedade, dentre eles a o campo negocial e do direito contratual, aumentando o número de técnicas utilizadas nos contratos tradicionais - da "era do papel" até sua eventual integração em smart contracts. Um dos principais objetivos dos smart contracts é minimizar os riscos de descumprimento contratual, acidental ou intencional, além de diminuir a necessidade de terceiros intermediários, tais como bancos, advogados, contadores, corretores etc., o que representa economia importante em custos de transação, bem como de cobrança judicial ou extrajudicial. 1 Os smart contracts Smart contracts podem ser definidos como contratos realizados por meio de um sistema computadorizado cuja formação e/ou execução ocorre de forma automatizada, sem intermediação de terceiros, quando preenchidos os requisitos preestabelecidos nos protocolos (algoritmos) do sistema2-3, assim, regido pelo princípio do code is law (código é a lei) na linguagem da programação. Szabo compara o instituto com as máquinas de venda automáticas (vending machines), cujo mecanismo funcionaria como portador do produtor e qualquer pessoa que realiza o pagamento conforme sinalizado recebe o produto de forma automatizada. Observe-se que a máquina que contém os produtos funciona como proteção contra terceiros, a fim de diminuir os riscos de descumprimento do contrato e, em certa medida, contra furtos. Considerando a arquitetura proposta, Eliza Mik4 destaca que a analogia dos smart contracts com as máquinas de venda automática levam à falsa suposição que a automação da transação, com a entrega do produto em resposta do pagamento, ou de certos aspectos do contrato transforma o mecanismo em um contrato inteligente ou torna a própria negociação smart. O que não é verdade. O funcionamento das vending machines inspiraram o ideal dos denominados contratos inteligentes, mas não se resume à automação. O que tornou "inteligente" um contrato para que possa ser caracterizado como smart contract foi a criação da tecnologia blockchain, em 2008, por pessoa ou grupo de pessoas autodominadas Satoshi Nakamoto,5 juntamente com a idealização da criptomoeda (moeda digital) bitcoin. Isto porque essa tecnologia possibilita que todos os seus integrantes verifiquem as cláusulas do contrato, o cumprimento das obrigações e o adimplemento ou inadimplemento contratual, com a execução automática na forma previamente colocada no algoritmo. O blockchain utiliza uma tecnologia descentralizada (DLTs, distributed ledgers technologies) que, por sua vez, pode ser definido como um livro-razão (ledger), ou ainda, um banco de dados potencialmente global que pode armazenar virtualmente qualquer tipo de informação, transações financeiras, registros imobiliários, votos, contratos, entre outras. A segurança dos dados é garantida pela criptografia dos dados por meio da tecnologia hash e do "carimbo de data-hora (timestamp)"6 contendo uma referência com o bloco anterior, evitando fraudes e ataques ao blockchain. Em termos simples o blockchain é um livro-razão criptografado, descentralizado e validado por pares que fornece publicidade, cronológica e com registro permanente das transações anteriores, o que a torna uma base de dados segura e incorruptível que permite a realização de transações entre pessoas desconhecidas, sem necessidade de confiança entre os envolvidos (trustless transactions), consequentemente sem a necessidade intermediários garantindo seus riscos. Inicialmente, a Bitcoin blockchain era estruturada para operar transações descentralizadas da criptomoeda. Somente em 2014, com a criação da Ethereum, foi adicionado ao blockchain outras funcionalidades para serem executadas de forma decentralizada na rede, função denominada de smart contracts, a qual permite a interação tanto com humanos quanto com outros smart contracts no mesmo blockchain, além de poder interagir com o mundo físico por meio de Oracles (oráculos). Nesse sentido, conforme ressalta Stephanie Trindade Cardoso, na evolução computacional tecnológica, os smart contracts possuem diversas finalidades no blockchain, desde a criação de tokens, criação de sistemas de votação eletrônicas até mesmo mecanismos de micropagamentos, não correspondendo necessariamente a contrato em sua concepção jurídica. Para que um smart contract possa ser compreendido no sentido jurídico, o programa deverá transcrever total ou parcialmente os termos de um contrato. 2 Natureza jurídica dos smart contracts Vale lembrar a definição técnico-jurídica de contratos, como espécie de negócio jurídico bilateral, pois envolve a manifestação de vontade de, no mínimo, duas pessoas. Portanto, Caio Mário da Silva Pereira7 reforça que "o contrato é um acordo de vontades, na conformidade da lei, e com a finalidade de adquirir, resguardar, transferir, conservar, modificar ou extinguir direitos". Contudo, os smart contracts correspondem a programas de computador, inseridos em um blockchain ou em tecnologia descentralizada similar, e não necessariamente se encaixam na definição acima transcrita de contratos propriamente ditos. É bem verdade que poderão conter conteúdo contratual transcrito total ou parcialmente em seu programa. Portanto, a primeira dificuldade é definir a natureza jurídica dos denominados smart contracts. Os contratos eletrônicos são gêneros que pode se ramificar em contratos informáticos, quando o objeto for um bem informático; ou contratos telemáticos, quando a formação dos contratos envolve o uso de sistemas telemáticos, como e-mail, whatsapp e etc.8 Cabe destacar, ainda, que o sistema jurídico nacional não inviabiliza a contratação eletrônica, pois, adotou como regra geral no art. 107 do Código Civil, o princípio da liberalidade de formas. O que difere os smart contracts dos demais contratos eletrônicos, não é sua autoexecutoriedade, que pode ser programada em outras formas eletrônicas de contrato, mas na natureza descentralizada do vínculo que se pretende estabelecer entre as partes. É desse aspecto que decorre a autoexecutoriedade do smart contract porque não existindo intermediários nas redes, os programas (smart contracts) com seus códigos inseridos na rede, rodarão de forma automatizada. O mesmo pode ser extraído da definição proposta pela Subcomissão de Direito Digital9 na discussão da reforma do Código Civil de 2002: São considerados contratos inteligentes (smart contracts) aqueles nos quais alguma ou todas as obrigações contratuais são definidas e/ou executadas automaticamente por meio de um programa de computador, utilizando uma sequência de registros eletrônicos de dados e garantindo a integridade e a precisão de sua ordenação cronológica. Da definição apresentada se extrai o reconhecimento da natureza jurídica de forma (ou instrumento) dos smart contracts, cujo contrato ou parte dele será convertido/traduzido de linguagem natural (tradicional) para linguagem de código, tendo sido utilizada pela doutrina a metodologia dos Ricardian contracts, desenvolvida por Ian Grigg10 nos anos 1990, com o uso de templates, inserindo o programa na tecnologia descentralizada a ser utilizada. 3 Aspectos da relação jurídica contratual nos smart contracts É inegável a aplicabilidade dos smart contracts no âmbito contratual, podendo o programa conter partes ou a totalidade de um contrato, típico ou atípico, desde que havendo a alteridade própria dos contratos, observados os requisitos mencionados no art. 104 do Código Civil, partes capazes e objeto lícito, possível e determinado ou determinável. Quanto à forma, em regra sendo livre, é possível que seja celebrado um contrato por meio eletrônico, desde que não se exija forma específica como venda e compra de imóveis acima de 30 salários mínimos que deve ser feita por escritura pública nos termos do art. 108 do Código Civil. Os smart legal contracts, inseridos no blockchain ou em tecnologia descentralizada similar, pela sua própria arquitetura (enforcement, observability, verifiability e privity) atende ao princípio da relatividade dos efeitos do contrato, produzindo efeito entre as partes, impedindo a intervenção de terceiros externos ao contrato (função externa do princípio da função social do contrato). A tecnologia descentralizada na qual se operam os smart legal contracts lhe possibilitam a característica de imutabilidade e intangibilidade, correlato ao princípio do pacta sunt servanda, sendo a autoexecutoriedade (self-enforcement) elemento útil para a gestão de risco contratual, como apontam Gustavo Tepedino e Rodrigo da Guia Silva, por possibilitar o cumprimento contratual e a aplicação de remédios ou sanções contratuais em caso de descumprimento, destacando os autores a possibilidade de "automação da oposição da exceção de contrato não cumprido", prevista no art. 476 do Código Civil. A utilidade da tecnologia e do instrumento "inteligente" de contrato não afasta as críticas a esta ferramenta contratual, pois pode apresentar riscos e restrições que lhe são próprias, como erros ou bugs do próprio código. O fato de não haver intervenção ou modificação humana não pressupõe que a programação dos smart contracts sejam perfeitas, restando à parte lesada buscar reparação posterior, tendo em vista a autoexecutoiedade, a única alternativa será a reparação civil com base na vedação do enriquecimento sem causa ou pagamento indevido. A inevitabilidade dos smart contracts também apresenta restrições nos casos de inadimplemento fortuito, nos termos do art. 393 do Código Civil, sem culpa das partes porque o programa não extingue o contrato com a ocorrência do evento fortuito ou de força maior, o mesmo ocorre nos casos de invalidade contratual, porque a tecnologia não permite que as partes retornem ao status quo ante, possibilitando apenas respostas reparatórias (ex post). A insegurança se estende no campo da revisão contratual, seja em âmbito de relações civis ou das relações de consumo, em especial a limitação ou mesmo impossibilidade de exercício do direito de arrependimento, o que deve ser vislumbrado pelo legislador, ou seja, a compatibilização dos smart contracts com os direitos assegurados aos consumidores. Além disso, os smart contracts desafiam os princípios sociais da boa-fé objetiva e da função social do contrato, pois são incompatíveis com inadimplemento positivo do contrato, por violação dos deveres anexos ou laterais da boa-fé, bem como os aspectos da função social, seja em relação a modulação de efeitos do contrato preterindo interesses individuais em prol de interesses sociais, de proteção dos vulneráveis, ou no aspecto de proteção do equilíbrio contratual. Isto porque estas situações envolvem análise casuística o que dificulta ou mesmo impossibilita este tipo de programação. A solução seria abranger previamente no código do smart contract o maior número de situações possíveis, mas a medida aumentaria os custos pré-contratuais, o que poderia inviabilizar esta ferramenta contratual ou até mesmo afastá-la de seu escopo original, que é a busca por maior segurança jurídica. Inclusive a conversão da linguagem natural, do contrato tradicional, em linguagem de código corresponde à outra limitação dos smart legal contracts porque não são todas as cláusulas contratuais de um contrato que são compatíveis com a automação; a polissemia das palavras conduziria a interpretação errônea do programa; a linguagem de código não é compatível com cláusulas gerais que contêm conceitos abstratos como "boa-fé", "razoabilidade" utilizados por algumas espécies contratuais. Tais restrições não impossibilitam o uso dos smart legal contracts, apenas conduzem a reflexão de soluções possíveis para adequá-lo ao ordenamento jurídico nacional. Dando destaque para inclusão do tema no corpo do Projeto de revisão e atualização do Código Civil apresenta progressão no caminhar do instituto, com a proposição de soluções como código kill switch, que permite reiniciar, parar ou interromper o smart legal contract, do reforço ao dever de informar a parte contratante das condições contratuais e dos riscos envolvidos. Nas relações de consumo destaca o Projeto de Lei n° 3.514/2015 cujo art. 45-E, I, estabelece a obrigação do fornecedor disponibilizar previamente o contrato eletrônico (do qual o smart contract pode ser espécie) em língua portuguesa e com linguagem acessível e de fácil visualização aos consumidores, bem como, no inciso IV a facilitação do exercício do direito de arrependimento por formulário ou link deste disponibilizado ao consumidor. Conclusão Os smart contracts se apresentam como um instrumento "inteligente" valioso de formação dos contratos, sendo uma realidade em âmbito internacional, com reflexos no âmbito nacional, a tecnologia apresenta utilidade promovendo maior celeridade e segurança às relações contratuais. As reflexões, restrições e limitações apontadas demonstram a necessidade do debate sobre o assunto, a fim de apresentar soluções viáveis para adequar o instrumento com as regras e princípios do ordenamento jurídico nacional, objetivando o uso da tecnologia sem preterir interesses sociais a interesses individuais. __________ 1 SZABO, Nick. Smart contracts. 1994. Disponível aqui, acessado em 24 de julho de 2024. 2 MOREIRA, Rodrigo. Investigação preliminar sobre a natureza e os critérios de interpretação dos smart contracts. Revista de Direitos e as Novas Tecnologias, vol. 2, n. 3, 2019. Disponível aqui, acessado em 24 de julho de 2024. 3 SZABO, Nick. Op. cit. 4 MIK, Eliza. Smart contracts: teminology, technical limitations and real world complexity. Disponível aqui. 5 Apud MOREIRA, Rodrigo. Op. cit., p. 20. 6 CARDOSO, Stephanie Trindade. Smart contracts: caracterização e aplicação no direito contratual brasileiro. Disponível aqui. 7 PEREIRA, Caio Mário da Silva. Instituições de direito civil: contratos. atual. colab. Caitlin Mulholland. 26. ed. Rio de Janeiro: Forense, 2024. 8 DE LUCCA, Newton. Aspectos Jurídicos da Contratação Informática e Telemática. São Paulo: Saraiva, 2003. LIMA, Cíntia Rosa Pereira de. Contratos de adesão eletrônicos (shrink-wrap e click-wrap) e os termos e condições de uso (browse-wrap). In: LIMA, Cíntia Rosa Pereira; NUNES, Lydia Nunes Bastos Teles (Org.). Estudos Avançados em Direito Digital. 1 ed. São Paulo: Campus Elsevier, 2014. 9 BRASIL. Senado Federal. Parecer n° 1, de 2024. Subcomissão de direito digital da Comissão de Juristas responsável pela revisão e atualização do Código Civil. Brasília, DF: Senado Federal, 2024. Disponível aqui. Acesso em: 30 maio 2024. 10 GRIGG, Ian. The ricardian contract. 2004. Disponível aqui, acesso em 25 de julho de 2024.
A Resolução CD/ANPD 18, de 16 de julho de 2024, define diretrizes essenciais sobre a atuação do encarregado pelo tratamento de dados, complementando as disposições da Lei Geral de Proteção de Dados Pessoais (LGPD)1. Como se sabe, o artigo 41 da LGPD define que o controlador deve indicar um encarregado, cuja identidade e informações de contato devem ser divulgadas publicamente, de forma clara e objetiva, preferencialmente no sítio eletrônico do controlador. Previsão similar consta do artigo 23, III, da LGPD, quanto aos agentes sujeitos ao regime de tratamento público de dados pessoais. Segundo João Victor Rozatti Longhi, "o que se pode ao menos destacar é que é obrigatória a indicação, pelo Poder Público, do encarregado de dados quando houver tratamento de dados, nos termos do art. 39 da Lei (a do citado art. 23, III, da LGPD), lembrando sempre que os relatórios de impacto à proteção de dados deverão ser solicitados pela ANPD aos que se encontram na exceção à proteção legal (art. 4º, inciso III, c/c o §3º, LGPD)"2. De modo geral, em linha com o conceito do artigo 5º, VIII, da LGPD, pode-se dizer que as atividades do encarregado incluem aceitar reclamações e comunicações dos titulares, receber comunicações da ANPD, orientar funcionários sobre práticas de proteção de dados e executar demais atribuições determinadas pelo controlador ou previstas em normas complementares3. O artigo 3º da resolução estabelece que a indicação do encarregado pelo tratamento de dados pessoais deve ser realizada por meio de um ato formal do agente de tratamento, sendo obrigatória ao controlador, mas facultativa ao operador, "considerada política de boas práticas de governança para fins do disposto no art. 52, § 1º, inciso IX, da Lei nº 13.709, de 14 de agosto de 2018, e no art. 13, inciso II, do anexo da Resolução CD/ANPD nº 4, de 24 de fevereiro de 20234, desde que observadas as normas deste Regulamento" (artigo 6º da resolução). Esse ato formal é definido como um documento escrito, datado e assinado que demonstra de maneira clara e inequívoca a intenção do agente de tratamento em designar uma pessoa natural ou jurídica como encarregado. Essa formalidade parece estar alinhada ao princípio da transparência (art. 6º, VI, LGPD), pois visa assegurar a clareza na designação da pessoa que atuará como ponto focal de interlocução com os interessados pelo resultado positivo da atividade de tratamento de dados pessoais, garantindo que suas funções e atividades sejam claramente delineadas. O § 1º do artigo 3º ainda especifica que o documento deve ser claro e inequívoco, reforçando a importância de uma comunicação transparente e precisa sobre a nomeação do encarregado. O § 2º prevê que esse documento deve estar disponível para apresentação à ANPD quando solicitado. No mais, o novo regulamento reforça a obrigatoriedade da nomeação de um encarregado para todas as entidades que realizam o tratamento de dados pessoais, ressalvados os agentes de tratamento de pequeno porte, aos quais se aplicam as disposições da Resolução CD/ANPD nº 2, de 27 de janeiro de 20225. Para estes, o § 3º adapta a exigência, dispensando-os de indicar um encarregado, mas exigindo que disponibilizem um canal de comunicação com os titulares de dados. Isso garante que, mesmo em situações de menor escala, os direitos dos titulares de dados sejam respeitados e atendidos. Já o artigo 5º da resolução estabelece a obrigatoriedade de que pessoas jurídicas de direito público indiquem um encarregado pelo tratamento de dados pessoais ao realizarem operações nesse contexto. A norma especifica que a indicação deve recair preferencialmente sobre servidores ou empregados públicos com reputação ilibada, garantindo transparência e responsabilidade ao processo. A publicação dessa indicação deve ocorrer no Diário Oficial correspondente à esfera de atuação da entidade, seja federal, estadual, distrital ou municipal. Os artigos 12, 13 e 14 da resolução tratam das condições para a assunção da função de encarregado pelo tratamento de dados, sendo inequívoco que pode ser tanto uma pessoa natural, interna ou externa à organização, quanto uma pessoa jurídica, proporcionando versatilidade na escolha do profissional ou entidade mais adequada às necessidades do controlador, mas sufragando o entendimento expressado no Enunciado 680 da IX Jornada de Direito Civil do CJF, segundo o qual seria admissível a indicação de ente despersonalizado.6 O art. 13 enfatiza a importância da comunicação clara e precisa em língua portuguesa com os titulares e a ANPD, garantindo acessibilidade e transparência. Por fim, o art. 14 elimina a exigência de inscrição em entidades ou certificações específicas, focando na competência prática do encarregado, o que facilita a nomeação e promove uma abordagem mais inclusiva e prática para a proteção de dados. Ademais, confirmando diversos entendimentos que já constavam de seu "Guia Orientativo para Definições dos Agentes de Tratamento de Dados Pessoais e do Encarregado", versão 2.0, a ANPD consolidou o entendimento de que as atribuições do encarregado incluem, mas não se limitam, a receber reclamações dos titulares, prestar esclarecimentos, adotar providências, orientar colaboradores sobre práticas de proteção de dados e outras atribuições estabelecidas pelo controlador ou previstas em normas complementares, sendo imprescindível indicar a identidade e as informações de contato do encarregado de forma clara e objetiva. A Seção II do Capítulo III da resolução (artigos 15, 16 e 17) é inteiramente dedicada às atividades e às atribuições do encarregado, e fica claro que, além das atribuições já definidas na LGPD, compete ao encarregado prestar assistência na elaboração de registros de incidentes de segurança, relatórios de impacto, medidas de segurança e políticas internas, além de auxiliar em transferências internacionais de dados e assegurar o cumprimento dos regulamentos da ANPD. Importante destacar que, ao realizar estas funções, o encarregado não é responsável diretamente perante a ANPD pela conformidade dos dados tratados pelo controlador, destacando-se como um facilitador e orientador para que o agente de tratamento atenda às exigências legais e normativas. Esse profissional deve ter conhecimento adequado sobre práticas de proteção de dados e segurança da informação. Por isso, a escolha de um encarregado qualificado é elemento-chave para a conformidade do controlador com a lei, pois seu indicado atuará como o ponto de contato com os titulares dos dados e a ANPD. Com efeito, o artigo 41, §2º, da LGPD já estabelece que uma das principais funções do encarregado é receber reclamações e comunicações dos titulares, bem como prestar esclarecimentos e adotar providências, o que se alinha com o princípio da responsabilização e prestação de contas (accountability), previsto no artigo 6º, X, da LGPD. Outro aspecto positivo é a ênfase no treinamento e conscientização dos funcionários. O encarregado deve promover programas que garantam que todos os colaboradores estejam cientes de suas responsabilidades e das melhores práticas de segurança. Isso é fundamental, pois a segurança da informação não depende apenas de tecnologias, mas também do comportamento humano. A resolução também aborda a necessidade de monitoramento contínuo e auditorias internas. O encarregado deve conduzir auditorias regulares para avaliar a conformidade com as políticas de proteção de dados e identificar possíveis falhas. Essa abordagem proativa é vital para prevenir incidentes de segurança e garantir a eficácia das medidas de proteção. Em caso de incidentes de segurança que comprometam dados pessoais, a resolução estabelece que o encarregado deve agir prontamente para mitigar os impactos, notificando o controlador, a ANPD e os titulares dos dados afetados. Essa exigência está em linha com o artigo 48 da LGPD7, que determina a comunicação de incidentes de segurança que possam acarretar risco ou dano relevante aos titulares. A interação contínua com a ANPD é outro ponto destacado. O encarregado deve manter uma comunicação aberta com a autoridade reguladora, reportando violações significativas e colaborando em investigações. Essa transparência é crucial para manter a confiança pública e assegurar que a proteção de dados pessoais seja levada a sério pelas organizações. Por fim, a resolução descreve as sanções para o descumprimento das diretrizes estabelecidas, que podem incluir multas e restrições operacionais, conforme previsto na LGPD. A responsabilidade do encarregado é garantir que todas as obrigações legais sejam cumpridas, evitando sanções que possam comprometer a reputação e a operação da entidade. Os artigos 18 a 21 da resolução abordam a questão do conflito de interesse no exercício das funções do encarregado pelo tratamento de dados pessoais. Esses dispositivos reforçam a necessidade de o encarregado atuar com ética, integridade e autonomia técnica, assegurando que suas atividades não sejam comprometidas por conflitos que possam macular a postura íntegra e isenta que é esperada. Assim, a resolução permite que o encarregado acumule funções e atue para mais de um agente de tratamento, desde que consiga atender plenamente às suas atribuições sem incorrer em conflitos. No mais, a identificação de conflitos de interesse pode ocorrer tanto internamente, em um único agente de tratamento, quanto entre agentes distintos, especialmente se o encarregado tiver influência sobre decisões estratégicas de tratamento de dados. Para garantir a transparência e a imparcialidade, o encarregado deve declarar qualquer situação que possa configurar conflito de interesse. A resolução também descreve o múnus assumido pelo agente de tratamento no sentido de evitar que o encarregado desempenhe funções que possam resultar em conflitos, exigindo que medidas sejam adotadas para mitigar esses riscos, como não designar a pessoa, implementar medidas de mitigação ou substituir o encarregado. Em último caso, na hipótese de um conflito de interesse ser verificado, o agente de tratamento pode enfrentar sanções conforme o artigo 52 da LGPD, enfatizando a importância de uma gestão cuidadosa e ética no tratamento de dados pessoais. Em conclusão, a Resolução CD/ANPD nº 18 de 16 de julho de 2024 é um avanço importante para a proteção de dados pessoais no Brasil, pois detalha a atuação de uma das mais importantes figuras relacionadas às atividades de tratamento de dados pessoais. A implementação dessas diretrizes é essencial para fortalecer a cultura de proteção de dados no país e garantir que os direitos dos titulares sejam respeitados, protegidos e efetivados. ________________ 1 BRASIL. Autoridade Nacional de Proteção de Dados. Resolução CD/ANPD nº 18, de 16 de julho de 2024. Aprova o Regulamento sobre a atuação do encarregado pelo tratamento de dados pessoais. Diário Oficial da União: seção 1, Brasília, DF, 17 jul. 2024. Disponível em: https://www.in.gov.br/en/web/dou/-/resolucao-cd/anpd-n-18-de-16-de-julho-de-2024-572632074 Acesso em: 18 jul. 2024. 2 LONGHI, João Victor Rozatti. Artigo 41. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Comentários à Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018). 2. ed. Indaiatuba: Foco, 2024, p. 395. 3 Para maiores detalhes sobre o tema, conferir, por todos, QUEIROZ, Renata Capriolli Zocatelli. Encarregado de proteção de dados pessoais - DPO: regulamentação e responsabilidade civil. São Paulo: Quartier Latin, 2022. 4 BRASIL. Autoridade Nacional de Proteção de Dados. Resolução CD/ANPD nº 4, de 24 de fevereiro de 2023. Aprova o Regulamento de Dosimetria e Aplicação de Sanções Administrativas. Diário Oficial da União: seção 1, Brasília, DF, 27 fev. 2023. Disponível em: https://www.in.gov.br/en/web/dou/-/resolucao-cd/anpd-n-4-de-24-de-fevereiro-de-2023-466146077 Acesso em: 18 jul. 2024. 5 BRASIL. Autoridade Nacional de Proteção de Dados. Resolução CD/ANPD nº 2, de 27 de janeiro de 2022. Aprova o Regulamento de aplicação da Lei nº 13.709, de 14 de agosto de 2018, Lei Geral de Proteção de Dados Pessoais (LGPD), para agentes de tratamento de pequeno porte. Diário Oficial da União: seção 1, Brasília, DF, 28 jan. 2022. Disponível em: https://www.gov.br/anpd/pt-br/documentos-e-publicacoes/regulamentacoes-da-anpd/resolucao-cd-anpd-no-2-de-27-de-janeiro-de-2022 Acesso em: 18 jul. 2024. 6 Enunciado 680/CJF - "A Lei Geral de Proteção de Dados Pessoais não exclui a possibilidade de nomeação pelo controlador de pessoa jurídica, ente despersonalizado ou de mais de uma pessoa natural para o exercício da função de encarregado pelo tratamento de dados pessoais" (Aprovado na IX Jornada de Direito Civil). 7 Cfr. BRASIL. Autoridade Nacional de Proteção de Dados. Resolução CD/ANPD nº 15, de 24 de abril de 2024. Aprova o Regulamento de Comunicação de Incidente de Segurança. Diário Oficial da União: seção 1, Brasília, DF, 25 abr. 2024. Disponível em: https://www.in.gov.br/en/web/dou/-/resolucao-cd/anpd-n-15-de-24-de-abril-de-2024-556243024 Acesso em: 18 jul. 2024.
Quando no verão de 1955, John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon compartilharam com o mundo a ideia de que qualquer aspecto da aprendizagem ou atividade humana poderiam ser descritos de forma precisa, permitindo que uma máquina fosse construída para simulá-la1, cunhando-lhe o termo "inteligência artificial" ("IA"), despertou-se na sociedade uma legítima expectativa - tão promissora quanto incerta. E, embora o termo continue a chamar atenção mais de meio século depois de seu primeiro uso, há controvérsias quanto a sua proposição. Isso porque além de não ser consistente fazer uma analogia entre a autonomia de robôs e a racionalidade humana - dotado de ética, moral e valores que refletem não apenas a personalidade individual, mas a compreensão coletiva da sociedade -, a própria intenção de associar o termo autonomia (lato sensu) à máquina pode não ser ideal, tendo em vista que, muitas vezes, o que se chama autonomia na verdade representa uma "variedade de combinações algorítmicas viabilizadas por um software"2. Portanto, trata-se muito mais de uma reprodução de certos tipos de comando do que, de fato, uma escolha, realizada de forma livre e consciente. As divergências terminológicas e conceituais quanto à IA refletem o fato de se tratar de um campo em aberto, com significativos avanços nas últimas décadas - especialmente em função do advento do deep learning3 -, mas que ainda está longe de suas potencialidades. Nesse sentido, Kai-Fu Lee4 defende que é possível explicar a evolução da IA a partir de "quatro ondas": (i) da internet, por exemplo, por meio do uso de algoritmos de IA que aprendem nossas preferências e passam a nos recomendar conteúdos; (ii) de negócios, como utilizado por bancos e seguradoras que realizam mineração de dados5; (iii) de percepção, por exemplo, o aumento do uso de sensores inteligentes; e (iv) de autonomia, referindo-se à união das três ondas anteriores, permitindo a fusão das capacidades otimização quanto aos grandes conjuntos de dados complexos e percepção sensorial do ambiente externo, por exemplo, os carros autônomos. Entretanto, o regulador precisa estar atento aos riscos que a IA apresenta. Um caso emblemático, julgado em julho de 2022, após o Departamento de Justiça dos Estados Unidos ter reconhecido o uso de critérios raciais, étnicos, religiosos, sexuais e de renda para definir anúncios de moradia para usuários do Facebook, atentando contra o Fair Housing Act (Lei de Habitação Justa).6 Outro caso que vale a pena ser mencionado é o escândalo envolvendo a Amazon após o preterimento de candidaturas de mulheres em detrimento a de homens por um sistema de IA para recrutamento, implicando em discriminação de gênero.7 Nota-se, ainda, o fato de influenciadores negros terem menor "entrega" e, portanto, engajamento de seus conteúdos em redes sociais8, diminuindo a possibilidade deles se tornarem influenciadores competitivos no mercado digital. Isso ocorre porque existem "vieses algorítmicos",9 termo cunhado para descrever as distorções e/ou injustiças resultantes das decisões automatizadas feitas por algoritmos de inteligência artificial10.  A evolução do conceito de viés algorítmico para o direito internacional tem sido gradual, mas significativa. Organizações internacionais, como a União Europeia e as Nações Unidas, têm reconhecido a importância de abordar vieses algorítmicos em suas políticas e diretrizes. Por exemplo, o Regulamento Geral de Proteção de Dados ("GDPR") da UE inclui disposições que abordam a transparência e responsabilidade no uso de algoritmos de IA que impactam os direitos e liberdades das pessoas11. Além disso, iniciativas globais, como a "Declaração de Montreal pelo Desenvolvimento Responsável da Inteligência Artificial" (2018)12, destacam a necessidade de garantir a equidade e a não discriminação em sistemas automatizados. No entanto, apesar do reconhecimento crescente, desafios persistem na aplicação efetiva do direito internacional para mitigar vieses algorítmicos, pois sua complexidade técnica e a falta de transparência em sua implementação continuam a ser obstáculos importantes. Confira aqui a íntegra do artigo.
1. Contexto  Quando o assunto são Big Techs, avanço de tecnologia e suas implicações no Direito, o tempo é um fator crucial. A ideia inicial deste artigo era outra, por óbvio, relacionava-se profundamente com o texto que aqui se apresenta, contudo, era diferente. A velocidade com que os fatos se desenrolam no vasto e intricado campo da TechLaw impõe aos operadores do direito uma dedicação incansável ao estudo e um cuidado meticuloso. O tempo, como um mestre severo e implacável, sempre a ensinar com rigor, nos obriga a reavaliar e a adaptar nossas perspectivas diante de cada nova inovação. Inicialmente, pensou-se em analisar os problemas da utilização de dados pessoais dos usuários pela Meta (Facebook, Messenger, Instagram, Threads e Whatsapp) para treinar sua IA generativa, a Llama 3, destacando a falta de transparência e a dificuldade do exercício assegurado ao titular de dados de se opor ao tratamento de dados pessoais como assegurado pelo § 2º do art. 18 da LGPD. Além disso, pensou-se em analisar a tormentosa questão envolvendo o uso de dados pessoais de crianças, adolescentes e de terceiros para esta prática. Entretanto, a Autoridade Nacional de Proteção de Dados (ANPD)1 foi instada pelo Instituto Brasileiro de Defesa do Consumidor (IDEC)2 a se manifestar sobre este tema, acarretando na suspensão deste tratamento de dados pela Meta de maneira cautelar. Desta forma, o presente, além destes pontos, irá analisar aspectos cruciais do voto nº 11/2024, proferido pela Diretora da ANPD, Miriam Wimmer. Este voto é paradigmático e elucida questões cruciais sobre a utilização de dados pessoais para o treinamento de IA fornecendo uma análise detalhada e robusta dos desafios, preocupações e das implicações dessa prática, demonstrando a importância de uma legislação como a LGPD para a efetiva proteção dos titulares de dados neste contexto. Para entender a problemática que ensejou o referido voto, importante fazer uma breve exposição de fatos decisivos. No dia 22 de maio de 2024, a Meta alterou sua política de proteção de dados e privacidade no mundo todo, a empresa iria utilizar todo conteúdo gerado por seus usuários em seus feed de notícias (Facebook e Instagram) como, por exemplo, textos, legendas de foto, reflexões, e etc. - ou seja - tudo que qualquer usuário publicasse nessas redes, incluindo fotos e vídeos, excetuando apenas mensagens privadas. Todas essas informações seriam utilizadas como base de treinamento para a Llama 3, a Inteligência Artificial generativa da Meta. Confira aqui a íntegra da coluna.
A ideia de inteligência artificial surgiu a partir do trabalho de Warren McCulloch e Walter Pitts, em 19431. Este trabalho foi estruturado em três premissas: conhecimento da fisiologia básica e função dos neurônios no cérebro; análise formal da lógica proposicional ("e", "ou", "não"); e a teoria da computação de Turing (que será descrita abaixo). O resultado foi a proposta de um modelo de neurônios artificiais capazes de responder a estímulos.2 A partir destes estudos, a expressão foi utilizada pela primeira vez por John McCarthy,3 considerado como o "pai" da Inteligência Artificial (IA ou Artificial Intelligence - AI). John McCarthy, professor assistente de matemática em Dartmouth College (Hanover, Nova Hampshire), juntamente com outros três pesquisadores: Marvin Minsky de Harvard, Nathan Rochester da IBM e Claude Shannon do Bell Telephone Laboratories, passaram a estudar as possibilidades da IA. McCarthy, um visionário à época, acreditava que um computador poderia simular muitos ou todas as funções cognitivas humanas avançadas, chegando a afirmar: "Every aspect of learning or any other feature of intelligence can be so precisely described that a machine can be made to simulate it."4 Assim como no mito de Pigmalião, no qual este personagem da mitologia grega cria uma estátua tão perfeita que se apaixona por ela e pede aos deuses que a tornem humana. Semelhantemente, McCarthy, tão entusiasmado com as possibilidades da aplicação da inteligência artificial, acabou passando a ideia de que estes sistemas podem parecer ter características humanas, como aprendizado, adaptação e até mesmo "personalidade". Há quem defenda que estes entes, por ficção jurídica, teriam personalidade como as pessoas jurídicas, e assim como estas teriam um representante legal.5 Todavia tal alegação não pode prosperar,6 na medida em que se deve questionar a conveniência e possibilidade de se atribuir à inteligência artificial personalidade jurídica. Para tanto tais funcionalidades devem demonstrar a capacidade de sentir e raciocinar como seres humanos singulares e não meramente "imitando seres humanos". Todavia, diante do atual desenvolvimento tecnológico não se pode chegar à tal conclusão, razão pela qual não seria possível atribuir personalidade jurídica às funcionalidades de IA.7 No âmbito da União Europeia, o Parlamento Europeu editou a Recomendação 2015/2103 (INL), de 16 de fevereiro de 20178, com recomendações à Comissão de Direito Civil sobre Robótica. Quanto à responsabilidade civil, o documento sugere a aplicação das modalidades de responsabilidade objetiva ou de gestão de riscos (art. 53),9 o que foi levado em consideração pelo Regulamento Europeu sobre Inteligência Artificial, conhecido como AI Act, objeto de análise em diversos textos desta coluna. A resolução recomenda, ainda, que a solução a ser adotada não minimize os danos causados pelo fato de não terem sido provocados por um agente humano, máxime sob a perspectiva da pessoa lesada (art. 52). Segundo o entendimento da Comissão, atualmente a responsabilidade deve ser imputada a um ser humano, não a um robô, aniquilando qualquer intenção de se atribuir ao robô personalidade jurídica para fins de responsabilidade civil. Todavia, em sendo o regime atual insuficiente para solucionar alguma controvérsia futura envolvendo o surgimento de uma IA mais complexa e autônoma, o regime de responsabilidade civil objetiva ou de gestão de riscos deverá considerar proporcionalmente o nível de autonomia da máquina e o tempo de aprendizado que lhe for proporcionado, ressalvado o machine learning (art. 56). O regime de responsabilidade objetiva ali proposto pode ser suportado pelo usuário/consumidor ou pelo produtor/fornecedor. No primeiro caso, imputa-se a responsabilidade pelo comportamento da IA à pessoa jurídica em nome de quem ela age, aplicando-se a ideia de IA como ferramenta, em um regime de responsabilidade similar a dos pais por danos causados por seus filhos, ou donos de animais, relativamente aos danos causados por estes. No segundo caso, o produtor ou fornecedor pode ser responsabilizado pelo fato do produto, ou seja, quando não adotar os cuidados necessários ou legalmente exigidos de segurança e de informação ao consumidor sobre os riscos da IA.10 No caso da abordagem pela gestão de riscos, a responsabilidade por danos provocados pela IA se justifica pelo ônus de prova extremamente gravoso que poderá recair ao consumidor em algumas hipóteses de responsabilidade pelo fato do produto, especialmente devido à autoaprendizagem da máquina.11 Daí a importância de se prever a inversão do ônus da prova como o faz o Projeto de Lei brasileiro n. 2.338 (§2º do art. 27 do PL n. 2.338). Por outro lado, a responsabilidade por gestão de riscos também pode ser fundamentada na teoria do deep-pocket, importada do direito estadunidense, segundo a qual o beneficiário possui o dever de compensar os danos causados por sua atividade lucrativa que gera riscos à sociedade. Neste sentido, o atual parágrafo único do art. 927 do Código Civil brasileiro, bem como o Código de Defesa do Consumidor parecem estar alinhados a tal concepção. O Projeto de Lei 2.338 de 202312 traz uma classificação de risco arts. 14 a 16 (sobre o risco excessivo) e arts. 17 e 18 (sobre alto risco), para determinar a responsabilização objetiva na primeira hipótese (§ 1º do art. 27) e responsabilização subjetiva com culpa presumida (§ 2º do art. 27), com previsão de inversão do ônus da prova. Deve-se atentar, é verdade, para o justificável chilling effect ("efeito de medo") provocado por tentativas de lege ferenda de responsabilização civil de agentes e empresas que trabalham na linha de desenvolvimento e produção de IA, independentemente de culpa. No entanto, o melhor caminho a ser seguido no plano legislativo brasileiro consiste na aplicação de uma tipologia múltipla e setorial de responsabilidade civil por danos causados por IA. Em outras palavras, deve-se considerar o tipo mais apropriado para cada IA em concreto. Do mesmo modo, o interesse de todos os atores no desenvolvimento tecnológico e otimização do bem-estar que pode ser promovido pelo avanço da IA exige uma solução equilibrada de repartição dos riscos entre desenvolvedores, fornecedores e consumidores desses mecanismos inteligentes, o que torna bastante pertinentes as iniciativas como a exigência de seguros e de certificação por parte dos usuários para manejo de alguns tipos mais complexos e sujeitos a riscos de IA. Em suma, toda e qualquer "idealização" da IA seja no sentido de que são ferramentas perfeitas e, portanto, não causarão risco algum; seja no sentido contrário, que pelo desconhecido a responsabilização tem que ser a mais gravosa possível, não são adequadas e vão na contramão do necessário desenvolvimento sustentável das tecnologias para a melhoria da qualidade de vida humana. Inteligência artificial não é perfeita e nem pretende sê-lo; assim como os seres humanos não são perfeitos como na reflexão feita por Ray Kurzweil:13 The idea stems from the realization that as software systems become more complex, like humans, they will never be perfect, and that eliminating all bugs is impossible. As humans, we use the same strategy: we don't expect to be perfect, but we usually try to recover from inevitable mistakes. __________ 1 McCULLOCH, Warren; PITTS, Walter. A Logical Calculus of Ideas Immanent in Nervous Activity. In: Bulletin of Mathematical Biophysics, vol. 5, no. 4 (1943), pp. 115-133. 2 RUSSELL, Stuart J.; NORVIG, Peter. Artificial Intelligence: A Modern Approach. 3. ed. New Jersey: Prentice-Hall, 2010. pp. 17. 3 McCARTHY, John; MINSKY, M. L.; ROCHESTER, N.; SHANNON, C. E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. In: Stanford Edu, 1955. Disponível aqui, acessado em 20 de dezembro de 2019. 4 McCARTHY, John; MINSKY, M. L.; ROCHESTER, N.; SHANNON, C. E. A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. In: AI Magazine, vol. 27, número 4 (2006), pp. 12 - 15. p. 12. Disponível aqui, acessado em 20 de dezembro de 2019. 5 SOLUM, Lawrence B. Legal Personhood for Artificial Intelligences. In: North Carolina Law Review, vol. 70, n. 4, 1992, pp. 1.231 - 1.287. Disponível aqui, acessado em 17 de junho de 2024; KERR, Ian. Spirits in the material world: intelligent agents as intermediaries in electronic commerce. In: Dalhousie Law Journal, vol. 22, 1999, pp. 189 - 249. Disponível aqui, acessado em 17 de junho de 2024. 6 Em sentido contrário à personalidade jurídica dos sistemas de inteligência artificial: RUSSEL, Stuart; NORVIG, Peter. Op. cit., p. 1.036: "To our knowledge, no program has been granted legal status as an individual for the purposes of financial transactions; at present, it seems unreasonable to do so. Programs are also not considered to be "drivers" for the purposes of enforcing traffic regulations on real highways. In California law, at least, there do not seem to be any legal sanctions to prevent an automated vehicle from exceeding the speed limits, although the designer of the vehicle's control mechanism would be liable in the case of an accident." 7 LIMA, Cíntia Rosa Pereira de; OLIVEIRA, Cristina Godoy Bernardo de; RUIZ, Evandro Eduardo Seron. Inteligência Artificial e Personalidade Jurídica: Aspectos Controvertidos. In: BARBOSA, Mafalda Miranda [et alli] Direito Digital e Inteligência Artificial: diálogos entre Brasil e Europa. Indaiatuba: Foco, 2020. 8 UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão de Direito Civil sobre Robótica. Disponível aqui, acessado em 27 de junho de 2024. 9 53.  Considera que o futuro instrumento legislativo deverá basear-se numa avaliação aprofundada da Comissão que determine se a abordagem a aplicar deve ser a da responsabilidade objetiva ou a da gestão de riscos; 10 PAGALLO, Ugo. The laws of robots: crimes, contracts, and torts. Heidelberg: Springer, 2013. p. 33. 11 CERKA, Paulius; GRIGIENE, Jurgita; SIRBIKYTE, Gintare. Liability for damages caused by Artificial Intelligence. Computer Law & Security Review, Elsevier, v. 31, n. 3, p. 376-389, jun. 2015. p. 386. 12 BRASIL. Senado Federal. Projeto de Lei n. 2.338 de 2023. Disponível em: , acessado em 27 de junho de 2024. 13 The Singularity Is Near: When Humans Transcend Biology. Nova York: Viking (Penguin Group), 2005. p. 191: "A ideia deriva da percepção de que, à medida que os sistemas de software se tornam mais complexos, como os humanos, eles nunca serão perfeitos e que é impossível eliminar todos os erros. Como seres humanos, usamos a mesma estratégia: não esperamos ser perfeitos, mas geralmente tentamos nos recuperar de erros inevitáveis." (tradução livre)
sexta-feira, 21 de junho de 2024

Dados pessoais e IA: problemas e soluções

A utilização de sistemas de inteligência artificial coloca especiais problemas em relação aos dados pessoais. Sendo os dados, em geral, e os dados pessoais, em particular, a matéria-prima que alimenta o software inteligente, garantindo a sua aprendizagem, não se podem ignorar os riscos que, neste horizonte, emergem. Entre tais riscos, e no tocante à ligação entre a IA e a utilização de dados pessoais, conta-se o risco de invasão à privacidade, pelo potencial intrusivo que o processamento de certos dados comporta, permitindo, em alguns casos, a sequenciação dos movimentos do titular daqueles ao longo de toda a sua vida; o risco de violação da igualdade, pelo perigo de discriminação que pode resultar da análise dos dados pessoais, tendo em conta as correlações estatísticas operadas pelos sistemas de inteligência artificial que, incapazes de aceder à dimensão semântica dos signos que mobilizam, podem gerar enviesamentos, e tendo em conta os próprios enviesamentos induzidos ao algoritmo; o risco de perturbação da liberdade, pelo fomento de fenômenos como o boxing, que tem expressão em termos comerciais e em termos políticos e ideológicos, abrindo-se as portas a formas de manipulação informativa, agravada pelas hipóteses de difusão de falsidades geradas pelos algoritmos generativos; o risco de perturbação da integridade psíquica do sujeito, como consequência de uma eventual manipulação emocional, resultante da criação de um espaço de interação pretensamente subjetiva que encerra o sujeito sobre si mesmo; o risco de violação da honra e do direito à identidade e verdade pessoal, pela produção de fake news e deep fake news a partir dos dados pessoais que são computados. A tudo isto acresce o potencial de distorção dos próprios resultados a que os sistemas, em geral, podem chegar, se e quando alimentados por dados de segunda geração (isto é, dados gerados por sistemas autónomos) corrompidos. Na verdade, tendo os algoritmos potencial para gerar novos dados a partir dos que foram inicialmente transmitidos, coloca-se o problema de saber se o fundamento que licitude do tratamento que deles seja feito é suficiente ou não para abarcar esta segunda geração de dados. Por outro lado, o modo de funcionamento da máquina, baseado no estabelecimento de correlações estatísticas - que estão muito longe de representar relações de causalidade -, pode estar na base de corrupção de dados que, posterior e sequencialmente, poderão ser utilizados como matéria prima para a aprendizagem algorítmica. Quer isto dizer que, para além do potencial de discriminação que os algoritmos encerram, eles exponenciam a possibilidade de se chegar a soluções erradas, eventualmente lesivas de direitos alheios, agravando-se, assim, um problema atinente aos vieses de programação que possam já existir. Acresce a tudo isto que nem sempre é fácil, atenta a autonomia e a opacidade dos sistemas, perceber quais os conjuntos de dados efetivamente utilizados na aprendizagem algorítmica. Num outro plano, as dificuldades comunicam-se à eventual concretização de uma pretensão indemnizatória. Na verdade, ainda que no tocante aos dados pessoais se parta, nos termos do artigo 82º RGPD, de uma presunção de culpa, esta poder ser facilmente ilidida pela prova do cumprimento de todas as regras decorrentes do regulamento. Lidando com sistemas autónomos, as lesões podem ser causadas pela corrupção de dados provocada pelo funcionamento algorítmico. E, nessa medida, as lesões deixam de poder ser imputadas ao controller, mesmo tendo em conta que ele pode responder pelos atos do processor, exceto se convocarmos, para fundamentar a responsabilidade, um regime diverso daquele que assenta no RGPD ou na disciplina privatística do Código Civil. É este um dos principais problemas da existência de dados de segunda geração que podem ou não ser dados pessoais, atenta a possível anonimização que deles venha a ser feita, a suscitar problemas atinentes não só à culpa como à causalidade. Mas o problema pode também ser causado com base nos dados de primeira geração: ou porque com base neles se podem criar deep fake news, ou porque podem conduzir a hipóteses de discriminação, ou porque podem gerar situações de manipulação (ideológica ou emocional), suscitando-se o problema de saber a quem pode ser imputada a lesão. Dir-se-ia, quanto à relação entre os dados pessoais usados ou gerados pela inteligência artificial e a responsabilidade civil, que as dificuldades são de dois tipos: em primeiro lugar, os dados que permitem o funcionamento da inteligência artificial podem sofrer uma corrupção, podendo não ser viável descobrir-se a sua origem ou não sendo o utilizador, distribuidor ou fabricante responsável por eles; em segundo lugar, os dados gerados pelo sistema autónomo, podendo eles próprios não ser fiáveis, podem resultar dos processos automáticos de autoaprendizagem. Os problemas em torno da proteção de dados pessoais parecem, contudo, agravar-se quando lidamos com algoritmos generativos, capazes de, por si próprios, a partir da análise de biliões de dados, gerar textos, obras de arte, responder a questionários, compreender e reproduzir imagens, gerar códigos de programação, etc. Em primeiro lugar, questionam os autores acerca da qualidade e atualização dos dados que são utilizados para os treinar, no âmbito de uma aprendizagem supervisionada. Na verdade, baseando-se a sua aprendizagem no deep learning, são utilizadas para os treinar técnicas de aprendizagem supervisionada e por reforço1, o que determina que os resultados possam ser mais fidedignos, mas, ao mesmo tempo, que os dados inseridos têm de ser constantemente atualizados. Por outro lado, servindo os dados utilizados para treinar o algoritmo para gerar respostas no que respeita aos mais diversos domínios e destinando-se o algoritmo generativo a ser integrado noutros sistemas de inteligência artificial (isto é, tratando-se de um sistema de inteligência artificial de finalidade geral), somos necessariamente confrontados com um problema de não pequena monta: qual a base jurídica que justifica a recolha em massa dos dados que são utilizados? Nos termos do artigo 6º RGPD, a licitude do tratamento fica dependente da existência do consentimento do seu titular ou, em alternativa, da verificação de uma das situações nele previstas: se o tratamento for necessário para a execução de um contrato no qual o titular dos dados é parte, ou para diligências pré-contratuais a pedido do titular dos dados; se o tratamento for necessário para o cumprimento de uma obrigação jurídica a que o responsável pelo tratamento esteja sujeito; se o tratamento for necessário para a defesa de interesses vitais do titular dos dados ou de outra pessoa singular; se o tratamento for necessário ao exercício de funções de interesse público ou ao exercício da autoridade pública de que está investido o responsável pelo tratamento; se o tratamento for necessário para efeito dos interesses legítimos prosseguidos pelo responsável pelo tratamento ou por terceiros, exceto se prevalecerem os interesses ou direitos e liberdades fundamentais do titular que exijam a proteção dos dados pessoais, em especial se o titular for uma criança. Por seu turno, tratando-se de categorias especiais de dados (dados que revelem a origem racial ou étnica, as opiniões políticas, as convicções religiosas ou filosóficas, a filiação sindical, dados genéticos, dados biométricos que identifiquem uma pessoa de forma inequívoca, dados relativos à saúde, dados relativos à vida sexual ou orientação sexual), as condições de licitude do tratamento tornam-se mais rigorosas. Ainda que o titular dos dados autorize, nos termos da relação firmada com a OpenIA para utilização do ChatGPT, o tratamento de dados, devendo o consentimento ser específico (isto é, orientado para as finalidades a que o responsável se propõe, nos termos dos artigos 12º e seguintes RGPD), sob pena de invalidade, e devendo o referido tratamento respeitar o princípio da limitação de finalidades, tornam-se percetíveis as dificuldades. Dito de outro modo, o consentimento deve ser prestado para um específico tratamento ao qual preside uma específica finalidade, o que está de acordo com o princípio da limitação das finalidades, nos termos do qual os dados pessoais são recolhidos para finalidades determinadas, explícitas e legítimas, não podendo ser tratados posteriormente de uma forma incompatível com as mesmas. Este princípio da limitação das finalidades é, contudo, mais amplo, não derramando a sua eficácia apenas no que toca à especificidade do consentimento. Na verdade, o referido princípio determina uma ligação incindível entre o fundamento que se invoca para o tratamento de dados e as concretas atividades que posteriormente podem ser legitimadas. Nos termos do artigo 13º/1 c) e do artigo 14º/1 c) RGPD, o responsável pelo tratamento de dados deve informar o titular dos dados acerca do fundamento desse tratamento, antes de ele iniciar e relativamente a uma finalidade específica. Admitem-se, é certo, tratamentos de dados posteriores, que não sejam considerados incompatíveis com as finalidades iniciais. Assim, os fins de arquivo de interesse público, os fins de investigação científica ou histórica e os fins estatísticos estão salvaguardados. A questão que se coloca é a de saber se o tratamento de dados posterior que seja feito, por exemplo, pela OpenIA ou por terceiros a quem sejam divulgados os dados - sejam estes dados originários ou dados gerados pelo algoritmo - é ou não compatível com este princípio. Além disso, os dados recolhidos devem ser adequados, pertinentes e limitados ao que é necessário relativamente às finalidades para as quais são tratados (princípio da minimização de dados). Assim, qualquer que seja o fundamento invocado, ele não legitima o tratamento de dados para além do que se revele essencial às finalidades invocadas. Há que estabelecer-se, portanto, um juízo ponderativo de exigibilidade no que respeita às diversas categorias de dados recolhidos. O problema com que lidamos, ao confrontarmo-nos com algoritmos generativos, é, porém, o de saber se este princípio pode ser cumprido atenta a falta de limitação de finalidades. Em causa pode estar, também, o princípio da exatidão. Os dados pessoais devem ser exatos e atualizados sempre que necessário, devendo-se adotar todas as medidas adequadas para que, em caso de inexatidão, sejam apagados ou retificados sem demora. Na verdade, nos termos do artigo 16º RGPD, o titular dos dados tem direito a obter, sem demora injustificada, do responsável pelo tratamento a retificação dos dados pessoais que lhe digam respeito e que sejam inexatos, ou que sejam completados os dados incompletos. O certo é que, por força da incapacidade de aceder a uma dimensão semântica, um sistema como o ChatGPT produz inúmeras vezes conteúdos que, podendo contender com dados pessoais, não são exatos. E ainda que haja direito a uma retificação, sendo esses dados transmitidos a terceiros que podem ser desconhecidos, coloca-se a questão de saber como pode ser operacionalizado o direito à retificação por parte do titular dos dados. Igualmente problemático pode ser o princípio da integridade e confidencialidade. Ausente do elenco de condições a que devem obedecer os dados pessoais de acordo com a lei 67/98, é explicitamente introduzido pelo RGPD, comunicando-nos que os referidos dados devem der tratados de uma forma que garanta a sua segurança, incluindo a proteção contra o seu tratamento não autorizado ou ilícito e contra a sua perda, destruição ou danificação acidental, adotando as medidas técnicas ou organizativas adequadas. Ora, há a possibilidade de os dados tratados por um sistema como o ChatGPT virem a ser expostos ou perdidos, faltando em muitos casos a transparência necessária para se compreender o processo. Parece, portanto, que os algoritmos generativos colocam, do ponto de vista normativo, muitas dificuldades no que respeita à compatibilização com a intencionalidade do RGPD. Além disso, se tivermos em conta que os princípios e deveres impostos pelo RGPD visam salvaguardar os titulares dos dados pessoais, mantendo-os incólumes nos direitos que, numa relação de interioridade constitutiva, subjazem ao direito à proteção de dados pessoais, haveremos de ter em conta que estes algoritmos generativos, como quaisquer outros, mas de forma incrementada, potenciam os riscos a que aludimos ab initio. Torna-se, por isso, fundamental ter em conta o Regulamento do Parlamento Europeu e do Conselho relativo à IA. A disciplina estabelecida pelo Regulamento estrutura-se em função de diversos níveis de risco, resultado da combinação da probabilidade de ocorrência de danos com a gravidade desses danos. Desde logo, há determinados sistemas que são considerados de risco inaceitável, sendo absolutamente proibidos. Por seu turno, os sistemas de IA de risco elevado são os sistemas destinados a ser usados como um componente de um produto ou os sistemas que sejam produtos e que estejam previstos no anexo I; os produtos cujo componente de segurança seja um sistema de IA ou os sistemas que sejam sujeitos a uma avaliação de conformidade por terceiros com vista à sua colocação em serviço, nos termos dos atos enumerados no anexo I; os sistemas constantes do anexo III, desde que cumpram as especificações previstas no regulamento. Este elenco não é fixo, podendo ser alargado ou diminuído, segundo os critérios do artigo 7º. Assim, um sistema de IA a que se refere o Anexo III não pode ser considerado de risco elevado se não representar um risco significativo de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares, nomeadamente se não influenciarem de forma significativa o resultado da tomada de decisões. Mas, os sistemas de IA a que se refere o anexo III devem ser sempre considerados de risco elevado nos casos em que executarem a definição de perfis de pessoas singulares. Prevê-se, ainda, que a qualquer momento a comissão possa atualizar a listagem do anexo III. Para tanto, é necessário que se preencham determinados requisitos: os sistemas de IA destinem-se a ser utilizados em qualquer um dos domínios enumerados no anexo III; e os sistemas de IA representem um risco de danos para a saúde e a segurança ou de repercussões negativas nos direitos fundamentais, e esse risco seja equivalente ou superior ao risco de danos ou repercussões negativas representado pelos sistemas de IA de risco elevado já referidos no anexo III, estabelecendo-se diversos critérios para o efeito. Para além do risco elevado, prevê-se a existência de sistemas de risco moderado e limitado. São, ademais, tratados de forma específica os sistemas de inteligência artificial de finalidade geral, isto é, aqueles que têm capacidade para servir para diversas finalidades, tanto para utilização direta, como para integração noutros sistemas de IA. Quanto a estes há que estabelecer uma linha divisória entre os que importam risco sistémico e os que não envolvem. Os primeiros são os que apresentam capacidades de alto impacto, avaliadas com base em ferramentas e metodologias técnicas apropriadas, incluindo indicadores e referências, ou que, com base em uma decisão da Comissão, ex officio ou após um alerta qualificado pelo painel científico, sejam vistos como modelos de IA que tenham capacidades ou impacto equivalentes àqueles. Esta linha divisória será fundamental para se determinarem os deveres que vinculam os prestadores destes modelos. Aos sistemas de risco elevado está associado um conjunto mais exigente de deveres: deveres de conceção e de desenvolvimento, assumindo particular importância, para o tema que tratamos, a obrigação resultante do artigo 10º, passando a exigir-se que os dados que sirvam para treino e aprendizagem da máquina cumpram diversos critérios de qualidade ali previstos; e deveres dos prestadores de serviços (os prestadores de sistemas de IA de risco elevado devem assegurar que os seus sistemas de IA de risco elevado cumpram os requisitos previstos no regulamento; indicar no sistema de IA de risco elevado ou, se tal não for possível, na embalagem ou na documentação que o acompanha, consoante o caso, o seu nome, o nome comercial registado ou a marca registada e o endereço no qual podem ser contactados; dispor de um sistema de gestão da qualidade que cumpra o disposto no artigo 17º; conservar a documentação nos termos do artigo 18º; quando tal esteja sob o seu controlo, manter os registos gerados automaticamente pelos sistemas de IA de risco elevado que disponibilizam, conforme previsto no artigo 19º; assegurar que o sistema de IA de risco elevado seja sujeito ao procedimento de avaliação da conformidade aplicável, tal como previsto no artigo 43º, antes da colocação no mercado ou da colocação em serviço; elaborar uma declaração UE de conformidade, nos termos do artigo 47º; apor a marcação CE no sistema de IA de risco elevado ou, se tal não for possível, na embalagem ou na documentação que o acompanha, para indicar a conformidade com o regulamento; respeitar as obrigações de registo a que se refere o artigo 49º; adotar as medidas corretivas necessárias e prestar as informações, tal como estabelecido no artigo 20º; mediante pedido fundamentado de uma autoridade nacional competente, demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos pelo regulamento); deveres dos responsáveis pela implantação (dever de adotar medidas técnicas e organizativas adequadas para garantir que utilizam esses sistemas de acordo com as instruções de utilização que os acompanham; dever de atribuir a supervisão humana a pessoas singulares que possuam as competências, a formação e a autoridade necessárias, bem como o apoio necessário; nas hipóteses em que exerça controlo sobre os dados de entrada, dever de assegurar que os dados de entrada sejam pertinentes e suficientemente representativos tendo em vista a finalidade prevista do sistema de IA de risco elevado; dever de controlar o funcionamento do sistema de IA de risco elevado com base nas instruções de utilização; dever de manter os registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo, por um período adequado à finalidade prevista do sistema de IA de risco elevado; dever de realizar uma avaliação de impacto sobre a proteção de dados; tratando-se de sistemas de risco elevado previstos no anexo III, que tomam decisões ou ajudam a tomar decisões relacionadas com pessoas singulares, dever de informar as pessoas singulares de que estão sujeitas à utilização do sistema de IA; dever de cooperar com as autoridades competentes em todas as medidas que essas autoridades tomarem em relação a um sistema de IA de risco elevado). Estabelecem-se, igualmente, especiais deveres de transparência relativamente a certos sistemas, nos termos do artigo 50º, bem como para os sistemas de finalidade geral, deveres esses que, neste último caso, divergirão consoante o sistema apresente risco sistémico ou não. Fundamental será, portanto, articular de forma compatibilizadora as regras resultantes do Regulamento IA com o regime instituído pelo RGPD. Os desafios, contudo, são muitos. E mais serão se pensarmos que uma eventual tutela ressarcitória não está ainda, sempre que se lide com a IA, totalmente assegurada, atentas as dificuldades que a esse nível se enfrentam. 1 Pedro Nunes, Um sistema de inteligência artificial nas bocas do mundo, Observatório Almedina, 2023.
A judicialização da saúde pública é um fenômeno cada vez mais presente em diversos países, incluindo o Brasil, caracterizado pelo aumento de demandas judiciais como meio para garantir o acesso a tratamentos médicos e medicamentos. Essa tendência reflete desafios significativos para o sistema de saúde, desde a alocação de recursos até a equidade no acesso aos serviços de saúde. No entanto, diante desses desafios, emergem oportunidades para explorar novas ferramentas e metodologias que possam contribuir para uma gestão mais eficiente e justa do sistema de saúde. Uma dessas ferramentas é a jurimetria, uma abordagem que emprega métodos estatísticos e analíticos para examinar dados legais e judiciais. Este resumo expandido visa explorar como a jurimetria pode ser aplicada para compreender melhor a judicialização da saúde e contribuir para soluções proativas. Analisaremos como essa metodologia pode ajudar na previsão de tendências, otimização de recursos e formulação de políticas públicas mais eficazes. Através da análise de dados e padrões em litígios de saúde, procuraremos identificar os principais desafios e oportunidades para melhorar a resposta do sistema de saúde às necessidades dos cidadãos, promovendo um acesso mais equitativo e sustentável à saúde pública. A jurimetria é uma abordagem que aplica métodos quantitativos e estatísticos ao direito, visando a análise de leis, decisões judiciais e padrões de comportamento legal. Essa prática é especialmente pertinente à tomada de decisões baseada em dados, uma vez que oferece uma base empírica sólida para entender tendências, prever resultados e otimizar estratégias jurídicas. Sua origem remonta ao artigo seminal de Lee Loevinger1, que a definia como a investigação científica de problemas jurídicos, e sempre foi analisada do ponto de vista conceitual, gerando distinção, originalmente, com a ideia de "cibernética jurídica"2 (ou justibernética) - mais ampla e, tecnicamente, mais apropriada para tais estudos -, a partir dos escritos de Mario G. Losano. Uma das vantagens da jurimetria é propiciar maior previsibilidade de decisões judiciais, pois permite analisar grandes volumes de decisões judiciais para identificar padrões e tendências. Isso pode ajudar advogados e clientes a preverem os resultados possíveis de seus casos com base em dados históricos, aumentando a precisão nas expectativas e estratégias. Além disso, contribui fortemente na análise de riscos, uma vez que, ao quantificar os riscos associados a diferentes estratégias legais, a jurimetria fornece uma ferramenta valiosa para gestores e advogados. Essa capacidade de quantificar riscos ajuda na tomada de decisões mais informadas e na escolha de abordagens que maximizem as chances de sucesso. Não se pode deixar de mencionar, também, seu valor para a otimização de recursos: com o uso de dados jurimétricos, é possível alocar recursos de forma mais eficiente3. Por exemplo, identificar quais tipos de casos têm maior probabilidade de serem resolvidos por acordo pode economizar tempo e recursos que seriam gastos em litígios prolongados. Na seara pública, o desenvolvimento de políticas públicas permite que governos e órgãos reguladores usem a jurimetria para entender o impacto das leis existentes e prever as consequências de novas legislações. Isso permite uma formulação de políticas mais fundamentada e eficaz. Por conseguinte, tem-se o fomento à inovação pela análise de dados jurídicos. Por exemplo, a criação de ferramentas automatizadas de compliance que ajudam sociedades empresárias a permanecerem em conformidade com as regulamentações vigentes. Na mesma toada, o incremento da transparência e da justiça pela utilização de dados estatísticos no direito também pode contribuir para uma maior transparência e justiça. Ao revelar tendências ocultas, como potenciais vieses em decisões judiciais, a jurimetria pode apoiar esforços para tornar o sistema jurídico mais equilibrado. Isso ainda conduz à personalização de serviços jurídicos, posto que, com o auxílio de análises detalhadas, é possível oferecer serviços mais personalizados e alinhados às necessidades específicas de cada cliente, baseando-se em insights derivados de dados4. A judicialização da saúde pública tem sido um tema recorrente no debate sobre a eficácia e a equidade dos sistemas de saúde. Este fenômeno, que se caracteriza pelo crescente recurso ao sistema judicial por cidadãos que buscam garantir o acesso a tratamentos e medicamentos frequentemente não disponíveis através dos canais regulares de saúde, apresenta diversos desafios. No entanto, a jurimetria, com sua capacidade de aplicar análises estatísticas ao direito, oferece oportunidades significativas para compreender e gerenciar melhor esta tendência5. Primeiramente, é importante entender que a judicialização pode refletir falhas sistêmicas na saúde pública, como a inadequação de políticas ou a insuficiência de recursos. A jurimetria permite uma análise detalhada dessas questões ao quantificar a frequência, os tipos e os resultados das ações judiciais relacionadas à saúde. Com esses dados, é possível identificar padrões e lacunas nas políticas de saúde, orientando reformas mais efetivas e baseadas em evidências. Por exemplo, se uma análise jurimétrica revela um alto número de litígios sobre um determinado medicamento ou tratamento, isso pode indicar a necessidade de revisão nos protocolos de disponibilidade e distribuição desses recursos. A análise dos sites do TRF2 e do CNJ sobre a judicialização da saúde revela dados e iniciativas relevantes que complementam a discussão sobre a utilização da jurimetria nesse contexto. O CNJ, por exemplo, aponta que entre 2015 e 2020, mais de 2,5 milhões de processos relacionados à saúde foram registrados, com destaque para questões como desabastecimento de medicamentos e falta de especialistas6. Esses dados, monitorados por painéis interativos disponibilizados pelo CNJ7, não apenas quantificam o problema, mas também fornecem insights para políticas judiciais e de saúde pública mais eficazes8. No Estado de Minas Gerais, a Secretaria de Saúde disponibiliza informações sobre a judicialização, destacando a colaboração entre o judiciário e a gestão de saúde para abordar essas questões proativamente, embora detalhes específicos sobre jurimetria não tenham sido encontrados durante a pesquisa9. Estas informações ressaltam a importância da jurimetria como ferramenta para analisar, prever e responder a tendências na judicialização da saúde, promovendo uma gestão mais informada e eficiente no acesso à saúde pública. Além disso, a jurimetria pode contribuir para uma alocação de recursos mais racional e justa. Ao identificar quais demandas são mais frequentemente submetidas ao judiciário, os gestores de saúde podem priorizar essas áreas, otimizando o uso de recursos limitados e reduzindo a necessidade de litígios. Isso não apenas melhora a eficiência do sistema de saúde como também garante uma resposta mais equitativa às necessidades dos pacientes. Outra oportunidade que a jurimetria oferece é a capacidade de prever tendências futuras na judicialização da saúde. Com modelos preditivos, é possível antecipar quais questões podem se tornar focos de litígio, permitindo aos formuladores de políticas e administradores de saúde intervir proativamente10. Isso pode incluir o aprimoramento de programas de saúde ou a alteração de regulamentações para abordar essas questões antes que elas se transformem em problemas judiciais. Ademais, a jurimetria ajuda a promover uma maior transparência e responsabilidade no sistema de saúde. Ao tornar públicas as estatísticas sobre a judicialização, os stakeholders são incentivados a dialogar e colaborar na busca por soluções. Isso pode fortalecer a confiança no sistema de saúde, promovendo uma maior cooperação entre os setores público e privado e entre os próprios usuários do sistema. Por fim, a jurimetria pode servir como uma ferramenta para a avaliação contínua da eficácia das políticas de saúde. Ao monitorar como as intervenções legais e políticas impactam a judicialização ao longo do tempo, pode-se ajustar as estratégias para melhor atender à população, garantindo um sistema de saúde mais resiliente e adaptativo. Portanto, embora a judicialização da saúde pública apresente desafios, a jurimetria oferece uma série de oportunidades para transformar este cenário. Ao utilizar dados e estatísticas para fundamentar decisões, é possível não apenas gerir mais eficientemente os recursos, mas também promover um sistema de saúde mais justo e acessível. À luz do que foi discutido, fica evidente que a jurimetria apresenta um potencial significativo para transformar a maneira como o fenômeno da judicialização da saúde é abordado e gerenciado. Ao empregar análises estatísticas e metodologias quantitativas, essa ferramenta não apenas proporciona uma visão mais profunda das tendências e padrões em litígios de saúde, mas também oferece um meio para antecipar desafios e otimizar a alocação de recursos dentro do sistema de saúde. A aplicação da jurimetria na saúde pública pode levar a uma gestão mais informada e estratégica, reduzindo a necessidade de intervenção judicial e melhorando o acesso a tratamentos essenciais. Além disso, ao identificar as causas raízes e os pontos críticos da judicialização, políticas públicas podem ser adaptadas para tratar essas questões de forma proativa, resultando em um sistema de saúde mais equitativo e eficiente. Portanto, enquanto a judicialização da saúde continua a ser um desafio, a jurimetria oferece uma abordagem promissora para enfrentar essa questão complexa. É crucial que gestores de saúde, formuladores de políticas e profissionais jurídicos explorem e integrem essa ferramenta em suas práticas, visando um futuro no qual o acesso à saúde seja garantido de maneira mais justa e eficaz para todos. __________ 1 LOEVINGER, Lee. Jurimetrics: The Next Step Forward. Minnesota Law Review, Minneapolis, v. 33, n. 5, p. 455-493, abr. 1949. 2 A crítica é de Losano: "È forse opportune, a questo punto, riservare la denominazione di giurimetria ad una fase storicamente ben delimitada della ricerca giuridica e tentare invece una classificazione che tenga conto delle esperienze compiute negli ultimi anni (...). Per l'intera disciplina propongo il nome 'giucibernetica'. Il modelo è evidente: 'giusnaturalismo', 'giuspositivismo' (e gli aggettivi 'giuspubblicistico', 'giusprivatistico' e 'giusfilosofico'). (...) I due termini sono quindi parimenti discutibili dal punto di vista del purismo filologico, ma almeno 'giuscibernetica' copre per intero il vasto campo di ricerche oggi in corso". LOSANO, Mario G. Giuscibernetica: macchine e modelli cibernetici nel Diritto.Turim: Eunaudi, 1969. p. 106-107. 3 NUNES, Marcelo Guedes. Jurimetria: como a estatística pode reinventar o direito. São Paulo: Revista dos Tribunais, 2016. 4 PROVOST, Foster; FAWCETT, Tom. Data Science for Business: What You Need to Know About Data Mining and Data-Analytic Thinking. Sebastopol: O'Reilly, 2013. 5 QAMAR, Usman; RAZA, Muhammad Summair. Data science concepts and techniques with applications. 2. ed. Cham: Springer, 2023. 6 TRIBUNAL REGIONAL FEDERAL DA 2ª REGIÃO. CNJ: Judicialização da saúde: pesquisa aponta demandas mais recorrentes. Disponível aqui. Acesso em: 30 abr. 2024. 7 CONSELHO NACIONAL DE JUSTIÇA. Dados processuais de saúde podem ser monitorados em painel do CNJ. Disponível aqui. Acesso em: 30 abr. 2024. 8 CONSELHO NACIONAL DE JUSTIÇA. Dados processuais de saúde podem ser monitorados em painel do CNJ. Disponível aqui. Acesso em: 30 abr. 2024. 9 MINAS GERAIS. Secretaria de Estado de Saúde de Minas Gerais. Judicialização. Disponível aqui. Acesso em: 30 abr. 2024. 10 QAMAR, Usman; RAZA, Muhammad Summair. Data science concepts and techniques with applications. 2. ed. Cham: Springer, 2023.
O cenário O avanço da IA na Educação é um fruto da convergência de três grandes fatores geradores: o fenômeno do Big Data; o fortalecimento dos mecanismos de aprendizado de máquina; e, mais recentemente, a criação de grandes modelos fundacionais (foundation models) que mudaram a forma de como os modelos de IA são construídos. A origem do termo Big Data é discutível, mas sem dúvida a humanidade presenciou seus efeitos a partir do início deste século com essa abundância de dados na rede, em grande parte, promovido pela abertura e facilidade de acesso à publicação de conteúdos promovidos pelas redes sociais. Hoje tudo está na web: livros, revistas, filmes, conteúdos científicos, didáticos, entre outros. Paralelamente, os sistemas de aprendizado de máquina (machine learning) que fundamentalmente são treinados sobre grandes volumes de dados para descobrir padrões foram bem aproveitados pela massiva quantidade de dados disponíveis e puderam revelar uma nova fase de aplicações da chamada Inteligência Artificial.1 Esses sistema de aprendizado de máquina, conhecendo esses padrões, são capazes de analisar um dado novo oferecido ao sistema e rotular esse dado de acordo com os padrões aprendidos. As redes neurais, as quais podemos rotular como uma outra maneira de aprendizado de máquina, baseada na mimetização do funcionamento dos neurônios, ampliaram a capacidade dos métodos de aprendizado. As redes de aprendizado profundo, as deep learning networks, proporcionaram a aplicação de tarefas ainda mais complexas, tais como o reconhecimento de voz e a visão computacional.2 Recentemente esses modelos de aprendizado de máquina trouxeram uma nova tecnologia que foi a tecnologia das redes transformers que, quando aplicadas a grandes quantidades de texto, por exemplo, podem gerar sequências de dados (palavras) relacionadas, formando assim frases, parágrafos e textos mais longos. Nascem assim esses grandes modelos de linguagem da qual, o ChatGPT é o exemplo mais popular atualmente. Atualmente, percebe-se uma área ampla de aplicações e utilidades para estes modelos de linguagem, aliado ao fato que estes modelos estão sendo implantados em grande escala e, muitas vezes, como uma solução final ao problema enfrentado. São ferramentas ótimas para, obviamente, geração de textos e textos contextualizados, sumarização de documentos, tradução de textos, para geração de códigos computacionais, chatbots, entre outras. É sempre bom lembrar que estes LLM (large language models) são modelos recentes que surgiram no final de 2021, que ainda estão em evolução. Portanto, não têm sua validade e confiabilidade atestada sistematicamente para a maioria das aplicações citadas. No entanto, percebe-se que esses modelos vieram para ficar e para se permearem na sociedade atual como um novo paradigma computacional, um novo ator digital, e que muitos desdobramentos destes modelos ainda virão abalar nossos meios de produção, de entretenimento e também poderão abalar o ambiente educacional, quer seja no gerenciamento administrativo, quer seja pela sua imposição em plataformas educacionais, a chamada plataformarização da educação.3 Consenso de Beijing O Brasil, como estado membro da Unesco, é signatário deste documento chamado Consenso de Beijing, que é o documento conclusivo da Conferência Internacional sobre Inteligência Artificial e Educação que ocorreu em maio de 2019, em Beijing, na China. Gostaria de salientar alguns pontos deste documento que oferecem suporte a um processo de utilização da IA na Educação mais estruturado e elaborado juntamente com os gestores, professores e técnicos que dominam o conhecimento deste tipo de inovação. Destaco aqui os seguintes pontos: O compromisso assumido pelos estados membro de estabelecerem políticas de integração entre IA e Educação para inovar no processo de ensino e aprendizagem e acelerar o fornecimento de sistemas de educação abertos e flexíveis que possibilitem oportunidades de aprendizagem ao longo da vida que sejam equitativas, relevantes e de qualidade; O entendimento que as tecnologias emergentes devem ser aproveitadas para fortalecer os sistemas educacionais, o acesso à educação para todos, a qualidade, o aprendizado eficaz, a equidade e uma prestação de serviços mais eficiente; Reconhecimento das características distintas da inteligência humana frente à chamada inteligência de máquinas; Desenvolvimento da IA deve ser controlado pelo homem e centrado nas pessoas; Que a implantação da IA deve estar a serviço das pessoas para melhorar as capacidades humanas; que a IA deve ser projetada de maneira ética, não discriminatória, equitativa, transparente e auditável; Ciência que os professores não podem ser substituídos por máquinas, e que a implantação da IA deve garantir que seus direitos e condições de trabalho estejam protegidos. Estágio atual das IAs generativas amplas É bom recordar que estas IAs generativas mais populares, tais como o ChatGPT da OpenAI, a Gemini do Google, a Llama da Meta, e o CoPilot da Microsoft, são criadas e treinadas sobre grandes volumes de dados, dados esses não divulgados, mas que se cogita ser, ao menos, todo o conteúdo textual disponível na web e todos os livros em formato digital. Obviamente é impossível fazer uma curadoria humana para incluir apenas as páginas e os documentos que realmente merecem a atenção de educadores. Outro ponto importante sobre o funcionamento destes modelos de linguagem é que eles não dão a mesma resposta à mesma pergunta formulada por duas pessoas distintas. Isso não significa que o conteúdo seja diferente, mas que a sequência e o estilo de geração textual sejam contextualizados pela maneira como a pergunta é formulada e pelo conhecimento da máquina sobre a sua interação com o usuário. Ainda cabe saber que essas máquinas fazem uso do chamado Aprendizado por Reforço, ou seja, seu conhecimento é modelado pela interação do usuário com a máquina, ou seja, ela aprende com tudo que é inserido pelo usuário na forma de texto. Dadas essas observações, já estão surgindo os primeiros modelos de linguagem ajustados para a Educação, ou seja, conteúdos de aprendizado curados por outras IAs e que aceitam apenas documentos tidos como "relevantes" e importantes para a área educacional fim. Em outras palavras, a IA passa a aprender sobre textos categorizados e específicos para a área, além do que, são feitos ajustes finos no sistema para que ele responda adequadamente às perguntas formuladas sobre o tema. Perspectivas regulatórias sobre o uso do ChatGPT na educação O Comitê de Políticas sobre Economia Digital (Committee on Digital Economy Policy - CDEP) apresentou, em 22 de maio de 2019, a Recomendação sobre Inteligência Artificial da Organização para a Cooperação e Desenvolvimento Econômico - OCDE,4 que foi aprovada nesta data por todos os membros. Trata-se de uma proposta essencialmente principiológica que estabelece algumas diretrizes para o desenvolvimento responsável de tecnologias de inteligência artificial confiáveis, orientando aos atores deste grande mercado a implementá-las. Estes princípios são: a) crescimento inclusivo, desenvolvimento sustentável e bem-estar, segundo o qual os envolvidos no projeto devem adotar ferramentas proativas que beneficiem o ser humano e o planeta; b) valores de justiça centrados no homem, ou seja, os agentes devem respeitar a dignidade humana, a democracia, os direitos humanos fundamentais, proteção de dados, igualdade e não discriminação por sexo, gênero, raça, etc., bem como desenvolver medidas de garantia de autodeterminação; c) transparência e clareza, ou seja, os stakeholders devem adotar ferramentas favoráveis ao pleno conhecimento das técnicas e dos objetivos da aplicação da inteligência artificial em seus serviços e produtos; d) robustez, segurança e proteção, deve-se atentar a todos os possíveis riscos em decorrência do uso da inteligência artificial, prevenindo sempre que possível, por isso, os agentes devem desenvolver constantemente uma análise dos riscos envolvidos em seu produto ou serviço que utilize inteligência artificial; e e) prestação de contas e responsabilização ("accountability"), os agentes devem ser responsabilizados pelos danos advindos do uso da inteligência artificial, levando-se em consideração suas funções, o contexto e o estado da arte. Um dos aspectos destacados nesta diretriz da OCDE é a necessária confiança que o sistema de IA deve ter. Para tanto, todos estes princípios devem ser observados. Assim, indaga-se seria a ferramenta ChatGPT atualmente confiável? Não, atualmente não se pode dizer que esta ferramenta é confiável na medida em que está em desenvolvimento para o seu aprimoramento. Ora, mas em razão disso deveria se proibir o uso desta ferramenta na educação? Acreditamos que não desde que atendidos alguns critérios, quais sejam: 1º) esta ferramenta deve estar centrada na pessoa humana, ou seja, justifica a sua utilização desde que seja para a melhoria da qualidade de vida da pessoa humana, como para otimizar algumas tarefas mais afetas à automação, como detecção de plágios, etc... Em nenhuma hipótese a IA deve substituir a pessoa humana, assim, não se pode imaginar a criação de todo o material didático por uma ferramenta como o ChatGPT, o que não significa que quando tal ferramenta estiver plenamente desenvolvida não possa ser usada para complementar o material didático. 2º) esta ferramenta deve observar os critérios de transparência, isto é, os sistemas de IA devem ser desenvolvidos e usados de uma forma que permite a rastreabilidade e explicabilidade adequadas, ao mesmo tempo em que conscientiza as pessoas humanas de que eles se comunicam ou interagem com um sistema de IA, bem como informa devidamente os implantadores das capacidades e limitações desse sistema de IA e das pessoas afetadas sobre seus direitos consoante o considerando 27 do AI Act da União Europeia. Observe-se que rastreabilidade e explicabilidade compõem a implementação da transparência, mas seriam sinônimos? A rastreabilidade viabiliza a reconstrução de todos os caminhos para a tomada de decisões pelas IAs generativas, como as bases de dados utilizadas e etc..., o que é crucial para detectar algum erro que precisa ser corrigido. A explicabilidade, por sua vez, indica os critérios adotados para determinadas tomadas de decisões, o que viabiliza detectar os chamados vieses algorítmicos. Entendemos que ambos os critérios devem andar juntos para que se possa atender aos requisitos esperados dos sistemas de IA. O art. 2º do Projeto de Lei n. 2.338 que pretende regulamentar o desenvolvimento e o uso da IA no Brasil destaca no inciso I a imperiosa centralidade na pessoa humana. E, o art. 3º deste mesmo projeto de lei, impõe a explicabilidade destes sistemas no inc. VI e a rastreabilidade no inciso IX. Assim, qualquer sistema que use IA deve observar estes critérios, notadamente quando aplicado em área tão importante e decisiva para o desenvolvimento da pessoa humana e da sociedade que é a educação. Conclusão O uso da IA na educação é inevitável, mas para que ele ocorra precisamos discutir diretrizes e planejar políticas de utilização destes novos meios que sejam adequados aos objetivos e princípios educacionais da sociedade. Além disso, a população precisa ter IAs adequadas aos diversos públicos atendidos e que sejam confiáveis e úteis para promover uma educação de qualidade e inclusiva ao longo da vida. __________ 1 RUIZ, Evandro Eduardo Seron. Limitações de uso do ChatGPT e outros modelos de linguagem no Direito. Disponível aqui, acessado em 06 de junho de 2024. 2 Sobre o funcionamento confira também: LIMA, Cíntia Rosa Pereira de; OLIVEIRA, Cristina Godoy Bernardo de; RUIZ, Evandro Eduardo Seron. O uso de Inteligência Artificial nas eleições 2024 - Parte I (Entendendo algumas ferramentas de Inteligência Artificial Generativa). Disponível aqui, acessado em 06 de junho de 2024. 3 Sobre o impacto destas ferramentas na advocacia: RUIZ, Evandro Eduardo Seron. Oportunidades e dificuldades das IAs (Inteligências Artificiais) generativas no Direito. Disponível aqui, acessado em 06 de junho de 2024. 4 The Recommendation on Artificial Intelligence (AI) - the first intergovernmental standard on AI, de 22 de maio de 2019. Disponível aqui, acessada em 06 de junho de 2024.
A partir de 10 de abril de 2018, os 24 Estados-Membros da União Europeia assinaram um termo de cooperação para tratar do tema durante o evento "Digital Day 2018"1. Em 25 de abril de 2018, a Comissão Europeia emitiu uma comunicação sobre inteligência artificial,2 em que sugeriu o avanço na capacidade tecnológica e industrial da União Europeia em prol da IA, o preparo para as mudanças socioeconômicas que viriam em decorrência da IA e um marco regulatório eficaz baseado nos valores democráticos e proteção dos direitos fundamentais para garantir um desenvolvimento ético da IA. Ao final, a Comissão Europeia solicitou que os Estados-Membros coordenassem em seus respectivos países planos estratégicos para a implementação da IA até o final de 2018. Nesta ocasião foi criado um grupo de 52 peritos de alto nível em inteligência artificial (High Level Expert Group on Artificial Intelligence - AI HLEG), cuja composição era multissetorial, pois congregava pesquisadores, acadêmicos, representantes da indústria e da sociedade civil. Além deste grupo, foi criada a "Aliança Europeia para a IA" ("European AI Alliance"),3 que estimulava a participação democrática, como audiências públicas, sobre diversos temas relacionados à inteligência artificial. Em 18 de dezembro de 2018, o grupo AI HLEG submeteu à consulta pública o primeiro esboço das "Diretrizes Éticas para a Fiabilidade da Inteligência Artificial".4 Após intensos e interessantes debates, o grupo apresentou a versão final em 08 de abril de 2019, quando foi apresentado o documento final "Ethics Guidelines for Trustworthy AI".5 Este documento apresenta quatro princípios éticos para a inteligência artificial, quais sejam: a) respeito à autodeterminação do ser humano ("the principle of respecto for human autonomy"), ou seja, toda tecnologia IA deve respeita os direitos e garantias fundamentais, bem como a democracia; b) preveção de danos ("the principle of prevention of harm"), deve-se adotar medidas robustas e eficazes a fim de se evitar danos aos seres humanos; c) justiça ("the principle of fairness"), isto é, assegurar uma distribuição equitativa dos lucros e dos custos, bem como eliminar qualquer tipo de preconceito (unfair bias), seja por motivo de gênero, raça, crença religiosa e etc.; e d) transparência e clareza ("the principle of explicability"), ou seja, os sistemas de IA devem ser claros e compreensível aos seres humanos que irão operacionar tais sistemas. Ademais, foram apresentados alguns requisitos exemplificativos para a fiabilidade da IA, que compreendem aspectos individuais e sociais de maneira sistêmica, a saber: a) assistência e supervisão humana; b) robutez técnica e segurança; c) privacidade e proteção de dados pessoais; d) transparência; e) diversidade, não discriminação e justiça; f) bem-estar social e ambiental; e g) prestação de contas e responsabilidade. Portanto, a União Europeia, atenta ao crescente uso da IA nas mais diversas áreas, estabeleceu um plano coordenado de medidas para a implementação da inteligência artificial em 07 de dezembro de 2018,6 encorajando que os Estados-Membros elaborem os respectivos planos nacionais para IA até meados de 2019. Posteriormente, em 19 de fevereiro de 2020, a Comissão Europeia colocou em consulta até 19 de maio de 2020, o relatório "White Paper on Artificial Intelligence: an European approach to excellence and trust"7. Este relatório reforçou as Diretrizes Éticas acima mencionadas e destacou a necessária regulação sobre a responsabilidade civil em decorrência de danos causados por produtos e serviços que utilizem inteligência artificial. Para tanto, ressaltou-se a necessária revisão da "Product Liability Directive", Dir. 85/374/EEC, de julho de 1985, que disciplina a responsabilidade civil pelo fato do produto e pelos vícios do produto, e que ainda segue em debates.8 Consoante esta diretiva, o fornecedor é responsável por danos causados em virtude do fato do produto; entretanto, em tecnologias de inteligência artificial, como os carros autônomos, é difícil provar que os danos foram causados em virtude de um defeito de programação, por exemplo. Neste sentido, a Comissão Europeia sinalizou a necessidade de uma regulamentação específica para este setor e a consequente adequação do Direito interno de cada Estado-Membro. Naquela mesma data, em 19 de fevereiro de 2020, a Comissão Europeia aprovou um plano estratégico para os dados ("European Strategy for Data"),9 levando em consideração o volume de informações que trafegam na sociedade informacional, de 33 zettabytes (em 2018) para 175 zettabytes (projetado para 2025) na era do Big Data, tal preocupação justifica-se na medida em que o aprendizado de máquina é viabilizado em razão deste algo volume de dados. Este documento destaca a necessária cooperação internacional sobre a matéria para o enforcement das medidas regulatórias neste setor dada a circulação transfronteiriça de dados. Neste sentido, todos os países precisam estar atentos a estas medidas para sua inserção no capitalismo informacional. Mesmo quando impulsionados pelo aprendizado de máquina, os algoritmos continuam sendo falíveis e altamente suscetíveis a erros de representação e assimilação. Devido à natureza puramente matemática com que processam dados, esses erros destacam o desafio de conciliar a responsabilidade ética e jurídica com essa nova realidade, mesmo que de forma prospectiva. Nos Estados Unidos da América, foi apresentado, em 12 de dezembro de 2017, o "Fundamentally Understanding the Usability and Realistic Evolution of Artificial Intelligence Act", ou apenas "Future of AI Act"10, que é bastante apegado à correlação entre o conceito de IA e o funcionamento do cérebro humano, denotando proximidade conceitual com a ideia de "singularidade tecnológica". Tal documento indica, ainda, diretrizes éticas para o fomento ao desenvolvimento algorítmico, mas não aborda a área da saúde de forma direta. Alguns documentos mais recentes, como o Artificial Intelligence Act (AI Act) europeu aprovado em 202411, e o Algorithmic Accountability Act norte-americano de 202212 (2022 US AAA), que atualizou a versão anterior, de 201913, evitam a discussão terminológica sobre o alcance semântico do termo "inteligência", preferindo se reportar a "sistemas decisionais automatizados"14 (Automated Decision Systems, ou ADS's) para se referir à utilização de sistemas de IA em geral e reafirmar a importância da estruturação de parâmetros éticos para o desenvolvimento de algoritmos. Os documentos mencionados têm qualidades que podem ser mutuamente inspiradoras, destacando a importância da correta assimilação semântica (entre outros tópicos) para o avanço das discussões, inclusive em nível global.15 No Brasil, várias iniciativas legislativas, como os Projetos de Lei nº 5051/2019, nº 21/2020 e nº 872/2021, buscaram regulamentar o tema de forma geral. No entanto, essas propostas não eram extensas nem bem estruturadas, focando apenas em estabelecer um marco regulatório simbólico, o que é insuficiente para abordar adequadamente um assunto tão complexo. Todavia, em fevereiro de 2022, foi instituída pelo Senado Federal a "Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre IA" (CJSUBIA). Após a realização de diversas reuniões e audiências públicas, os trabalhos de elaboração do substitutivo foram concluídos em dezembro de 2022. A partir do rigoroso trabalho desenvolvido, foi apresentado um projeto substitutivo - o Projeto de Lei nº 2.338/202316-, de autoria do Presidente do Congresso Nacional, Senador Rodrigo Pacheco, que muito se aproxima da solução adotada na União Europeia, onde há anos se discute a matéria em caráter prospectivo, primando por estratificar as soluções possíveis para cada contexto, a depender do grau de risco que a atividade implique. Neste sentido, nota-se o pouco tempo dedicado ao estudo e à evolução do projeto de lei, apenas dois anos e com escasso tempo para as necessárias audiências públicas e pesquisas realmente profícuas para que a futura lei brasileira sobre Inteligência Artificial pudesse ser referência para outros países. Desde a sua apresentação pelo Senador Rodrigo Pacheco em maio de 2023, o Projeto de Lei nº 2.338 recebeu diversas emendas parlamentares17, sobretudo no âmbito da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), criada com o objetivo de analisar e debater a regulamentação da Inteligência Artificial no Brasil por meio da discussão e aprimoramento de projetos de lei relacionados à IA, incluindo o Projeto de Lei nº 2.338/2023. Presidida pelo Senador Carlos Viana (PODEMOS-MG), a CTIA atua como um fórum multissetorial, reunindo especialistas e representantes de diversos setores para garantir que as regulamentações propostas sejam abrangentes e eficazes, equilibrando inovação tecnológica e proteção de direitos fundamentais. Estas contribuições são extremamente valiosas e precisam de um tempo razoável para o amadurecimento e melhoria das propostas, para não incidirmos na aprovação de uma lei de questionável eficiência o que, fatalmente, fomentará o ativismo judicial. O Brasil segue no aguardo do avanço do PL 2.338/2023, mas seu texto, cuja versão mais recente é uma minuta de atualização proposta pelo Senador Eduardo Gomes em abril de 202418 no âmbito da referida CTIA, indica a preocupação do legislador com a parametrização ética, estando elencados, no art. 3º, inúmeros princípios que são nitidamente inspirados na proposta europeia. Em linhas gerais, pode-se sintetizar 6 grandes eixos principiológicos de todas essas propostas regulatórias: (i) participação humana e supervisão (human in the loop); (ii) confiabilidade e robustez dos sistemas de inteligência artificial e segurança da informação; (iii) privacidade e governança de dados; (iv) transparência algorítmica, explicabilidade e auditabilidade; (v) diversidade, não discriminação e justiça; (vi) responsabilização, prevenção, precaução e mitigação de riscos. Para além desse rol mais sintético, convém mencionar o detalhado repertório de princípios que consta do artigo 3º do substitutivo apresentado pelo Senador Eduardo Gomes: (i) crescimento inclusivo, desenvolvimento sustentável e bem-estar, incluindo a proteção do trabalho e do trabalhador (inc. I); (ii) autodeterminação e liberdade de decisão e de escolha (inc. II); (iii) supervisão humana efetiva (inc. III); (iv) não discriminação ilícita e abusiva (inc. IV); (v) justiça, equidade e inclusão (inv. V); (vi) transparência e explicabilidade (inc. VI); (vii) devida diligência e auditabilidade (inc. VI, sic19); (viii) confiabilidade e robustez do sistema de IA (inc. VII); (ix) proteção dos direitos e garantias fundamentais, incluindo o devido processo legal, contestabilidade e contraditório (inc. VIII); (x) prestação de contas, responsabilização e reparação integral de danos (inc. IX); (xi) prevenção, precaução e mitigação de riscos e danos (inc. X); (xii) não maleficência e proporcionalidade entre os métodos empregados e as finalidades (inc. XI); (xiii) desenvolvimento e uso ético e responsável da IA (inc. XII); (xiv) governança transparente, participativa e orientada à proteção de direitos fundamentais (inc. XIII); (xv) promoção da interoperabilidade de IA (inc. XIV); (xvi) possibilidade e condição de utilização de sistemas e tecnologias com segurança e autonomia por pessoa com deficiência (inc. XV); (xvii) conformidade com a legislação aplicável (inc. XVI)20. Essa lista pode ser expandida para incluir um conjunto muito mais detalhado de princípios que tocam o debate ético sobre a regulação dos sistemas de IA. No entanto, para os objetivos desta investigação, é importante mencionar que todos esses delineamentos ajudam a definir contornos específicos que fortalecem o tratamento jurídico da perfilização e seus efeitos. Na atualidade, "a preocupação central de toda essa investigação reside nas aplicações e nos danos causados pela Inteligência Artificial, que se coloca mais uma vez aqui como um elemento fundamental para compreender esse fenômeno de controle"21. Em conclusão, a aprovação do Regulamento Geral Europeu sobre Inteligência Artificial (AI Act) representa um marco significativo na regulação de tecnologias emergentes, com uma abordagem baseada em princípios éticos que contribuem para o debate acerca da responsabilidade civil. Este esforço europeu, resultado de quase uma década de debates e colaborações multissetoriais, serve de exemplo inspirador para outras nações, incluindo o Brasil, onde, embora ainda não se possa prever os próximos passos dos debates legislativos sobre a matéria, deve-se acompanhar com atenção os trabalhos desenvolvidos pela CTIA no Senado Federal. __________ 1 Disponível em: https://ec.europa.eu/digital-single-market/en/news/eu-member-states-sign-cooperate-artificial-intelligence, acessado em 23 maio 2024. 2 Disponível em: https://ec.europa.eu/digital-single-market/en/news/communication-artificial-intelligence-europe, acessado em 23 maio 2024. 3 Disponível em: https://ec.europa.eu/digital-single-market/en/european-ai-alliance, acessado em 23 maio 2024. 4 Disponível em: https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai, acessado em 23 maio 2024. 5 Disponível em: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai, acessado em 23 maio 2024. 6 Disponível em: https://ec.europa.eu/knowledge4policy/node/32954_sl, acessado em 23 maio 2024. 7 Disponível em: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf, acessado em 23 maio 2024. 8 Disponível em: https://eur-lex.europa.eu/legal-content/en/txt/pdf/?uri=celex:31985l0374&from=en, acessado em 23 maio 2024. 9 Disponível em: https://eur-lex.europa.eu/legal-content/en/txt/pdf/?uri=celex:52020dc0066&from=en, acessado em 23 maio 2024. 10 ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 4625, Dec. 12, 2017. FUTURE of Artificial Intelligence Act. Disponível em: https://www.congress.gov/115/bills/hr4625/bills-115hr4625ih.pdf, acessado em 23 maio 2024. 11 EUROPA. European Parliament. Artificial Intelligence Act: MEPs adopt landmark law, mar. 2024. Disponível em: https://www.europarl.europa.eu/news/en/press-room/20240308ipr19015/artificial-intelligence-act-meps-adopt-landmark-law, acessado em 23 maio 2024. 12 ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 6580, Feb. 3, 2022. Algorithmic Accountability Act of 2022. Disponível em: https://www.congress.gov/bill/117th-congress/house-bill/6580/text, acessado em 23 maio 2024. 13 ESTADOS UNIDOS DA AMÉRICA. House of Representatives. House Resolution No. 2231, Apr. 10, 2019. Algorithmic Accountability Act of 2019. Disponível em: https://www.congress.gov/116/bills/hr2231/bills-116hr2231ih.pdf, acessado em 23 maio 2024. 14 Cf. SELBST, Andrew. An institutional view of algorithmic impact assessments. Harvard Journal of Law & Technology, Cambridge, v. 35, 2021. Disponível em: https://ssrn.com/abstract=3867634, acessado em 23 maio 2024. 15 MÖKANDER, Jakob; JUNEJA, Prathm; WATSON, David S.; FLORIDI, Luciano. The US Algorithmic Accountability Act of 2022 vs. The EU Artificial Intelligence Act: what can they learn from each other? Minds and Machines, Cham: Springer, v. 22, p. 1-9, jun. 2022. Disponível em: https://doi.org/10.1007/s11023-022-09612-y, acessado em 23 maio 2024. 16 BRASIL. Senado Federal. Projeto de Lei nº 2338/2023. Dispõe sobre o uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233, acessado em 23 maio 2024. 17 Em especial, destaca-se a proposta de substitutivo apresentada pelo Senador Astronauta Marcos Pontes. Por mais, permita-se a referência a: MEDON, Filipe. Regulação da IA no Brasil: o substitutivo ao PL 2338. Jota, 01 dez. 2023, acessado em 23 maio 2024. 18 BRASIL. Senado Federal. Comissão Temporária Interna sobre Inteligência Artificial no Brasil. Texto Preliminar - Senador Eduardo Gomes. 2023. Disponível em: https://legis.senado.leg.br/comissoes/arquivos?ap=8139&codcol=2629, acessado em 23 maio 2024. 19 Há uma repetição, aparentemente por erro material, na numeração do inciso VI do substitutivo em questão. 20 BRASIL. Senado Federal. Comissão Temporária Interna sobre Inteligência Artificial no Brasil. Texto Preliminar - Senador Eduardo Gomes. 2023. Disponível em: https://legis.senado.leg.br/comissoes/arquivos?ap=8139&codcol=2629, acessado em 23 maio 2024. 21 MEDON, Filipe. Inteligência artificial e responsabilidade civil: autonomia, riscos e solidariedade. 2. ed. Salvador: Juspodivm, 2022, p. 297.
A alteração da resolução 23.610 de 2019, com o pacote de 12 resoluções aprovadas pelo Tribunal Superior Eleitoral, apresentou alguns pontos relativos ao uso de IA no processo eleitoral, como: proibição de deepfakes; obrigação de explicitar o uso de IA na propaganda eleitoral; proibição de simulação de diálogo entre candidato e qualquer outra pessoa; responsabilização das empresas que não retirarem imediatamente do ar conteúdos com desinformação ou com discurso de ódio. Essas regras são interessantes quando for detectada o uso de IA para criação de conteúdo eleitoral e vídeos sem a devida informação ao eleitor. Dessa forma, tal conduta já estará prevista nas resoluções aprovadas e haverá uma respectiva consequência, buscando garantir a democracia. Mas a pergunta que não foi respondida ainda é como todas estas determinações legais serão fiscalizadas? Provavelmente não, por isso não é possível dizer que o eleitor estará seguro com tais resoluções, uma vez que será muito difícil identificar este conteúdo gerado pela IA ou o uso de chatbots. Além disso, mesmo que seja identificado o uso indevido deste conteúdo e o responsável por ele, o prejuízo já terá ocorrido, pois os vídeos polêmicos e impactantes são propagados em uma elevada velocidade, sendo que o microtargeting garante que o conteúdo chegue aos destinatários mais suscetíveis a compartilhar tal conteúdo e confirmar as suas convicções. Sobre a importância da proteção de dados e a prática denominada deepfake, consulte nossa coluna.1 De fato, a criação de deepfake está associada à técnica de deep learning, a qual se assemelha ao sistema neural humano, adaptando-se e aprendendo por uma rede de dados. No entanto, tudo isso somente é viável a partir de dados pessoais que são utilizados por uma grande quantidade de software de código aberto, que chegam a resultados cada vez mais precisos. Esta preocupação não está atormentando somente a sociedade brasileira. Mas Nos Estados Unidos, em 30 de outubro de 2023, o Presidente Joe Binden editou uma ordem executiva impondo alguns requisitos para proteger os americanos e as liberdades individuais dado ao crescente uso da IA. Nesta carta ficaram estabelecidas tais medidas:2 - que as grandes empresas que usam IA informem sobre os testes que fizeram antes de disponibilizar tal ferramenta ao público, bem como sobre os riscos que possam estar associados; - o National Institute of Standards and Technology vai estabelecer critérios para se alcançar segurança e confiabilidade nos produtos e serviços que usem IA; - a fim de proteger os americanos contra conteúdo enganosos e fraudulentos, o Department of Commerce estabelecerá diretrizes para autenticação de conteúdo criado totalmente por IA, bem como a indicação disto inserindo uma marca d'água para indicar que o conteúdo foi gerado por IA, o que acabou influenciando o substitutivo do PL 2338 que a Cristina mencionou; - além de atenção redobrada à cybersegurança.  Nesta ordem executiva, o Presidente norte-americano sugere que o Congresso norte-americano elabore uma lei específica para assegurar a privacidade dos americanos, já que para treinar os sistemas que usam IA, as empresas precisam de informações diversas. Nos Estados Unidos, o Algorithmic Accountability Act de 2022 traz uma preocupação com os sistemas de decisões automatizadas, notadamente com os vieses dos algoritmos (exigindo o relatório de impacto), mas não menciona a IA generativa. Na Europa, avançou a aprovação da proposta de Regulamento Geral sobre IA, conhecido como Artificial Inteligence Act, no art. 52, impõe-se o dever de informar que o sistema usa IA, além disso, foi feita menção expressa ao uso de chatbots e deepfakes:  Users of an AI system that generates or manipulates image, audio or video content that appreciably resembles existing persons, objects, places or other entities or events and would falsely appear to a person to be authentic or truthful ('deep fake'), shall disclose that the content has been artificially generated or manipulated.  Portanto, acredito que a questão ainda precisa ser melhor desenhada pelos reguladores, mas a informação é o melhor remédio, ou seja, informar que o conteúdo foi gerado por IA. Sobre o tema, Cíntia Rosa Pereira de Lima, Cristina Bernardo de Oliveira e Evandro Eduardo Seron Ruiz3 analisam estas propostas que inspiraram a proposta do Senador Astronauta Marcos Pontes ao Projeto de Lei n. 2338/23, o qual possui um dispositivo que exige a presença de marca d'água em todo conteúdo gerado por IA (quer texto, quer imagem), tornando-se impraticável garantir a efetivação de tal norma. Isto porque não há uma forma de organizar a fiscalização e a identificação de todos o conteúdo gerado por IA, bem como sua efetiva remoção a tempo hábil. Assim, pode gerar uma falsa sensação de que o conteúdo sem a marca d'água não teria sido criado por IA, quando, na verdade, não foi identificado como tal, e continuará impactando as pessoas que irão confiar na credibilidade na originalidade do conteúdo que não está identificado. Quanto à obrigatoriedade de remoção de discurso de ódio, nossa coluna já tratou do tema em algumas ocasiões.4 O grande problema é a ausência do que seria o discurso de ódio quer na doutrina, quer na jurisprudência, por exemplo, pornografia enquadra-se como discurso de ódio? Há muitos que defendem que sim. O risco destes conceitos abertos é o fomento a arbitrariedades, o que coloca em xeque um princípio democrático protegido constitucionalmente: a liberdade de expressão. Por outro lado, o discurso de ódio e condutas antidemocráticas afetam o nosso processo eleitoral e atingem as instituições democráticas. O discurso de ódio viola direitos fundamentais e podem cercear a liberdade de ir e vir, pois um grupo constrangido pode se sentir coagido a não frequentar determinados espaços. Todavia, a remoção de perfis não seria a medida mais adequada, pois esses indivíduos encontrariam outras plataformas digitais para poderem se expressar e o ódio será cada vez maior. Por fim, deve-se ter cuidado para não fomentar o que Karl Loewenstein denominou de democracia militante, que afirmou que o nazismo se utilizou dos princípios e garantias presentes em Estados Democráticos de Direito para poderem propagar as suas ideias, logo, ao se retornar à democracia, ela deveria utilizar instrumentos empregados por regimes totalitários ou autoritários, para evitar que ressurgissem. Em suma, trata-se do dilema secular entre a liberdade e a segurança. E, a grande pergunta que se deve fazer como cidadãos é: quanto de liberdade estamos dispostos a abrir mão para garantir a segurança? No Brasil, há algumas tentativas legislativas para regulamentar o uso da IA (PL 5.051/2019, 21/2020 e 872/2021), de forma geral estes projetos se fundamentam na regra de responsabilidade civil com base na culpa, estabelecem princípios e fundamentos, o que já constam da Estratégia Brasileira de IA. Então, em fevereiro de 2022, foi instituida uma Comissão de Juristas no Senado Federal para apresentarem um substitutivo, apresentando uma primeira versão do substitutivo em 07 de dezembro de 2022. Assim, o PL 2.338/2023 é fruto dos trabalhos desta Comissão, apresentado ao Senador Federal Rodrigo Pacheco com objetivo de regulamentar a IA no Brasil. Uma das principais características do projeto é a proposta de uma estrutura institucional de supervisão e controle, que visa dar segurança jurídica a quem inova e desenvolve tecnologia. Mas é impossível o legislador prever e antever os possíveis usos e aplicações da IA, por isso, creio eu que o melhor caminho seja uma lei geral e principiológica, que indique os fundamentos para o desenvolvimento e uso da IA, bem como direitos básicos dos usuários e a criação de um órgão regulador para assegurar a efetividade de todo o sistema. Entretanto cada setor específico, com a participação deste órgão a ser criado, como o setor de eleições, de automação de veículos e etc..., estabelecerão regras específicas e pertinentes às suas particularidades. Mas a efetiva solução está realmente na educação digital. __________ 1 NASCIMENTO, Ingrid do; OLIVEIRA, Cristina Godoy Bernardo de. Deepfake nas eleições e a importância da proteção de dados. Disponível aqui. 2 Disponível em: FACT SHEET: President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence | The White House. 3 CARDOSO, Thaís. USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor. Disponível em: USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor - Jornal da USP. 4 LIMA, Cíntia Rosa Pereira de; BATISTA, Letícia Soares. Elon Musk VS Alexandre de Moraes e o necessário debate sobre regulação das redes sociais. Disponível aqui.
As eleições de 2024 sinalizam diversos desafios a serem suplantados pelo regulador. Desde os acontecimentos da Cambridge Analytica em 2018, houve um avanço significativo da tecnologia, em especial a Inteligência Artificial. Muito se deve ao fato da pandemia ter acelerado a digitalização da atual sociedade informacional1. Sobre esta reflexão, nesta coluna Migalhas de IA e Proteção de Dados, Adalberto Simão Filho2 alerta para o fato do crescente banco de dados de eleitores em razão das pesquisas eleitorais. Agora não é tão somente o fato perigoso de acesso indevido aos dados pessoais de eleitores e sua perfiliação para enviar mensagens a fim de influenciar no seu processo decisório que ameaça o processo democrático, o que também já foi debatido em alguns artigos desta coluna3. Além disso, o uso indevido da Inteligência Artificial já tem chamado a atenção como o uso do ChatGPT4 e outras ferramentas.5 É importante destacar que tais ferramentas não são intrinsecamente ruins como salienta Demi Getscheko,6 neste sentido, deve-se buscar alguns parâmetros para a utilização sustentável destas ferramentas, sem que afetem as liberdades individuais e os fundamentos da democracia. Alguns exemplos destas ferramentas podem ser entendidos a partir do que Evandro Eduardo Seron Ruiz alertou no USP Analisa de 26 de abril de 2024.7 A capacidade de geração de texto pelas denominadas IAs Generativas (IAGs) como o ChatGPT advém de vários tipos de processamentos sobre um grande volume de textos digitais coletados na web. Mais especificamente, essas IAGs para textos, chamadas tecnicamente de grandes modelos de linguagem (do termo inglês, Large Language Models, ou LLM), capturam milhões de textos na internet e, a grosso modo, calculam a probabilidade de ocorrência das próximas palavras dada uma palavra sugerida. Exemplificando essa metodologia de modo sumário, sem rigor técnico, essas IAGs tem um funcionamento parecido ao encontrado nos editores de texto de celulares que, muitas vezes, sugerem a próxima palavra a ser digitada. No entanto, essas IAs calculam as próximas palavras as centenas, ou seja, geram textos longos e, se bem guiadas pelo usuário, textos contextualizados. Convém notar que essas novas ferramentas generativas, tanto para gerar textos, imagens e áudios, lançadas a partir de 2022, ainda nem completaram 2 anos de idade, ou seja, ainda estão na sua primeira infância e já se pode notar uma enorme quantidade de usuários destas tecnologias. Por exemplo, nestas próximas eleições municipais, os eleitores podem usar essas tecnologias, para, resumir os programas de seus candidatos e até compará-los, buscar informações sobre os partidos e os candidatos, talvez um histórico de sua vida política pregressa e de suas convicções. Considerando os interesses do candidato, tais tecnologias podem ser usadas para gerar material para seus discursos ou manifestações em suas redes sociais. Além disso, essas IAs generativas textuais podem auxiliar na elaboração das propostas de governo, na geração de discursos, como também para a geração de material publicitário, entre outras finalidades. Veja que esta aplicação das IAGs pode representar uma economia relevante com gastos de campanha eleitoral e reduzir o custo com assessores e profissionais de propaganda. Além disso, essas IAGs voltadas para texto contam com um recurso chamado Aprendizado por Reforço que analisam as interações do usuário com a IA e podem gerar novas versões do texto que respondam aos questionamentos ou sugestões e necessidades do usuário. Com todos esses recursos destas IAGs podemos pensar que um candidato possa criar uma máquina de campanha para as redes sociais. Num primeiro momento essa máquina produzirá propagandas cujos textos sejam recortes de seu programa de governo e as imagens ou vídeos produzidos artificialmente ofereçam suporte ao texto. Poderia, inclusive, ser inserido áudios que reproduzam a voz do candidato. Num momento subsequente, essa máquina de campanha, ao analisar os comentários dos seguidores do candidato, poderia gerar outros textos, imagens, vídeos e áudios que agradassem mais o público alvo, tudo isso é possível a partir do recurso de avaliação e correção de rumos da técnica de Aprendizado por Reforço incluída nessas IAGs. Com um uso ético e seguro destas tecnologias, pode-se chegar a um equilíbrio maior de forças e exposição entre os candidatos, pensando que o candidato com menor condições financeiras para gastar na campanha pode, em tese, fazer sua campanha com baixo custo usando os canais das redes sociais e que, caso isso ocorra, esse movimento poderá implicar num fortalecimento da democracia pela oportunidade de produção de material que essas IAs trarão a todos os partícipes de um pleito. Neste sentido, a promoção do uso amplo destas tecnologias para aumentar a produtividade das campanhas eleitorais e, quiçá, torná-las mais baratas seria uma alternativa para que o povo brasileiro não continue arcando com os custos exorbitantes das campanhas eleitorais cujo fundo público este ano é de RS 4,9 bilhões.8 Boa parte deste recurso poderia ser melhor empregada para a educação digital, para estimular e fortalecer o uso consciente das redes sociais e, como consequência, teríamos uma população educada e empoderada sim para dissuadir esses criminosos digitais. Entretanto, infelizmente, existe um receio real de que tais ferramentas possam ser utilizadas para a geração e veiculação de notícias enganosas. Toda ferramenta, toda criação, toda invenção nova sempre pode ser usada para alguma finalidade não esperada, e neste caso, pode sim ser usada para enganar, burlar, o eleitor. A alteração da Resolução 23.610 de 2019, com o pacote de 12 resoluções aprovadas pelo Tribunal Superior Eleitoral, apresentou alguns pontos relativos ao uso de IA no processo eleitoral, como: proibição de deepfakes; obrigação de explicitar o uso de IA na propaganda eleitoral; proibição de simulação de diálogo entre candidato e qualquer outra pessoa; responsabilização das empresas que não retirarem imediatamente do ar conteúdos com desinformação ou com discurso de ódio. Essas regras são interessantes quando for detectada o uso de IA para criação de conteúdo eleitoral e vídeos sem a devida informação ao eleitor. Dessa forma, tal conduta já estará prevista nas resoluções aprovadas e haverá uma respectiva consequência, buscando garantir a democracia. Por outro lado, não é possível dizer que o eleitor estará seguro, uma vez que será muito difícil identificar este conteúdo gerado pela IA ou o uso de chatbots. Além disso, mesmo que seja identificado o uso indevido deste conteúdo e o responsável por ele, o prejuízo já terá ocorrido, pois os vídeos polêmicos e impactantes são propagados em uma elevada velocidade, sendo que o microtargeting garante que o conteúdo chegue aos destinatários mais suscetíveis a compartilhar tal conteúdo e confirmar as suas convicções. Portanto, a real proteção que pode se dar à população é assegurando e fortalecendo medidas de transparência e de educação digital. Na próxima coluna, continuaremos o debate analisando algumas propostas regulatórias norte-americanas que tem influenciado o legislador brasileiro. __________ 1 OLIVEIRA, Cristina Godoy Bernardo de; LIMA, Tiago Augustini de; RODRIGUES, Pedro Sberni. Eleições municipais, LGPD e pandemia: uma combinação imprevisível. Disponível aqui. 2 SIMÃO FILHO, Adalberto. Por quem os sinos dobram - A (im)possibilidade de utilização algorítmica e inteligência artificial na formação do plano amostral de pesquisas eleitorais. Disponível aqui. 3 LIMA, Cíntia Rosa Pereira de; SOUSA, Maria Eduarda Sampaio de. LGPD e combate às fake news. Disponível aqui; DONAIKA, Kaleo; OLIVEIRA, Cristina Godoy Bernardo de. O acordo de cooperação técnica assinado entre o TSE e a ANPD. Disponível aqui; dentre outros. 4 RUIZ, Evandro Eduardo Seron. A nossa Língua Portuguesa está em risco de extinção? Disponível aqui. 5 OLIVEIRA, Cristina Godoy Bernardo de; LIMA, Tiago Augustini de. O Uso do ChatGPT e do Gemini no fazer jurídico. Disponível aqui. 6 NETMundial e o Marco Civil da Internet: a necessidade de ambos. In: DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de. Direito & Internet. Vol. III: Marco civil da internet (Lei nº 12.965/2014). São Paulo: Quartier Latin, 2015. pp. 101 - 106. 7 CARDOSO, Thaís. USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor. Disponível em: USP Analisa #126: Preocupação com inteligência artificial nas eleições é necessária, mas tecnologia também beneficia eleitor - Jornal da USP 8 Disponível em: Fundo Especial de Financiamento de Campanha (FEFC) - Tribunal Superior Eleitoral (tse.jus.br)
No início do mês de abril (09/04/2024), ganhou relevância um embate travado entre o empresário bilionário Elon Musk e o ministro do Supremo Tribunal Federal, Alexandre de Moraes, no meio da plataforma X, antigo Twitter. O empresário, dono da plataforma, acusou o ministro de ser "autoritário" e "ditador", sendo responsável por "censurar" a liberdade de expressão no Brasil. Por sua vez, o ministro respondeu com a inclusão do empresário no inquérito que investiga milícias digitais1. A "denúncia" de Elon Musk foi seguida pela divulgação de um relatório contendo informações internas da empresa sobre o acompanhamento de decisões judiciais. A série de artigos foi apresentada pelo jornalista Michael Shellenberger e ganhou o nome de Twitter Files Brasil. Na semana seguinte (17/04/2024), o Comitê de Assuntos Judiciários da Câmara dos Estados Unidos divulgou um relatório intitulado The Attack on Free Speech Abroad and the Biden Administration's Silence: The Case of Brazil2, traçando um paralelo entre as condutas de Moraes e do presidente Joe Biden, acusando este último de limitar a liberdade de expressão dos americanos. Chama a atenção o fato do empresário ter recebido o relatório poucos dias antes da divulgação pelo Comitê3, além de ter protagonizado diversas interações com políticos brasileiros, demonstrando seu apoio4. Vale ressaltar que, desde a compra "forçada" da plataforma, Musk vem usando a rede para defender a liberdade de expressão contra a assim chamada "ideologia woke", terminologia utilizada pela mídia conservadora norte-americana para definir amplamente pautas ditas como progressistas. Do ponto de vista jurídico, o caso se destaca por diversos aspectos. Primeiramente, evidencia a influência de um bilionário estrangeiro na condução do debate político, investigações criminais e decisões judiciais no país. A apresentação de um relatório à Câmara dos Estados Unidos que alega denunciar a censura existente no Brasil e cobra resposta de uma outra nação, abre a porta para um questionamento sobre a soberania nacional, muito embora o documento não tenha como objetivo principal solucionar a ditadura contra a liberdade de expressão supostamente existente no Brasil, como se fez acreditar5. Ademais, reacende o debate sobre a necessidade de regulamentação das redes sociais. Nesse contexto, o presidente da Câmara dos Deputados entendeu que "não há clima para aprovação do projeto já existente"6, referindo-se ao PL nº 2.630/2020, que ficou conhecido como PL das Fake News, já aprovado pelo Senado Federal.7 Entretanto, a retomada do debate sobre regulamentação das redes é fundamental para que o Brasil tenha padrões pré-estabelecidos para o controle sobre postagens em redes sociais, a fim de que não tenha sua soberania questionada, como ocorreu no caso acima citado. Isso porque atualmente a única previsão expressa para o controle de conteúdo produzido por terceiros para provedores de aplicações da internet é artigo 19 do Marco Civil da Internet (Lei n. 12.965/2014), que estabelece o sistema conhecido como judicial notice and takedown, isto é, a responsabilidade do provedor de aplicação somente após o recebimento de uma notificação específica e detalhada do conteúdo que deve ser deletado. Sobre isso vide outro texto interessante nesta coluna.8 Tal norma prioriza a liberdade de expressão dos usuários, na medida em que se objetivou não deixar à análise dos provedores de aplicação de internet essa análise de mérito sobre o conteúdo. Ao contrário, pretendeu deixar ao Judiciário definir se o conteúdo pode ser considerado ou não lesivo9. Assim, de acordo com o sistema estabelecido pelo Marco Civil da Internet, a proteção contra discursos discriminatórios deve ser analisada pelo Judiciário; não podendo ficar à mercê do controle dos próprios provedores de aplicação, ou seja, pelas próprias redes sociais.10 O sistema baseado na ideia de neutralidade da rede11, buscando a promoção da maior liberdade de expressão dos usuários, impede que os provedores de aplicação fiscalizem previamente o conteúdo postado. Entretanto, na medida em que se tem conhecimento do potencial lesivo de determinado conteúdo, como os provedores de aplicação de internet devem agir? Importante lembrar que a neutralidade da rede se aproxima da ideia de livre mercado das ideias, adotado no ordenamento americano. O conceito, criado pelo juiz Oliver Wendell Holmes, ao interpretar a 1ª Emenda à Constituição americana, resume sucintamente o entendimento estadunidense sobre a proteção da liberdade de expressão, comparando-a com a proteção do livre mercado, assim, inspirado no pensamento de John Stuart Mill, o melhor teste para a veracidade de uma ideia seria a sua capacidade de obter aceitação na competição do mercado do discurso12. Nesse sentido, a proteção da liberdade de expressão nos Estados Unidos é tida como uma das mais abrangentes do mundo, pois ganha preponderância frente a outros princípios como privacidade, honra e igualdade, possuindo poucas ressalvas, por exemplo, pornografia, difamação, ou linguagem ofensiva13. Por exemplo, a queima de cruzes, símbolo da Ku Klux Klan, não é criminalizada per se, mas apenas quando apresenta clara ameaça às pessoas negras. Trata-se do princípio indicado pela expressão fighting words, que permite restringir o exercício da liberdade de expressão somente quando há imediata incitação de violência14. Ademais, o discurso é visto como modo de autorrealização individual, logo, limitar o contato com discursos tidos como discriminatórios limitaria a potencialidade de cada ser humano, de forma tal que o Estado estaria violando a identidade de cada indivíduo15. Dessa forma, diz-se que nos Estados Unidos vigora uma liberdade negativa, isto é, a proibição do Congresso de limitar a liberdade de expressão16, o que se vê de modo expresso na redação da 1ª Emenda17. Contudo, o exemplo americano não foi seguido pelo Brasil, o qual, inspirado no modelo europeu, adotou a liberdade de expressão em sentido positivo, limitando-a por outros princípios constitucionais, como a dignidade da pessoa humana, dentre outros. No julgamento do Caso Ellwanger pelo Supremo Tribunal Federal no RHC 82.424/RS, estabeleceu-se que o conceito de racismo deve ser entendido de modo amplo para enquadrar qualquer tipo de discriminação racial, inclusive contra judeus. Ainda com grande divergência de fundamentos jurídicos, filosóficos e sociológicos pelos Ministros, inclusive com três votos contrários, a decisão foi aplaudida tanto pela comunidade civil, como pela academia18. Mais recentemente, o julgamento da ADO 26, ainda em fase recursal, parece reiterar o combate à discriminação, equiparando ao crime de racismo a homofobia e a transfobia, sendo emblemático ao combate do discurso de ódio no Brasil. Em uma das teses fixadas pelo Relator, o Ministro Celso de Mello, o conceito de racismo foi alargado para compreender qualquer tipo de discriminação contra grupo minoritário: "O conceito de racismo, compreendido em sua dimensão social, projeta-se para além de aspectos estritamente biológicos ou fenotípicos, pois resulta, enquanto manifestação de poder, de uma construção de índole histórico-cultural motivada pelo objetivo de justificar a desigualdade e destinada ao controle ideológico, à dominação política, à subjugação social e à negação da alteridade, da dignidade e da humanidade daqueles que, por integrarem grupo vulnerável (LGBTI+) e por não pertencerem ao estamento que detém posição de hegemonia em uma dada estrutura social, são considerados estranhos e diferentes, degradados à condição de marginais do ordenamento jurídico, expostos, em consequência de odiosa inferiorização e de perversa estigmatização, a uma injusta e lesiva situação de exclusão do sistema geral de proteção do direito" Desta forma, o sistema brasileiro de proteção à liberdade de expressão diverge do modelo norte-americano na medida em que se reconhece, no Brasil, a primazia do princípio da dignidade humana como limitador a muitos direitos e garantias fundamentais, ao ponto de criminalizar discursos discriminatórios, entendidos como discursos que promovem discriminação a grupos minoritários da sociedade. Portanto, o sistema brasileiro aproxima-se mais do modelo europeu, predominantemente, do sistema alemão. Enquanto a liberdade de expressão é reconhecida no artigo 5º da Lei Fundamental Alemã, seus parágrafos primeiro e terceiro estabelecem a "tríade de limitações ou reservas qualificadas", isto é, as três previsões para restrições da liberdade de expressão: previsões de leis gerais, proteção dos jovens e ao direito da honra pessoal19. Contudo, a jurisprudência da Corte Suprema Alemã foi responsável por estabelecer limites mais claros ao exercício do direito de liberdade de expressão20. Assim, passa a ser punível o discurso de ódio, inclusive em âmbito penal, pois são ilícitos ataques que incitem a violência contra "setores da população [...] determinados pela nacionalidade, raça, religião ou origem étnica"21. Contudo, para doutrina alemã, o grupo atacado deve ser uma minoria (no sentido numérico), com características que o diferenciam do público em geral, a declaração deve atacar a todo o grupo, não apenas a indivíduos, com características que lhe são atribuídas pelo público em geral, e nem pelas características reconhecidas pelo grupo minoritário, como por exemplo, características étnicas, físicas ou mentais. Por fim, já no âmbito da responsabilidade por conteúdo publicado na internet, a Alemanha foi pioneira com a Lei Geral de Fiscalização das Redes (Netzwerkdurchsetzungsgesetz, NetzDG), a qual entrou em vigor em janeiro de 2018. A lei tem como principal objetivo atribuir às redes sociais a função e a responsabilidade pela análise do conteúdo postado22. Com isso, a NetzDG cria duas soluções distintas: a obrigação de indisponibilizar o conteúdo manifestamente ilegal em 24h e, em casos em que a legalidade do conteúdo for discutível, o dever de bloquear ou deletar aquele conteúdo dentro do prazo de sete dias. Necessário a possibilidade de questionar em via judicial tanto a legalidade do conteúdo quanto da medida tomada, de forma a também garantir um controle sobre os entes privados. Além disso, a lei estabelece o dever do site de rede social (SRS) de criar meios para os usuários denunciarem os conteúdos alegadamente ilegais, que devem ser facilmente reconhecíveis, diretamente acessíveis e permanentemente disponíveis. Além disso, devem disponibilizar relatórios frequentes sobre a efetividade dessas medidas. Para casos de descumprimento sistemático, as multas impostas pela NetzDG podem chegar a 50 milhões de euros. Embora outros países da Europa, como Portugal, França e Rússia, já tenham adotado leis similares, parte da doutrina critica o perigo de over-blocking, isto é, o excesso de bloqueios por parte dos SRS's, justificado pelo estímulo criado pela norma para deletar o conteúdo imediatamente, sem promover as análises necessárias. Contudo, uma restrição demasiada de conteúdo não é interessante para os sites, uma vez que os seus interesses econômicos residem na pretensão de serem espaços livres para publicação da opinião do usuário. Além disso, a análise dos relatórios dos SRS's do primeiro ano da lei sugere o contrário, pois é mais comum a análise do conteúdo somente com base nas políticas e diretrizes dos sites do que a análise com base na NetzDG23. Assim, fica claro que a opção privilegia a proteção da vítima de um possível discurso de ódio cibernético, pois a imediata restrição do conteúdo impede o compartilhamento, e consequentemente, a re-vitimização. Por outro lado, ao delegar o dever de análise a entes privados, priorizando a celeridade, o controle primário sobre a legalidade do conteúdo recairia às redes sociais, abrindo margem para discricionariedade. Entretanto, como já ressaltado anteriormente, não se verificou um excesso do uso da ferramenta por parte dos sites, que inclusive tendem a justificar a exclusão do conteúdo de terceiros com base nos termos de uso já existentes. Logo, a NetzDG resultou no maior cumprimento do dever de vigilância já exercido pelos provedores de redes sociais, não pela previsão legal em si, mas por força do próprio termo de uso da plataforma, o qual sujeita qualquer usuário. Vale ressaltar que eventuais abusos ainda estão sujeitos ao controle judiciário, com a vantagem da indisponibilidade do conteúdo antes da ação judicial, em sistema diametralmente oposto ao adotado no Brasil, como já citado anteriormente. O embate envolvendo Elon Musk e o ministro Alexandre de Moraes levanta questionamentos importantes sobre a discricionariedade das decisões judiciais no tocante ao controle da legalidade sobre o conteúdo publicado na internet, sobretudo em processos em que a figura do juiz e do acusador se confundem. Por outro lado, foi colocada em xeque a percepção de uma neutralidade de rede e, além disso, a neutralidade dos algoritmos usados por diversas redes sociais.24 Estes acontecimentos acendem o sinal de alerta para a urgência em regulamentar o tema o quanto antes25. Analisados todos os lados que envolvem o debate, o que resta firme é a necessidade de renovar o sistema brasileiro de proteção da liberdade de expressão na internet, sendo imprescindível a retomada da regulação das redes sociais, o que consolidará a proteção do ordenamento a direitos fundamentais. __________ 1 Saiba mais sobre o caso aqui. Acesso em 26.04.2024 2 Para aprofundamento, confira o documento na íntegra aqui. Acesso em 26.04.2024 3 O empresário postou na sua rede social, onde se lê, em tradução livre "acabei de receber um relatório da Câmara dos Deputados dos EUA sobre as ações no Brasil que ferem a lei brasileira. São centenas, se não milhares. As coisas vão aquecer" Ver aqui. Acesso em 26.04.2024 4 Elon Musk agradeceu os comentários dos deputados federais Eduardo Girão (independente-CE, ), Nikolas Ferreira (PL-MG, ), Coronel Meira (PL-PE, ), Luiz Philippe (PL-SP, ). Todos os links acessados em 28.04.2024, 5 Embora contenha cópias de diversas decisões nacionais e um rol de supostos perseguidos políticos no Brasil, o relatório tem como objetivo primário denunciar uma suposta censura promovida pelo governo Biden. A posição se torna mais clara na página oitava do documento, onde se lê, em tradução livre "O Congresso deve levar a sério os avisos do Brasil e de outros países buscando suprimir o discurso online. Não podemos jamais acreditar que [o mesmo] não pode ocorrer aqui. O Comitê e o Subcomitê Especial conduziram investigações agressivas (...) para trazer à luz a censura promovida pelo governo nos Estados Unidos e para informar remédios legislativos adicionais." 6 Como reportado em Acesso em 26.04.2024 7 Projeto apresentado pelo senador Alessandro Vieira (Cidadania-SE), com objetivo inicial de combater a divulgação de notícias falsas nas redes sociais. O projeto foi aprovado no Senado após diversas mudanças em seu texto que hoje não se limita a regular fake news, mas prevê uma extensa ampliação no quadro normativo sobre regulação das redes sociais. Os críticos do projeto o apelidaram de PL da Censura. 8 FLUMIGNAN, Wévertton Gabriel Gomes. Análise da responsabilidade civil no âmbito do Marco Civil da Internet e da Lei Geral de Proteção de Dados. Disponível em:  https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/343301/responsabilidade-civil-no-ambito-do-marco-civil-da-internet-e-da-lgpd Análise da responsabilidade civil no âmbito do Marco Civil da Internet e da Lei Geral de Proteção de Dados, acessado em 25 de abril de 2024. 9 LIMA, Cíntia Rosa Pereira de. A responsabilidade civil dos provedores de aplicação de internet por conteúdo gerado por terceiro antes e depois do Marco Civil da Internet (Lei n. 12.965/14). Revista da Faculdade de Direito, Universidade se São Paulo, São Paulo, v. 110, p. 155-176, jan/dez, 2015, p.160 10 Sobre moderação de conteúdo vide também: QUINTILIANO, Leonardo David. Redes sociais devem ser responsabilizadas por conteúdo de usuários? Qual o melhor caminho a seguir? Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/406192/redes-sociais-devem-ser-responsabilizadas-por-conteudo-de-usuarios. 11 LIMA, Cíntia Rosa Pereira de. Os desafios à neutralidade da rede: o modelo regulatório europeu e norte-americano em confronto com o Marco Civil da Internet brasileiro. Disponível em: (PDF) Os desafios à neutralidade da rede: o modelo regulatório europeu e norte-americano em confronto com o Marco Civil da Internet brasileiro (researchgate.net). 12 MOZETIC, Vinícius Almada; DE MORAES, José Luis Bolzan; FESTUGATTO, Adriana Martins Ferreira. Liberdade de Expressão e Direito à Informação na Era Digital: o fenômeno das fake news e o "market place of ideas" de Oliver Holmes Jr. Direitos fundamentais & Justiça, 2021, Vol.14 (43), p.331-356. Disponível em Acesso em 28.04.2024 13 FACCHINI NETO, Eugênio. RODRIGUES, Maria Lúcia Boutros Buchain. Liberdade de expressão e discurso de ódio: o direito brasileiro à procura de um modelo. Espaço Jurídico Journal of Law Espaço Jurídico Journal of Law, v. 22, n. 2, 2021, p. 481-516. DOI: 10.18593/ejjl.29220. 14 SARMENTO, Daniel. A liberdade de expressão e o problema do hate speech. Revista de Direito do Estado, Rio de Janeiro, ano 1, n. 4, out./dez. 2006. Disponível em: 15 GROSS, Clarissa Piterman. Pode dizer ou não? Discurso de ódio, liberdade de expressão e a democracia liberal igualitária. 2017. Tese (Doutorado em Filosofia e Teoria Geral do Direito) - Faculdade de Direito, Universidade de São Paulo, São Paulo, 2017. DOI :10.11606/T.2.2017.tde-28082020-013457. 16 LONGHI, João Victor Rozatti. #ÓDIO: responsabilidade civil nas redes sociais e a questão do hate speach. In: MARTINS, Guilherme Magalhães e ROSENVALD, Nelson. Responsabilidade Civil e Novas Tecnologias. Indaiatuba: Editora Foco, 2020, pp. 231-330 17 A 1ª Emenda da Constituição americana, em tradução livre: "O Congresso não fará lei relativa ao estabelecimento de religião ou proibindo o livre exercício desta, ou restringindo a liberdade de palavra ou de imprensa, ou o direito do povo de reunir-se pacificamente e dirigir petições ao governo para a reparação de seus agravos" Fonte original: 18 Sarmento, idem. 19 BARBOSA-FOHROMANN, Ana Paula e SILVA JR., Antônio Reis O discurso de ódio na internet. In: MARTINS, Guilherme Magalhães e LONGHI, João Victor Rozatti. Direito Digital: direito privado e internet. Indaiatuba: Editora Foco, 2019, pp. 3-34. 20 PAMPLONA, Danielle Anne; DE MORAES Patricia Almeida. O discurso de ódio como limitante da liberdade de expressão. Quaestio Iuris, vol. 12, no. 2, 2019. Disponível em: 21 BRUGGER,Winfried. Proibição ou proteção do discurso do ódio? Algumas observações sobre o direito alemão e o americano. Revista de Direito Público, v. 15 n. 117, jan./mar. 2007. Disponível em:  22 BREGA, Gabriel Ribeiro. A regulação de conteúdo nas redes sociais: uma breve análise comparativa entre o NetzDG e a solução brasileira. Revista Dirieto GV: São Paulo, v. 19, ed. 2305, 2023. Disponível em: 23 HELDT, Amélie. Reading between the lines and the numbers: an analysis of the first NetzDG reports. Internet policy review, 2019, v..8, n.2 DOI: https://doi.org/10.14763/2019.2.1398. 24 Vide também: LIMA, Cíntia Rosa Pereira de. Neutralidade da rede e proteção do consumidor no contexto pandêmico, 16 de junho de 2021. Disponível em: Neutralidade da rede e proteção do consumidor na pandemia (conjur.com.br) 25 Argumentos parecidos foram utilizados para aprovar uma lei que visa banir o TikTok, rede social chinesa, dos EUA ainda essa semana. Veja: Ademais, no caso Cambridge Analytica o uso de manipulação algorítmica para criação de "bolhas sociais" teria influenciado diretamentamente a eleição do ex-presidente Donald Trump nos Estados Unidos e a votação britânica para saída do Reino Unido. Para saber mais, acesse: Ambos os links forma acessados em 28.04.2024.
O recente embate envolvendo Elon Musk e o Supremo Tribunal Federal brasileiro reacendeu a discussão em torno da responsabilidade das plataformas digitais por conteúdo gerado por usuários. Trata-se de uma das maiores discussões na era da internet. A quem deve caber o controle das informações veiculadas por usuários de redes sociais (provedores de informação) que podem afetar a honra, intimidade, privacidade ou outro direito de terceiros? Em caso de violação desse tipo, deve ter o provedor de rede social alguma responsabilidade por conteúdo gerado por seu usuário? Exemplificando para o leitor leigo: se Maria utilizar o Facebook para caluniar José, ou postar uma foto dele sem seu consentimento, deverá responder o Facebook por danos morais? O tema é polêmico e gira em torno da existência de um "dever geral de vigilância" por parte do provedor de serviço, no caso plataformas de redes sociais como o Facebook, X, Instagram, Linkedin, entre outros. Na União Europeia, a antiga Diretiva de e-commerce 31/2000 excluía tal dever geral de vigilância em seu art. 15: Artigo 15º Ausência de obrigação geral de vigilância 1. Os Estados-Membros não imporão aos prestadores, para o fornecimento dos serviços mencionados nos artigos 12.o, 13.o e 14.o, uma obrigação geral de vigilância sobre as informações que estes transmitam ou armazenem, ou uma obrigação geral de procurar activamente factos ou circunstâncias que indiciem ilicitudes. 2. Os Estados-Membros podem estabelecer a obrigação, relativamente aos prestadores de serviços da sociedade da informação, de que informem prontamente as autoridades públicas competentes sobre as actividades empreendidas ou informações ilícitas prestadas pelos autores aos destinatários dos serviços por eles prestados, bem como a obrigação de comunicar às autoridades competentes, a pedido destas, informações que permitam a identificação dos destinatários dos serviços com quem possuam acordos de armazenagem.1  No entanto, prevalecia a regra denominada pela doutrina de "notice and take down" (notificação e retirada),2 ou seja, o dever de retirada de conteúdo ilegal após a notificação e conhecimento do referido conteúdo, como constava no artigo 14 da mesma diretiva: Artigo 14º Armazenagem em servidor 1. Em caso de prestação de um serviço da sociedade da informação que consista no armazenamento de informações prestadas por um destinatário do serviço, os Estados-Membros velarão por que a responsabilidade do prestador do serviço não possa ser invocada no que respeita à informação armazenada a pedido de um destinatário do serviço, desde que: a) O prestador não tenha conhecimento efectivo da actividade ou informação ilegal e, no que se refere a uma acção de indemnização por perdas e danos, não tenha conhecimento de factos ou de circunstâncias que evidenciam a actividade ou informação ilegal, ou b) O prestador, a partir do momento em que tenha conhecimento da ilicitude, actue com diligência no sentido de retirar ou impossibilitar o acesso às informações. Em 2022, contudo, a União Europeia aprovou o Regulamento para Serviços Digitais (Digital Services Act - DAS), que passou a vigorar em 17 de fevereiro de 2024, alterando a disciplina anterior.3 O DAS manteve a responsabilidade condicionada dos provedores segundo a regra do "notice and take down", excluindo o dever geral de vigilância: Artigo 8º Inexistência de obrigações gerais de vigilância ou de apuramento ativo dos factos Não será imposta a esses prestadores qualquer obrigação geral de controlar as informações que os prestadores de serviços intermediários transmitem ou armazenam, nem de procurar ativamente factos ou circunstâncias que indiquem ilicitudes. Em geral, a norma europeia isenta as redes sociais de promover uma vigilância sobre as postagens dos usuários, salvo nas seguintes hipóteses: a) que a rede social não participe direta ou indiretamente da postagem, originando a transmissão, ou selecionando ou modificando os destinatários ou conteúdo transmitido; b) não tenha conhecimento efetivo da atividade ou conteúdo ilegal; c) que após conhecimento da ilicitude, tenha agido para suprimir ou desativar o acesso aos conteúdos ilegais. Nos Estados Unidos, o Telecommunications Decency Act, de 1996, também exime os provedores do dever de vigilância: SEC. 230. Protection for private blocking and screening of offensive material.(...) (1) Treatment of publisher or speaker - No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider. (2) Civil liability - No provider or user of an interactive computer service shall be held liable on account of (A) any action voluntarily taken in good faith to restrict access to or availability of material that the provider or user considers to be obscene, lewd, lascivious, filthy, excessively violent, harassing, or otherwise objectionable, whether or not such material is constitutionally protected; or (B) any action taken to enable or make available to information content providers or others the technical means to restrict access to material described in paragraph (1). Assim, no âmbito eurocomunitário e nos Estados Unidos, a responsabilidade da rede social por conteúdo danoso gerado por seus usuários é sempre subjetiva, ou seja, depende da comprovação de sua culpa, incorporando-se a regra "notice and takedown". E qual regra se aplica no Brasil? Em 14.12.2010, o STJ entendeu, no julgamento do Resp 1.193.764, que a Google, mantenedora da antiga rede social Orkut, não seria responsável pela fiscalização do conteúdo das informações prestadas por cada usuário. Posteriormente, o Superior Tribunal de Justiça consolidou a adoção do sistema do "notice and take down", com a necessidade de notificação extrajudicial do provedor de aplicação para retirada de qualquer conteúdo que se entendesse ilícito, a qual deveria ser atendida no prazo de 24 horas, sob pena de responsabilidade solidária.4 Em primeiro lugar, é importante reconhecer que as empresas que controlam redes sociais fornecem um serviço de hospedagem de conteúdo de dados fornecidos por consumidores, assumindo a natureza de relação de consumo.5 Também destaca Bruno Miragem que, mesmo em relações que não sejam consumeristas, mas regidas genericamente pelo Código Civil, a atividade desenvolvida pode gerar, por si, a responsabilidade por risco da atividade (art. 927 do CC).6 Desde 23 de abril de 2014, contudo, está em vigor o Marco Civil da Internet, o qual trouxe previsão específica sobre a responsabilidade das redes sociais por conteúdo de usuários, acolhendo em parte a regra do "notice and takedown".  Assim como na Europa e EUA, o modelo brasileiro não impõe aos provedores o dever geral de vigilância e também os isenta de responsabilidade por conteúdo gerado por seus usuários. Além disso, segundo o artigo 19, não basta o "notice" (recebimento do aviso) para o "takedown" (remoção) - exige-se ordem judicial específica, ou seja, o "judicial notice". O "notice and takedown" foi acolhido em sua totalidade apenas no art. 21, no caso de violação à intimidade decorrente de divulgação, sem autorização, de imagens, vídeos ou outros materiais contendo cenas de nudez ou atos sexuais de caráter privado. O modelo brasileiro assegura maior liberdade de expressão aos usuários, menor censura e mais segurança jurídica para os provedores. O aumento vertiginoso na utilização de redes sociais, contudo, transformou o ambiente virtual em um espaço extremamente vulnerável a abusos cometidos por usuários, expondo-se a honra e a intimidade de terceiros e, de forma mais grave, tornando-se um meio de propagação de notícias falsas e de todo tipo de desinformação, gerando riscos para a ordem pública e afetando de forma concreta direitos individuais e coletivos, como a saúde e a educação e até mesmo políticos, especialmente no que se refere aos processos eleitorais. Tal massiva virtualização das relações sociais nesse ambiente ainda em fase de conhecimento e consolidação de normas espontâneas, como as normas morais e sociais presentes na sociedade tradicional, passou a produzir uma quantidade de conflitos incompatível com a regra prevista no artigo 19 do marco civil da internet.7 Deveras, se todas as postagens ofensivas, caluniantes ou mentirosas dependerem de intervenção judicial para sua remoção, teremos uma paralisia do Poder Judiciário. Para isso, é necessária uma revisão da ultrapassada regra adotada no artigo 19 do marco civil da internet. Uma das propostas é a substituição da medida judicial por outros meios alternativos, como termos de ajustamento de conduta.8 Martins e Longhi  observam ainda que a importação acrítica da regra do "notice and takedown" do direito americano ou eurocomunitário implica uma inversão do ônus da prova em detrimento do consumidor, violando o art. 51, VI, do Código de Defesa do Consumidor. Isso, porque ficaria o consumidor obrigado a provar que notificou a empresa responsável pela rede social solicitando a retirada de conteúdo danoso. Ainda segundo os autores, Em face da vulnerabilidade técnica e informacional do consumidor na Internet, mostra-se excessivo condicionar a responsabilidade do fornecedor a uma atitude prévia do consumidor, o que afronta, inclusive, o principio constitucional do livre acesso ao Judiciário (art. 5.º, XXXV, da CF/1988).9 Martins e Longhi10 defendem ainda a tese da responsabilidade objetiva dos provedores de redes sociais no direito brasileiro por danos causados por usuários a terceiros, à luz do art. 14 do Código de Defesa do Consumidor, o qual dispõe: Art. 14. O fornecedor de serviços responde, independentemente da existência de culpa, pela reparação dos danos causados aos consumidores por defeitos relativos à prestação dos serviços, bem como por informações insuficientes ou inadequadas sobre sua fruição e riscos. Segundo os autores, a responsabilidade objetiva dos provedores de redes sociais se justifica por três fundamentos: a) do controle maciço de informação para obtenção de remuneração mediante contratos de publicidade, b) detenção dos meios técnicos de se individualizar os reais causadores dos danos e c) realização da função social da atividade econômica, corolário da dignidade da pessoa humana (art. 1.º III, da CF/1988) e do princípio da solidariedade social (art. 3.º, I, da CF/1988). Ainda sugerem os autores que o risco do negócio e o pagamento de eventuais indenizações poderia ser embutido nos contratos de publicidade, devendo haver inclusive securitização contra esses eventos danosos.11 Concordamos apenas em parte com esse entendimento. De fato, nos casos em que o controlador das redes sociais utiliza o conteúdo gerado por provedores de informação para fins econômicos, o dano gerado com a informação tratada deve ensejar sua responsabilidade. No entanto, temos ressalvas quanto à responsabilização dos provedores de aplicativos por condutas exclusivamente imputáveis aos usuários. É o caso do uso de uma rede social para ofender ou caluniar alguém, em situações na qual a ofensa não é aferível de plano, ou a veracidade do fato depender de uma análise mais criteriosa. A aplicação do Código de Defesa do Consumidor a essas situações é, de fato, juridicamente possível, afinal o usuário de uma rede social é um consumidor do serviço. O fato de não pagar uma mensalidade, v.g., não desnatura essa relação, consistindo tal contrapartida em decisão livre do provedor. A questão que se coloca para responsabilização do provedor, contudo, encontra paralelo em outras relações consumeiristas em que um dano ao usuário é ocasionado não pelo prestador do serviço, mas por outro usuário. É o caso de um restaurante, de um estádio de futebol ou mesmo de um shopping, por exemplo. Imaginemos que um cliente de um restaurante ofenda outro cliente. Qual a responsabilidade do restaurante por esse ato? O artigo 14 do CDC apenas cria a hipótese de responsabilidade objetiva (sem comprovação de culpa) nos casos de falha de prestação do serviço pelo prestador. Assim, prevalece nos tribunais o entendimento de que uma briga de clientes no interior de um restaurante, por exemplo, não pode ensejar a responsabilidade do restaurante, salvo se for comprovada alguma omissão do estabelecimento.12 Entende-se, assim, que tal responsabilidade é excluída por fato de terceiro ou culpa exclusiva da vítima. A princípio, não vemos grande distinção entre a existência de ofensas ocorridas entre frequentadores de um restaurante, festa, supermercado, cinema, estádio de futebol, provedor de email, whatsapp e os "frequentadores" de redes sociais. Danos causados por usuários ou terceiros em qualquer relação de consumo apenas são imputáveis ao provedor dos serviços no caso de sua omissão ou culpa, o que deverá levar em consideração as peculiaridades da atividade exercida. No caso das redes sociais, contudo, vigora a regra do "'judicial' notice and take down". Tal regra pode ser considerada ruim, mas não é inconstitucional. Trata-se de uma opção feita pelo legislador entre outras que também seriam possíveis e encontrariam fundamento na Constituição brasileira.  Ponderaram-se os diversos princípios e valores constitucionais que informam o tema: de um lado, a liberdade de expressão e a proteção da livre iniciativa, sem a exigência de obrigações excessivamente onerosas; de outro, os direitos fundamentais ligados especialmente à proteção da intimidade, privacidade, honra, criança e adolescente, para citar alguns. No entanto, dada a dificuldade e morosidade da dependência da autorização judicial para remoção de conteúdo danoso, uma alteração legislativa se mostra necessária, adotando-se os exemplos eurocomunitário e estadunidense como referência, especialmente dispensando-se a medida judicial para sua remoção. Já o Projeto de Lei 2.630/2020, em tramitação na Câmara dos Deputados, vai na contramão dessas iniciativas, ao se exigir das redes sociais o dever geral de vigilância, em seu artigo 11, quanto a conteúdo disseminado por usuários que possam configurar alguns crimes ali previstos.13 A imposição desse relativo dever de vigilância pode ser feito sem onerosidade excessiva para as empresas por meio de sistemas de inteligência artificial que rastreiem publicações que veiculem práticas criminosas. Sem embargo, é necessária a criação de um procedimento interno de tratamento de notificações de usuários solicitando a remoção de conteúdo, de maneira fundamentada, por violar a propriedade intelectual, conter expressões ofensivas, discriminatórias ou simplesmente por veicular informações falsas. Após o recebimento da notificação, o conteúdo pode ser previamente suspenso por prevenção, dando-se a oportunidade de o criador ou veiculador exercer o contraditório e a defesa, garantindo-se ao denunciante a réplica ou mesmo a desistência do pedido, mediante convencimento. O sistema pode copiar os mecanismos de online dispute resolution (ODR), muito comuns para solucionar controvérsias entre plataformas de mediação de compras, como o Mercado Livre, Ebay etc. É claro que, na ausência de um acordo, a rede social deve tomar uma decisão sobre a exclusão ou não do conteúdo, o que pode ser feito pela contratação de mediadores ou árbitros. Tal providência seria, inclusive, bastante salutar, reparando-se postos de trabalho eliminados em grande parte pelas mesmas big techs que hoje administram as principais redes sociais do mundo. Desse modo, apenas nos casos em que a moderação de conteúdo na rede social seja questionada é que haveria o acionamento da máquina judiciária. Com o filtro promovido pelas redes sociais, o número de ações certamente seria bem menor. Além disso, com a criação de precedentes e entendimentos sumulados sobre as responsabilidades por tipos de conteúdos veiculados em postagens públicas em redes sociais, o número de demandas judiciais tende a diminuir. Embora já existam alguns mecanismos adotados pelas redes sociais para exclusão de conteúdo danoso, há a necessidade de uma uniformidade de padrões e procedimentos mínimos, o que deve ser feito por alteração legislativa. Nesse sentido, com algumas adaptações, o Projeto de Lei n. 2.630/2020, que aguarda votação no Plenário da Câmara dos Deputados, ao menos no que toca à regra para remoção de conteúdos ilícitos gerados por usuários, propõe uma providência razoável que não destoa de forma significativa - antes até aperfeiçoa - o modelo empregado pela União Europeia no Digital Services Act. As big techs não apenas deveriam se abster de promover lobby contra uma melhor regulamentação do assunto, como já terem criado mecanismos internos de moderação melhor desenvolvidos e aperfeiçoados, como uma medida de compliance e de boas práticas. Seu lucro exorbitante certamente não será afetado. __________ 1 Disponível aqui. 2 Sobre esse tema veja também: FLUMIGNAN, Wévertton Gabriel Gomes. Análise da responsabilidade civil no âmbito do Marco Civil da Internet e da Lei Geral de Proteção de Dados. Disponível aqui, acessado em 25 de abril de 2024. 3 Disponível aqui. 4 Cf. FLUMIGNAN, Wévertton Gabriel Gomes. Análise da responsabilidade civil no âmbito do Marco Civil da Internet e da Lei Geral de Proteção de Dados. Migalhas, 9 abr. 2021. Disponível aqui. 5 MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti. A tutela do consumidor nas redes sociais virtuais responsabilidade civil por acidentes de consumo na sociedade da informação. Revista de Direito do Consumidor, v. 78, p. 191-220, abr./jun. 2011, p. 11. 6 MIRAGEM, Bruno. Responsabilidade por danos na sociedade da informação e proteção do consumidor: defesas atuais da regulação jurídica da Internet. Revista de Direito do Consumidor. vol. 70. São Paulo: Ed. RT, abr.-jun. 2009, p. 41. 7 LIMA, Cíntia Rosa Pereira de. A responsabilidade civil dos provedores de aplicação de internet por conteúdo gerado por terceiro antes e depois do Marco Civil da Internet (Lei n. 12.965/14). Revista da Faculdade de Direito da Universidade de São Paulo, São Paulo, v. 110, p. 173, jan./dez. 2015. 8 MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti. A tutela do consumidor nas redes sociais virtuais responsabilidade civil por acidentes de consumo na sociedade da informação. Revista de Direito do Consumidor, v. 78, p. 191-220, abr./jun. 2011, p. 12. 9 Ibidem. 10 Ibid., p. 13. 11 Ibidem. 12 "APELAÇÃO. RESPONSABILIDADE CIVIL. INDENIZAÇÃO POR DANOS MATERIAIS E MORAIS. Ação ajuizada por consumidora agredida fisicamente por outros clientes em estabelecimento comercial da ré. Sentença de improcedência. Apelo da demandante. Falha na prestação dos serviços, porém, não configurada. Culpa exclusiva de terceiros. Danos que não podem ser atribuídos à omissão da ré. Ausência de nexo causal, pressuposto da responsabilidade civil. Sentença mantida. NEGADO PROVIMENTO AO RECURSO". (v.24628). (TJ-SP - APL: 10052910320148260477 SP 1005291-03.2014.8.26.0477, Relator: Viviani Nicolau, Data de Julgamento: 02/03/2017, 3ª Câmara de Direito Privado, Data de Publicação: 02/03/2017) 13 Disponível aqui.
sexta-feira, 19 de abril de 2024

Inteligência artificial e ética

Discorrer sobre a importância da Inteligência Artificial (IA), na atualidade, há de soar como mero truísmo, a menos que se acrescente algo  -  ou, pelo menos, se tente acrescentar, como pretendo fazê-lo, neste artigo  - , tal como ocorreu na oportuna contribuição de Dom Odilo Pedro Scherer, Cardeal-Arcebispo de São Paulo a esse Jornal, com o artigo Inteligência artificial e paz, na recente edição do dia 13/2. Destacou Sua Eminência, com propriedade, que "a dimensão ética está presente em toda atividade humana, ligada intimamente às decisões e intenções de quem produz e de quem aplica e usa os conhecimentos conquistados", acrescentando não ser "diferente com as diferentes formas e usos da inteligência artificial, capaz de imitar, de reproduzir e até criar ações típicas do homem." Assim, muito mais do que enaltecer os prodígios triunfantes da ciência e das inquestionáveis conquistas das inovações tecnológicas, nosso eminente cardeal põe em relevo a inafastável questão ética, que deve pairar acima, quer das pequenas vaidades pessoais, que parecem medrar cada vez mais na superficialidade cosmética da sociedade contemporânea; quer da visível discriminação algorítmica promovida pelos detentores do poder tecnológico; quer, em última análise, dos grandes interesses privados de dominação e controle. Tornou-se uma desculpa cada vez mais difundida diluir-se a responsabilidade por procedimentos inadequados às falhas do "sistema", como se este fosse o  culpado por todas as violações dos direitos básicos do usuário ou do consumidor. Essa patética tentativa de atribuir culpabilidade aos sistemas autônomos, feita pelos responsáveis por falhas, erros e danos causados a terceiros, não passa de notório arremedo. Como já assinalei no passado, as expressões ética empresarial, ética da empresa, ou, ainda, ética do mercado têm recorrentemente sido usadas por evidente antropomorfismo. Rigorosamente falando, tal emprego é equivocado, pois somente os homens possuem consciência moral e não as instituições por eles constituídas. As exigências éticas decorrem dessa consciência moral, que vem a ser exclusiva do ser humano. Vem-me à mente a seguinte passagem do saudoso Prof. Miguel Reale a respeito das insuficiências da ciência: "O problema do valor do homem como ser que age, ou melhor, como o único ser que se conduz, põe-se de maneira tal que a ciência se mostra incapaz de resolvê-lo. Este problema que a ciência exige, mas não resolve, chama-se problema ético, e marca momento culminante em toda verdadeira Filosofia, que não pode deixar de exercer uma função teleológica, no sentido do aperfeiçoamento moral da humanidade e na determinação essencial do valor do bem, quer para o indivíduo, quer para a sociedade." Esse problema ético, a que se referiu o grande jurisconsulto, é retomado agora, tanto por Dom Odilo Scherer, como pelo Papa Francisco, citado pelo nosso Cardeal, sob o prisma da necessária promoção da paz mundial. A história da humanidade já pôde mostrar ao mundo que grandes invenções do gênero humano foram colocadas a serviço da "banalização do mal", de que nos falava Hannah Arendt. Assim, os receios do Santo Padre são absolutamente fundados e devem ser a preocupação de todos nós: no estado de acrasia ética em que estamos mergulhados neste século XXI, caminhando para trás feito caranguejos (como nos mostrou Umberto Eco, em admirável obra), como acreditar que a inteligência artificial e a máquina de guerra construída pelas grandes potências nucleares não serão usadas contra a dignidade da pessoa humana?... Mesmo em Davos, cidade suíça onde se realiza o  Fórum Econômico Mundial, no qual CEOs de grandes empresas, ricaços globalistas e até mesmo Chefes de Estado se reúnem anualmente para fingir que discutem os destinos do mundo  -  ou para dizer, por exemplo, como o fez a presidente da Comissão Europeia, Ursula Von Der Leyen, que "a maior preocupação para os próximos dois anos" não é o conflito ou o clima, mas sim a "desinformação e a informação incorreta" -, parece que o fascínio pelos encantos da IA, tão decantados no Fórum do ano passado, foi substituído, neste ano, pelas preocupações com os estragos que essa tecnologia poderá causar à humanidade, se não houver adequada e responsável governança, como mostrou a edição do Estadão de 21/1 deste ano. Em suma, todos estão sintonizados com os possíveis problemas que a IA poderá trazer, valendo lembrar o artigo de José Pastore, O futuro do trabalho com a IA (Estadão de 25/1), o de Celso Ming, IA e destruição de empregos (Estadão de 26/1) e, ainda, Temor sobre mau uso da IA alcança as finanças e até a Justiça, matéria da edição do Estadão de 28/1. Concluo estas singelíssimas considerações, lembrando,  como já se disse algures, que o século XXI deverá ser o "Século da Ética" ou, então, poderá ser o último da história da humanidade.