COLUNAS

  1. Home >
  2. Colunas

Migalhas de IA e Proteção de Dados

Oferecer uma visão 360º sobre a Lei Geral de Proteção de Dados.

Nelson Rosenvald, Cristina Godoy Bernardo de Oliveira, Evandro Eduardo Seron Ruiz, Cintia Rosa Pereira de Lima e Newton de Lucca
Introdução As implicações éticas associadas a Inteligência Artificial (AI) Generativa são múltiplas e desafiadoras. Podemos iniciar com duas opiniões a este respeito, que talvez possam orientar esta reflexão. Opinião 1 A Inteligência Artificial (IA) apresenta três áreas principais de preocupação ética para a sociedade: privacidade e vigilância, preconceito e discriminação e desafios filosóficos. A IA pode levar ao desemprego à medida que as máquinas assumem trabalhos que antes eram feitos por humanos. A desigualdade também é uma preocupação, pois a IA pode ser usada para perpetuar as estruturas de poder existentes. A IA também pode levar ao viés algorítmico, em que os modelos incorporam e implantam vieses humanos e sociais em escala. A privacidade é um direito humano fundamental reconhecido na Declaração dos Direitos Humanos da ONU, mas os aplicativos de IA podem representar uma ameaça real a esse direito. A desinformação é outro problema ético com a IA, pois os modelos de aprendizado de máquina podem gerar facilmente textos incorretos. Para garantir o uso ético da IA, a educação e a conscientização sobre a ética da IA ??devem ser aumentadas. Exemplos de IA ética incluem o uso de IA para melhorar os resultados da saúde ou reduzir o consumo de energia. É importante lembrar que as questões éticas com a IA não se limitam aos impactos negativos; também há benefícios incidentais, como capacidade analítica aprimorada ou maior eficiência nos processos de tomada de decisão.1 Opinião 2 Preconceito e discriminação: os sistemas de IA podem perpetuar e ampliar os preconceitos existentes na sociedade, levando a decisões e resultados discriminatórios. Por exemplo, a tecnologia de reconhecimento facial demonstrou ter taxas de erro mais altas para pessoas negras e mulheres. Privacidade e proteção de dados: os sistemas de IA geralmente dependem de grandes quantidades de dados pessoais para tomar decisões, e há preocupações sobre como esses dados são coletados, armazenados e usados ??e quem tem acesso a eles. Impacto no emprego: a IA tem o potencial de automatizar muitos empregos, levando ao desemprego e à agitação social. Também existe o risco de que a IA reforce os desequilíbrios de poder existentes e exacerbe a desigualdade econômica. Responsabilidade e prestação de contas: quando os sistemas de IA tomam decisões que têm consequências significativas para os indivíduos e a sociedade, pode ser difícil determinar quem é responsável por essas decisões e como eles podem ser responsabilizados. Direitos humanos: a IA tem o potencial de infringir os direitos humanos, como liberdade de expressão e privacidade, e há preocupações sobre o uso de IA para vigilância e controle por governos e outras organizações. É importante abordar essas implicações éticas por meio de diálogo e debate contínuos e estabelecendo diretrizes e princípios éticos claros para o desenvolvimento e uso da IA. Isso inclui considerar os possíveis impactos da IA ??nos indivíduos e na sociedade e garantir que a IA seja desenvolvida e usada de maneira responsável e ética.2 Estas duas opiniões foram dadas por duas ferramentas de IA Generativa: o ChatGPT e o Perplexity. É fundamental avançar nesta reflexão sobre os aspectos éticos associados ao uso de IA Generativa, especialmente sobre as suas repercussões sobre as pessoas, as comunidades e para a humanidade, como um todo. AI-Generativa (1) Desde algum tempo, é possível ter uma interação pessoa-máquina por meio de sistemas de linguagem natural (Chat-bot). Em muitas ocasiões, não existe a clara percepção de que esta comunicação esteja sendo feita com as máquinas e não com outras pessoas. Na década de 1970, Jacques Monod já alertava que era cada vez mais difícil estabelecer o limite entre o natural e o artificial3. A simulação ou a substituição de atividades reais, cada vez mais semelhantes às realizadas por mecanismos e sistemas artificiais, gera esta ambiguidade de percepção. A introdução de ferramentas computacionais de aprendizagem de máquina e de mineração de grandes volumes de dados, em uma abordagem conhecida como Big Data é outro avanço significativo para promover a interação entre seres humanos e máquina. A avaliação conjunta de grandes volumes de dados tem permitido o estabelecimento de novas relações, de novos entendimentos, até então, não identificados. Na saúde, por exemplo na análise de dados epidemiológicos; para revisões sistemáticas de literatura; reconhecimento do estado da arte e predições tem sido imprescindíveis. Entretanto, há outra face da moeda é conter a arrogância tecnológica, conforme já pontuou Hans Jonas4, não podemos entender que os resultados de quaisquer ferramentas, de tecnologias de informação e comunicação ou AI-Generativa sejam entendidos como inquestionáveis - reconhecer a falibilidade da AI já é um bom começo. A infalibilidade dos computadores vem sendo discutida desde o início da sua utilização, quando ainda eram chamados de "cérebros eletrônicos". Naquela época já havia a proposta de que a qualidade das informações geradas não era inquestionável, mas dependia da qualidade dos dados de entrada e dos processos utilizados. Isto ficou conhecido pela sigla GIGO (Garbage In, Garbage Out). Ou seja, se os dados ou os sistemas estiverem com alguma inadequação, os resultados gerados estarão comprometidos5. Outro importante desenvolvimento nesta área foi a crescente utilização de algoritmos para a tomada de decisão. Estas ferramentas, cada vez mais aprimoradas e baseadas em processos altamente complexos, têm propiciado soluções otimizadas para inúmeros problemas, inclusive modificando os próprios processos de tomada de decisão. A maioria destes sistemas trabalham na busca de reconhecer padrões de similiaridade. Esta área é que ficou conhecida como Inteligência Artificial (AI). A rigor a AI não é uma inteligência em si, são processos de decisão automatizada. Pierre Levi faz uma crítica contundente ao uso da expressão "inteligência artificial", ele não reconhece nestes sistemas a possibilidade de gerar novos conhecimentos ou de terem compreensão do mundo6. Os algoritmos são feitos por pessoas a serviço de instituições, que tem seus sistemas de crenças e valores, que acabam por direcionar os processamentos e as interpretações. Estes novos sistemas - ChatGPT e Perplexity - são uma combinação e evolução destas ferramentas, constituem um novo patamar de complexidade de como lidar com dados, na busca de extrair informações que possam orientar ações. a A base da IA Generativa é rotular e/ou classificar dados preexistentes, mas não só, estes sistemas geram novos conteúdos, por agregação e combinação, a partir dos elementos disponíveis. A expressão generativa, foi criada por Noam Chomsky, em 1965, quando propôs a "gramática generativa", ou também chamada de "gramática gerativa". Esta proposta buscava explicar que a linguagem se estabelece por meio de competências e desempenhos para produzir frases e de quais são os caminhos utilizados para o seu estabelecimento7. Esta ideia se baseou no pensamento de Wilhelm von Humboldt, que em 1836, disse que a linguagem faz um uso infinito de meios finitos8. Estas são as características dos novos sistemas de IA Generativa: estabelecer conexões, por meio de novas ferramentas computacionais, com base em grandes volumes de dados, conceitos e estruturas já construídas, para proporem novos conteúdos, que são expressados em uma linguagem o mais natural possível. Reflexão sobre as opiniões dos sistemas: ChatGPT e Perplexity (2) Os textos elaborados pelo ChatGPT e pelo Perplexity, incluídos no início, são um bom exemplo da utilização de IA Generativa, pois eles estabelecerem conexão entre temas éticos e outros elementos dados. Os principais temas destacados foram: a privacidade, a vigilância e o controle, a liberdade de expressão, o preconceito e a discriminação. Todos estes temas já preexistiam ao uso de IA Generativa. Eles já vêm sendo discutidos em diferentes níveis de profundidade e aplicação. O desafio atual é pensar estas questões nesta nova perspectiva. Sempre que uma inovação é incorporada pela sociedade, surgem as discussões sobre a sua adequação. Quando o livro impresso foi disponibilizado para a sociedade, quando surgiram as primeiras enciclopédias, quando a internet deu acesso a um volume de dados nunca antes imaginado, houve o questionamento sobre a adequação do uso destes meios de difusão de dados, conhecimentos e informações. Um bom exemplo é a atual discussão do impacto da IA Generativa sobre a educação, está gerando ansiedade entre escolas, pais e professores. Esta mesma discussão ocorreu em outros momentos históricos e incorporação de novas tecnologias. Já existem modelos educacionais que permitem incorporar estas situações trazidas pela IA Generativa de forma criativa. Ao invés de copiar ou gerar conteúdos, talvez o desafio da educação seja avaliar a qualidade das informações geradas. É utilizar este desafio para incorporar uma reflexão crítica e complexa nos diferentes níveis educacionais. Notas conclusivas de uma reflexão inicial Mais importante do que discutir aspectos éticos pontuais, é fundamental refletir sobre os aspectos mais amplos da utilização da IA Generativa, tais como: a) definir padrões eticamente adequados que orientem a criação responsável de conteúdos por estes sistemas; b) estabelecer estratégias de monitoramento dos dados e informações gerados pela IA Generativa como forma de verificar a sua veracidade; c) criar diretrizes que permitam realizar auditorias contínuas nos processos destes sistemas visando impedir que os seus processos possam ser utilizados para fins contrários aos interesses das pessoas, das sociedades e da humanidade9. d) analisar modelos jurídicos e normas existentes, como a LGPD, Marco Civil da Internet, Leis relacionas a Propriedade Intelectual, Código Civil,  entre outras e pensar em novas formulações para garantir a segurança jurídica.   A discussão ética contemporânea deve ser orientada pela reflexão sobre o novo "regime de informação", como caracterizado por Han10. Este é o nosso desafio: refletir sobre este novo modelo de sociedade, onde as relações se alteraram enormemente. A IA Generativa é apenas um dos múltiplos desafios que necessitam ser discutidos e aprofundados. __________ 1 Implicações Éticas e IA Generativa [Internet]. Perplexity. 2023 [cited 2023 Feb 11]. p. 39138. Available from here. 2 Implicações Éticas e IA Generativa [Internet]. ChatGPT. 2023 [cited 2023 Feb 11]. Available from here. 3 Monod J. O acaso e a necessidade. 4th ed. Petrópolis: Vozes; 1989. 219 p. 4 Jonas H. Ética, medicina e técnica. Lisboa: Vega; 1994. 172 p. 5 Work With New Electronic "Brains" Opens Field For Army Math Experts. The Hammond Times. 1957 Nov 10;65. 6 Lévy P. Inteligência Artificial produz " monstruosidades éticas ". Revista Fórum [Internet]. 2022;1-7. Available from here. 7 Chomsky N. Aspects of the theory of syntax. Vol. 13, Nucl. Phys. Cambridge, MA: The MIT Press; 2015. 104-116 p. 8 Humboldt W. Über die Verschiedenheit des menschlichen Sprachbaues: und ihren Einfluss auf die geistige Entwicklung des Menschengeschlechts. Berlin: Druckerei der Königlichen Akademie der Wissenschaften; 1836. 9 Gocklin B. Guidelines for Responsible Content Creation with Generative AI [Internet]. Digital Transformation. 2023 [cited 2023 Feb 9]. p. 1-7. Available from here. 10 Han B-C. Infocracia: digitalização e a crise da democracia. Petrópolis: Vozes; 2022.
sexta-feira, 17 de fevereiro de 2023

ChatGPT e Filhos Advogados Associados

Segue o texto integral traduzido do entrevistado ChatGPT. Entrevista concedida na manhã da terça-feira, dia 13 de fevereiro. A tradução foi auxiliada pelo Google Translator. Pelo que me consta, essa é a primeira entrevista do ChatGPT a um veículo de mídia brasileira. Evandro Ruiz - Estou atuando como entrevistador do diário jurídico Migalhas. Posso entrevistá-lo? ChatGPT: Como um modelo de linguagem de inteligência artificial, não sou capaz de dar entrevistas no sentido tradicional, mas fui projetado para fornecer respostas informativas e concisas às suas perguntas. Sinta-se à vontade para me fazer qualquer pergunta que possa ter e farei o possível para fornecer informações precisas e úteis.  Evandro Ruiz - Você pode me dizer, o que é o ChatGPT? ChatGPT: ChatGPT é um modelo de linguagem baseado em IA desenvolvido pela OpenAI. Ele usa técnicas avançadas de aprendizado profundo (N.E.: redes neurais profundas) para gerar texto semelhante ao humano com base na entrada que recebe. O ChatGPT foi treinado sob uma enorme quantidade de dados de texto, permitindo gerar respostas que são informativas, relevantes e, muitas vezes, bastante naturais. Algumas de suas aplicações populares incluem: chatbots de atendimento ao cliente, tradução de idiomas, resposta a perguntas e geração de conteúdo. O modelo pode ser usado para gerar texto em uma variedade de estilos e tons, tornando-se uma ferramenta versátil para uma ampla gama de usos. Evandro Ruiz - Você pode explicar o que é um modelo de linguagem? ChatGPT: Um modelo de linguagem é um tipo de modelo de inteligência artificial treinado para gerar texto. Baseia-se na ideia de que, dada uma grande quantidade de dados de texto, uma máquina pode aprender os padrões e estruturas da linguagem e usar esse conhecimento para gerar um novo texto semelhante em estilo e conteúdo à entrada em que foi treinada. Os modelos de linguagem podem ser usados para uma variedade de aplicações, incluindo tradução de linguagem, resposta a perguntas, análise de sentimento e geração de conteúdo. Eles funcionam prevendo a próxima palavra numa frase, considerando as palavras anteriores como entrada. A qualidade da saída gerada por um modelo de linguagem depende do tamanho e da qualidade dos dados nos quais ele foi treinado, bem como do design do próprio modelo. Modelos de linguagem como o ChatGPT usam técnicas de aprendizado profundo, como redes transformers (N.E.: transformers  são modelos de redes neurais profundas), para obter resultados de ponta em tarefas de geração de texto. Evandro Ruiz - Você foi aprovado no exame da ordem dos advogados dos EUA. Diga-me mais sobre isso. ChatGPT: Sinto muito, mas como um modelo de linguagem de IA desenvolvido pela OpenAI, não sou capaz de prestar vestibular ou ser aprovado como profissional do direito. Eu fui projetado para ajudar os usuários a gerar texto semelhante ao humano com base na entrada fornecida a mim. Um exame de bar é um teste padronizado exigido em muitos países, incluindo os Estados Unidos, para indivíduos que desejam exercer a advocacia e se tornar advogados licenciados. O exame da ordem normalmente testa o conhecimento do candidato sobre leis e regulamentos, bem como sua capacidade de aplicar esse conhecimento a situações jurídicas práticas. O formato e os requisitos específicos do exame da ordem variam de jurisdição para jurisdição. Se você precisar de mais informações sobre o exame da ordem ou qualquer outro tópico relacionado, ficarei feliz em responder às suas perguntas. (N.E.: Segundo o próprio ChatGPT "O ChatGPT foi treinado pela OpenAI em várias etapas ao longo de vários anos, com o treinamento inicial iniciado em 2018 e atualizações e melhorias posteriores feitas nos anos subsequentes. As datas e detalhes exatos de cada etapa de treinamento não são divulgados publicamente pela OpenAI. O limite de conhecimento para o ChatGPT é 2021, o que significa que ele foi treinado em dados até aquele momento". Assim sendo esta máquina ainda não foi informada sob sua aprovação no exame supracitado. O ChatGPT foi aprovado no exame da Wharton Business School, na Pensilvânia, Estados Unidos1) Evandro Ruiz - Mas você também foi submetido ao Exame de Licenciamento Médico dos Estados Unidos ChatGPT (USMLE). Como foi? ChatGPT: Como modelo de linguagem de inteligência artificial, não tenho experiências pessoais ou emoções, por isso não posso opinar sobre como o ChatGPT deveria ser submetido ao United States Medical Licensing Examination (USMLE) ou qualquer outro tipo de exame. No entanto, fui projetado e treinado para ser capaz de responder a perguntas relacionadas a vários tópicos, inclusive os abordados no USMLE, da melhor maneira possível, com base nas informações e padrões presentes nos dados sobre os quais fui treinado. (N.E.: O ChatGPT passou respondendo corretamente 60% do United States Medical Licensing Exam (USMLE)2).  Evandro Ruiz - Você foi aplicado para ajudar advogados e advogados? ChatGPT:  Sim, modelos de linguagem como o meu foram aplicados para auxiliar advogados e advogadas de diversas formas. Por exemplo, podemos ser usados para revisar e resumir automaticamente grandes volumes de documentos legais, identificar padrões e conexões entre casos e precedentes legais e até prever os resultados de casos legais com base em dados históricos. (N.E.: Notem a importância do precedente legal no common law, sistema jurídico dos EUA.) Os modelos de linguagem também podem ser usados para gerar documentos jurídicos, como contratos ou resumos, ou para auxiliar na pesquisa jurídica, pesquisando e analisando rapidamente grandes bancos de dados de informações jurídicas. Além disso, eles podem ser usados para analisar e extrair insights de mídias sociais e outras fontes online que possam ser relevantes para processos ou investigações legais. Evandro Ruiz -  Você poderia nos dar alguma referência para trabalhos práticos com advogados ou advogadas? ChatGPT: Certamente! Aqui estão alguns exemplos de como os modelos de linguagem têm sido usados em aplicações práticas para auxiliar advogados e advogadas: ROSS Intelligence: ROSS é uma plataforma de pesquisa jurídica com inteligência artificial que usa um modelo de linguagem para analisar documentos jurídicos e extrair informações relevantes. A plataforma foi projetada para ajudar os advogados a identificar e analisar rapidamente jurisprudência, estatutos e outros precedentes legais relevantes. (N.E.:3) Luminance: Luminance é uma plataforma de revisão de documentos baseada em IA que usa uma combinação de aprendizado de máquina e processamento de linguagem natural para analisar e categorizar documentos jurídicos. A plataforma foi projetada para ajudar os advogados a identificar e sinalizar rapidamente possíveis problemas ou inconsistências em grandes volumes de documentos jurídicos. (N.E.:4) CaseText: CaseText é uma plataforma de pesquisa jurídica baseada em IA que usa um modelo de linguagem para analisar e resumir casos jurídicos. A plataforma foi projetada para ajudar os advogados a identificar rapidamente os casos e precedentes legais mais relevantes e fornecer insights e análises sobre questões e tendências legais. (N.E.:5)  Estes são apenas alguns exemplos de como os modelos de linguagem foram aplicados no setor jurídico. À medida que a tecnologia continua a evoluir, podemos esperar ver cada vez mais aplicações para IA e modelos de linguagem no campo jurídico. Evandro Ruiz - Os exemplos de aplicações práticas para auxiliar advogados e advogadas devem ser muito caros para pequenos escritórios. Como um pequeno escritório poderia competir com escritórios que usam modelos de linguagem?  ChatGPT: Embora possa haver alguns custos iniciais associados à implementação de modelos de linguagem e IA em um escritório de advocacia, também há várias ferramentas disponíveis e acessíveis que podem ajudar pequenos escritórios a competir com empresas maiores. Aqui estão algumas estratégias que pequenos escritórios de advocacia podem considerar: Explore ferramentas e softwares baseados em nuvem: muitas ferramentas de IA e modelo de linguagem agora estão disponíveis como soluções baseadas em nuvem, que podem ser uma opção mais acessível para pequenos escritórios. Ao aproveitar as ferramentas baseadas em nuvem, os pequenos escritórios podem acessar os mesmos recursos poderosos de IA e modelo de linguagem que as empresas maiores, sem a necessidade de hardware ou infraestrutura caros. Comece pequeno e concentre-se em casos de uso específicos: em vez de tentar implementar modelos de linguagem e IA em toda a prática, os pequenos escritórios podem começar concentrando-se em casos de uso específicos em que essas tecnologias podem ser mais eficazes. Por exemplo, um pequeno escritório pode começar usando uma ferramenta de revisão de contrato com inteligência artificial para acelerar o processo de revisão ou usando um modelo de linguagem para auxiliar na pesquisa jurídica. Aproveite ferramentas e plataformas de código aberto: há várias plataformas e ferramentas de modelo de linguagem e IA de código aberto disponíveis que podem ser usadas para desenvolver soluções personalizadas para casos de uso específicos. Aproveitando as ferramentas de código aberto, os pequenos escritórios podem evitar os altos custos do software proprietário e podem trabalhar com desenvolvedores e comunidades para personalizar e refinar essas ferramentas para atender às suas necessidades específicas. Colabore com outros pequenos escritórios: Por fim, os pequenos escritórios podem considerar a colaboração com outras pequenas empresas para compartilhar recursos e experiência no desenvolvimento e implementação de modelos de linguagem e IA. Ao trabalharem juntos, os pequenos escritórios podem reunir seus recursos e conhecimentos e podem construir redes e parcerias que lhes permitam competir de forma mais eficaz com empresas maiores.  No geral, embora a implementação de modelos de linguagem e IA possa exigir algum investimento de tempo e recursos, há várias estratégias que pequenos escritórios de advocacia podem usar para competir com empresas maiores. Concentrando-se em casos de uso específicos, alavancando ferramentas acessíveis baseadas em nuvem e plataformas de código aberto e colaborando com outros pequenos escritórios, as pequenas empresas podem usar essas tecnologias para melhorar a eficiência, reduzir custos e fornecer melhores serviços aos clientes. Evandro Ruiz - Tenho um amigo próximo que trabalha com contratos. Você pode me dar um exemplo de como você poderia ajudar com contratos? ChatGPT: Certamente! Modelos de linguagem como eu podem ser usados para auxiliar em vários aspectos do trabalho contratado, como redação, revisão e resumo de contratos. Aqui estão alguns exemplos: Redação de contratos: modelos de linguagem podem ser usados para gerar rascunhos iniciais de contratos com base em critérios e modelos específicos. Por exemplo, um advogado pode fornecer ao modelo informações sobre as partes envolvidas, o escopo do contrato e outros detalhes relevantes, e o modelo pode gerar uma minuta de contrato com base nessas informações. Revisão de contrato: os modelos de linguagem podem ser usados para analisar e revisar contratos, sinalizando possíveis problemas ou áreas de preocupação. Por exemplo, o modelo pode identificar linguagem ambígua, possíveis conflitos com outros acordos ou cláusulas que precisam de mais esclarecimentos. Resumo do contrato: os modelos de linguagem podem ser usados para resumir automaticamente os principais termos e disposições dos contratos, tornando mais fácil para os advogados revisar e comparar vários acordos. O modelo pode identificar e extrair informações importantes, como condições de pagamento, garantias, cláusulas de rescisão e outras disposições importantes.  No geral, os modelos de linguagem podem ajudar advogados e profissionais contratados a trabalhar com mais eficiência e eficácia, automatizando tarefas de rotina e fornecendo informações e análises valiosas.  Evandro Ruiz -  Em um futuro próximo você se vê trabalhando como advogado ou juiz? ChatGPT: Como modelo de linguagem de inteligência artificial, não tenho desejos ou objetivos pessoais, nem sou capaz de tomar decisões ou agir no mundo físico. Minha função principal é processar e gerar linguagem humana em resposta à entrada do usuário. No entanto, é possível que modelos de linguagem como o meu possam ser usados no campo jurídico para auxiliar em tarefas como pesquisa jurídica, revisão de documentos e análise de casos e precedentes legais. É importante observar que o uso de IA e modelos de linguagem no campo jurídico ainda é relativamente novo, e as funções e aplicações específicas dessas tecnologias ainda estão sendo exploradas e desenvolvidas.  Evandro Ruiz -  Você se vê como um agente do desemprego?  ChatGPT: Como um modelo de linguagem de IA, sou uma ferramenta projetada para auxiliar em várias tarefas, e meu uso visa aumentar e aprimorar as capacidades humanas, não substituí-las. Embora minha capacidade de processar e gerar linguagem possa ajudar a automatizar certas tarefas, como entrada de dados ou revisão de documentos, não sou capaz de realizar tarefas que exijam julgamento humano, criatividade ou inteligência emocional. Em muitos casos, meu uso pode realmente liberar trabalhadores humanos para se concentrar em tarefas de nível superior que exigem essas qualidades. Em última análise, o impacto da IA e dos modelos de linguagem no mercado de trabalho dependerá de uma variedade de fatores, incluindo tarefas e setores específicos envolvidos, bem como tendências econômicas e sociais mais amplas. Evandro Ruiz - Considerando os avanços nos modelos de linguagem, qual é o seu conselho para os jovens que estudam direito hoje? ChatGPT: Como modelo de linguagem de IA, posso fornecer alguns conselhos gerais para jovens que estudam direito no cenário atual. Aqui estão algumas coisas a considerar: Desenvolva fortes habilidades analíticas e de pesquisa: à medida que os modelos de linguagem e IA se tornam mais prevalentes no setor jurídico, será cada vez mais importante que os advogados e profissionais jurídicos sejam capazes de usar e interpretar com eficácia os insights gerados por essas tecnologias. Desenvolver forte pesquisa e habilidades analíticas será essencial para isso. Mantenha-se atualizado com as tecnologias emergentes: à medida que os modelos de linguagem e IA continuam a evoluir, será importante que os profissionais jurídicos se mantenham informados sobre os novos desenvolvimentos e aplicações no campo. Isso pode envolver fazer cursos ou participar de conferências sobre tópicos como tecnologia jurídica ou análise de dados. Adote o pensamento interdisciplinar: O uso de IA e modelos de linguagem no campo jurídico provavelmente esbaterá as fronteiras tradicionais entre conhecimento jurídico e tecnológico. Advogados e profissionais jurídicos que são capazes de pensar e se comunicar de forma eficaz nesses domínios estarão bem posicionados para ter sucesso no futuro. Seja flexível e adaptável: como em qualquer campo, o setor jurídico está sujeito a mudanças e interrupções. Os profissionais jurídicos que são capazes de se adaptar às novas tecnologias e modelos de negócios estarão mais bem posicionados para prosperar em um cenário em rápida mudança.  No geral, meu conselho seria permanecer curioso, manter a mente aberta e permanecer envolvido com o cenário em evolução do setor jurídico.  Evandro Ruiz - Penúltima pergunta, como os sistemas jurídicos devem estar preparados para os avanços dos modelos linguísticos?  ChatGPT:  À medida que os modelos de linguagem e outras formas de inteligência artificial continuam avançando, será importante que os sistemas jurídicos se adaptem para enfrentar os novos desafios e oportunidades que essas tecnologias apresentam. Aqui estão algumas maneiras pelas quais os sistemas jurídicos podem se preparar para os avanços dos modelos linguísticos:  Desenvolva diretrizes e regulamentos éticos para o uso da IA: Os sistemas jurídicos podem ajudar a garantir que a IA e os modelos de linguagem sejam usados de maneira ética e consistente com as normas legais e sociais. Isso pode envolver o desenvolvimento de diretrizes ou regulamentos para o uso dessas tecnologias no setor jurídico, bem como em outros campos. Invista em treinamento e educação para profissionais jurídicos: os sistemas jurídicos podem ajudar a preparar profissionais jurídicos para o uso de IA e modelos de linguagem, fornecendo treinamento e educação sobre a tecnologia e seus aplicativos. Isso pode envolver o desenvolvimento de novos cursos ou programas focados em tecnologia jurídica, análise de dados ou outros tópicos relevantes. Enfrente os desafios legais e regulatórios relacionados à IA: à medida que os modelos de linguagem e IA se tornam mais predominantes no setor jurídico, podem surgir desafios legais e regulatórios. Os sistemas jurídicos podem ajudar a enfrentar esses desafios desenvolvendo novas leis ou regulamentos relacionados à IA e trabalhando para esclarecer como as leis existentes se aplicam aos modelos de linguagem e IA. Promover a colaboração entre especialistas jurídicos e tecnológicos: finalmente, os sistemas jurídicos podem se preparar para os avanços dos modelos de linguagem, promovendo a colaboração entre especialistas jurídicos e tecnológicos. Isso pode envolver a criação de oportunidades para treinamento ou pesquisa interdisciplinar, bem como a promoção da colaboração entre empresas jurídicas e de tecnologia para desenvolver novas aplicações de IA e modelos de linguagem no setor jurídico.  Em geral, adotando uma abordagem proativa e colaborativa para os avanços dos modelos linguísticos, os sistemas jurídicos podem ajudar a garantir que essas tecnologias sejam usadas de maneira a promover a equidade, a justiça e o estado de direito.  Evandro Ruiz - Você poderia dar algum conselho específico para o sistema jurídico brasileiro?  ChatGPT: Como modelo de linguagem de IA, não tenho conhecimento específico do sistema jurídico brasileiro, mas posso fornecer alguns conselhos gerais que podem ser aplicáveis: Mantenha-se informado sobre os novos desenvolvimentos em tecnologia jurídica: o uso de IA e modelos de linguagem no setor jurídico é uma tendência global, e o Brasil não é exceção. É importante que os profissionais do direito se mantenham informados sobre os novos desenvolvimentos e aplicações dessas tecnologias no ordenamento jurídico brasileiro. Isso pode envolver a participação em conferências, a leitura de blogs e publicações de tecnologia jurídica ou o envolvimento com comunidades de tecnologia jurídica no Brasil. Saiba como a IA e os modelos de linguagem estão sendo usados em outros sistemas jurídicos: Embora o sistema jurídico brasileiro possa ter suas próprias características únicas, pode haver lições a serem aprendidas de como a IA e os modelos de linguagem estão sendo usados em outros sistemas jurídicos ao redor do mundo . Ao se manter informado sobre as tendências globais, os profissionais jurídicos no Brasil podem estar mais bem equipados para antecipar o impacto potencial dessas tecnologias em seu próprio contexto. Participe de discussões sobre as implicações éticas da IA: à medida que a IA e os modelos de linguagem continuam a evoluir, haverá importantes questões éticas a serem consideradas sobre como essas tecnologias estão sendo usadas no setor jurídico. Profissionais jurídicos no Brasil podem contribuir com essas discussões compartilhando suas próprias perspectivas e engajando-se com outros membros da comunidade jurídica para desenvolver um entendimento compartilhado das implicações éticas dessas tecnologias. Defender políticas que promovam o uso responsável da IA: Finalmente, os profissionais jurídicos no Brasil podem ajudar a moldar o futuro da IA no setor jurídico, defendendo políticas que promovam o uso responsável dessas tecnologias. Isso pode envolver o trabalho com órgãos legais e reguladores no Brasil para desenvolver diretrizes ou regulamentos para o uso de IA no setor jurídico ou o envolvimento de empresas de tecnologia para desenvolver novos aplicativos de IA que se alinhem com as normas legais e éticas.  No geral, meu conselho para os profissionais jurídicos no Brasil seria se manterem informados, engajados e curiosos sobre o cenário em evolução da tecnologia jurídica e da IA. Ao trabalharem juntos para entender e moldar o impacto dessas tecnologias, os profissionais jurídicos no Brasil podem ajudar a garantir que o uso da IA no setor jurídico promova a equidade, a justiça e o estado de direito Evandro Ruiz - Muito obrigado pelo seu tempo e pelas respostas apropriadas ao nosso público. Espero entrevistá-lo novamente para Migalhas. ChatGPT:  Você é muito bem-vindo! Estou sempre aqui para ajudar e espero falar com você novamente no futuro.  Finalizando, enquanto alguns tentam ganhar tempo amparados na incapacidade do ChatGPT se comunicar em português, outros já se asseguraram que não demorará muito até essa máquina "falar" a nossa língua. __________ 1. ChatGPT: Robô de inteligência artificial é aprovado em prova de MBA nos EUA. Disponível aqui. Último acesso em 13 de fevereiro de 2023. 2. ChatGPT Passed a Major Medical Exam, but Just Barely. Disponível aqui. Último acesso em 13 de fevereiro de 2023. 3. Legal Tech Corner. Disponível aqui. Último acesso em 13 de fevereiro de 2023. 4. AI-Powered Legal Process Automation. Disponível aqui. Último acesso em 13 de fevereiro de 2023. 5. Modern search technology that finds cases Lexis and Westlaw miss. Disponível aqui. Último acesso em 13 de fevereiro de 2023.
Uma das principais preocupações sobre o tratamento de dados pessoais pelo Poder Público é com relação ao compartilhamento de dados pessoais entre os órgãos públicos e entre estes e entes privados. O maior receio é favorecer um estado supervigilante (Estado Leviatã) o que pode colocar em xeque as liberdades individuais. Por isso, a LGPD traz regras sobre o tema no Capítulo IV - Tratamento de Dados Pessoais pelo Poder Público (arts. 23 a 30). Assim, Stefano Rodotà1 aponta três paradoxos em torno do conceito de privacidade, a saber: o primeiro paradoxo consiste no fato de que as novas tecnologias favorecem um enriquecimento da esfera privada, mas, ao mesmo tempo, a fragiliza, e, consequentemente, tem-se um reforço da proteção à privacidade, simultaneamente ao alargamento da fronteira da privacidade; o segundo paradoxo está no fato de que a democracia impõe o respeito a crenças religiosas, opção sexual, opiniões políticas, no entanto, a legislação de proteção de dados tutela com maior rigor estes dados denominados "dados sensíveis";  e, por fim, o terceiro paradoxo em torno da privacidade é que o reforço da proteção deste direito é contemporâneo às leis de acesso à informação. Em suma, não são poucos os desafios para a efetiva tutela da privacidade, da vida privada e da intimidade. Justamente este último paradoxo impõe um diálogo intenso entre a Lei de Acesso à Informação (lei 12.527/2011) e a LGPD. Além disso, o governo digital incentivou uma intensa coleta de dados pessoais e o seu compartilhamento com diversos órgãos públicos. Por exemplo, a dinâmica do Governo Eletrônico, por meio do GovData, viabiliza uma série de benefícios tais como a possibilidade de identificação de desvios, fraudes e outras irregularidades; o aprimoramento de políticas públicas, potencializando sua aplicação com base em evidências; e a transparência de informações. Todavia para a consecução destes objetivos, busca-se democratizar o acesso à informação, ampliando a zona de interação entre os governos e os cidadãos, o que envolve um intenso tratamento de dados pessoais, desde a coleta até o compartilhamento de dados pessoais. Estas ferramentas do eGov também retratam o primeiro paradoxo mencionado acima, pois o desenvolvimento tecnológico viabilizou o uso de aplicações que compõe a dinâmica do Governo Eletrônico. Observe-se que originariamente, o revogado Decreto nº 8.789/2016 trouxe regras sobre o compartilhamento de bases de dados na Administração Pública federal. O referido decreto determinava a possibilidade/dever dos órgãos da Administração Pública federal, direta e indireta, e das entidades controladas direta e indiretamente pela União, a disponibilização de dados pessoais quando requisitadas (artigo 1º), privilegiando o compartilhamento destes dados preferencialmente de forma automática (artigo 3º). O que estaria flagrantemente na contramão de qualquer sistema de proteção de dados minimamente sólido. Como o Sistema Nacional para a Transformação Digital instituído pelo Decreto nº 9.319 de março de 2018, foi idealizado o sistema de big data analytics, na medida em que permite a acumulação de dados pessoais por tempo indeterminado. Todavia, alguns meses depois, a partir de agosto de 2018, com a promulgação da LGPD (lei 13.709), novos e importantes elementos foram trazidos ao tratamento de dados pelo Poder Público. Uma das balizas importantes é o próprio artigo 1º da Lei nº 13.709/18, isto é, o tratamento de dados pessoais consoante o sistema do GovData somente pode ocorrer com o objetivo de proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural. Esse dispositivo acaba por alterar a perspectiva com a qual os dados devem ser tratados por qualquer agente, inclusive pelos órgãos governamentais. Além deste limite, qualquer atividade de tratamento de dados deve observar as bases legais estabelecidas no art. 7º e art. 11 da LGPD. No âmbito da Administração Pública, destaca-se a base para o uso compartilhado de dados pessoais necessários à execução de políticas públicas previstas em leis e regulamentos ou contratos, convênios ou instrumentos congêneres (artigo 7º, inc. III, da LGPD e artigo 11, inc. II, "b", da LGPD). Neste contexto, o tratamento de dados pessoais não depende do consentimento do titular, que é outra base legal para o tratamento de dados pessoais (artigo 7º, inc. I, da LGPD). Após a LGPD, em outubro de 2019, o decreto 10.046, que revogou o Decreto nº 8.789/16, previu a governança no compartilhamento de dados no âmbito da Administração federal. Além disso, o atual Decreto instituiu o Cadastro Base do Cidadão e o Comitê Central de Governança de Dados, com o objetivo de facilitar o acesso dos brasileiros aos serviços governamentais. Nota-se que o Decreto nº 10.046 também autoriza o compartilhamento automático de dados pessoais entre órgãos e entidades e amplia ainda mais a variedade de dados pessoais que seriam tratados pelo Estado, no exercício de políticas públicas. Em março de 2021, a lei 14.129, que dispõe sobre princípios, regras e instrumentos do governo digital para o aumento da eficiência pública, permite o compartilhamento de dados como um fundamento do governo digital e da eficiência pública (artigo 3º, inc. IX). A maior dificuldade para a eficiência na Administração Pública neste contexto tecnológico é a interoperabilidade de sistemas (artigo 3º, inc. XIV, da lei 14.129/21), isto porque um dado compartilhado será mais útil quanto maior a interoperabilidade que permita o órgão público utilizar tais informações. Neste sentido, o art. 25 da LGPD determina: "Art. 25. Os dados deverão ser mantidos em formato interoperável e estruturado para o uso compartilhado, com vistas à execução de políticas públicas, à prestação de serviços públicos, à descentralização da atividade pública e à disseminação e ao acesso das informações pelo público em geral." A LGPD não proíbe o compartilhamento de dados de maneira absoluta e nem aniquila a possibilidade de a Administração Pública utilizar dados pessoais de cidadãos. Entretanto, estabelece direitos e garantias para que tais informações sejam utilizadas para a finalidade estabelecida em lei ou com base em políticas públicas, respeitando os direitos assegurados aos titulares de dados. Portanto é equivocado pensar que um dado pessoal inserido em cadastro mantido por órgão da Administração Pública passa a ser público e, consequentemente, alheio à sistemática de proteção de dados. Ao contrário, a própria LGPD estabelece a proteção de dados pessoais tanto na esfera pública quanto na esfera privada. Preliminarmente, deve-se considerar que a LGPD traz o conceito de "uso compartilhado de dados" no inc. XVI do art. 5º: "comunicação, difusão, transferência internacional, interconexão de dados pessoais ou tratamento compartilhado de bancos de dados pessoais por órgãos e entidades públicos no cumprimento de suas competências legais, ou entre esses e entes privados, reciprocamente, com autorização específica, para uma ou mais modalidades de tratamento permitidas por esses entes públicos, ou entre entes privados;" A partir dessa definição, conclui-se que são dois os pressupostos para o compartilhamento de dados pela Administração Pública, a saber: 1) cumprimento de suas competências legais; e 2) autorização específica para realizar tal compartilhamento. A doutrina é uníssona ao afirmar que o tratamento de dados pessoais pelo Poder Público deve atender a uma finalidade pública, a persecução do interesse público e o desempenho de suas atribuições.2 Exemplo, no contexto da COVID-19, a Portaria de n. 1.046 do Ministério da Saúde, de 24/05/2021, determinou que os resultados referentes à COVID-19 devem ser notificados às autoridades responsáveis de forma compulsória, por meio de transmissão eletrônica de informações à Rede Nacional de Dados em Saúde (RNDS), de Responsabilidade do Departamento de Informática do Sistema Único de Saúde (DATASUS/SE/MS). Tal uso compartilhado de dados pessoais (dados sensíveis, pois se relaciona à saúde), justifica-se pela atribuição legal prevista na referida portaria. E, portanto, tem uma autorização legal para realizar tal compartilhamento de dados. Destaca-se, ainda, que no caso, tal comunicação, pretende atingir uma finalidade pública, qual seja, monitorar em nível nacional, as taxas de contágio da doença; além de persecução do interesse público. Neste caso, tal medida independe de consentimento do titular de dados pessoais, porque tem outra base legal que justifique, que é a Portaria Ministerial n. 1.046, bem como a necessidade para o embasamento de políticas públicas (art. 7º, incisos II e III, respectivamente). Portanto, a própria LGPD reforça a dispensa do consentimento, o que não exclui o respeito ao direito à informação sobre o uso compartilhado do titular de dados pessoais (art. 18, inc. VII da LGPD). Outra hipótese que deve ser vista com cautela é o compartilhamento de dados entre órgãos da Administração Pública e entes privados, pois somente pode ocorrer nas hipóteses previstas na lei, isto é, execução descentralizada de atividades públicas; informações acessíveis publicamente; quando houver previsão legal, contrato ou convênio que respalde o uso compartilhado; ou para salvaguardar a vida do titular de dados, não podendo o dado pessoal ser utilizado para outras finalidades. Neste sentido, o art. 26 da LGPD traz as regras específicas para o uso compartilhado de informações entre órgãos públicos e entes privados. Além dos pressupostos para o uso compartilhado de dados pessoais, deve-se demonstrar o atendimento a determinados requisitos. O art. 25 da LGPD traz importantes requisitos que devem ser observados no uso compartilhado de dados pessoais, in verbis: "Art. 25. Os dados deverão ser mantidos em formato interoperável e estruturado para o uso compartilhado, com vistas à execução de políticas públicas, à prestação de serviços públicos, à descentralização da atividade pública e à disseminação e ao acesso das informações pelo público em geral." O primeiro diz respeito ao formato, ou seja, as informações devem estar em formato interoperável e estruturado para que possa ser efetivamente útil pelos demais órgãos públicos. Interoperabilidade requer o funcionamento de diferentes sistemas e ferramentas, que podem atuar conjuntamente. Portanto, a importância está no fato de que a interoperabilidade contribui para o desenvolvimento de projetos, bem como na troca de informações entre diferentes sistemas e ferramentas. Cabe à ANPD dispor sobre os padrões de interoperabilidade para fins de exercício dos direitos previstos na LGPD, como o direito à portabilidade, ao livre acesso e segurança dos dados pessoais. Há quatro tipos de interoperabilidade, a saber: - técnica ou tecnológica, que se aplica à conexão dos sistemas e serviços de informática, ou seja, as especificações de interface, serviços de interconexão, de integração de dados, apresentação com troca de dados e protocolos de comunicação seguros (COMISSÃO EUROPEIA, 2004); - semântica, ou seja, que a informação compartilhada seja compreensível para que sejam preservados e compreendidos ao longo das trocas entre as partes; - organizacional, isto é, relacionada ao modelo de negócios, para que a Administração Pública alinhe seus processos de negócios, responsabilidades e expectativas para alcançar objetivos; - legal, sendo este o elemento agregador para a promoção e regulação destes artefatos utilizados pela Administração Pública. Por fim, outro requisito tão importante quanto a interoperabilidade é a comunicação sobre o uso compartilhado de dados pessoais à ANPD e ao titular de dados pessoais. A comunicação ao titular de dados pessoais é um direito assegurado no inc. VII do art. 18 da LGPD. Já a comunicação à ANPD deve-se ao fato de que compete a este órgão a fiscalização sobre o cumprimento da LGPD nos termos do art. 29 da LGPD: "Art. 29. A autoridade nacional poderá solicitar, a qualquer momento, aos órgãos e às entidades do poder público a realização de operações de tratamento de dados pessoais, informações específicas sobre o âmbito e a natureza dos dados e outros detalhes do tratamento realizado e poderá emitir parecer técnico complementar para garantir o cumprimento desta lei."      Portanto, a ANPD pode solicitar a qualquer momento informações sobre o uso compartilhado de dados pessoais, em especial sobre o âmbito e a natureza dos dados pessoais, além de detalhes relevantes para embasar o parecer técnico da ANPD. A ANPD pode, ainda, regulamentar o uso compartilhado de dados pessoais pela Administração Pública nos termos do art. 30 da LGPD: "Art. 30. A autoridade nacional poderá estabelecer normas complementares para as atividades de comunicação e de uso compartilhado de dados pessoais." Diante de tudo cabe a pertinente reflexão sobre a atuação independente da ANPD diante deste contexto, pois cabe a ela regular e fiscalizar o tratamento de dados pessoais pelo Poder Público, por isso os principais diplomas internacionais sobre proteção de dados pessoais destacam a atuação independente do órgão.3 __________ 1 RODOTÀ, Stefano. Privacy e costruzione della sfera privata. Ipotesi e prospettive. In: Politica del Diritto, ano XXII, número 1, pp. 521 - 546. Bologna: Il Mulino, março de 1991. pp. 524 - 526. 2 TEIVE, Marcello Muller. O compartilhamento de dados pessoais oriundos de bases de dados públicas: a compatibilidade entre a LAI e a LGPD. In: FRANCOSKI, Denise de Souza Luiz; TASSO, Fernando Antonio. (coord.) A Lei Geral de Proteção de Dados Pessoais: aspectos práticos e teóricos relevantes no setor público e privado. São Paulo: Revista dos Tribunais, 2021. pp. 427 - 440. p. 433. 3 LIMA, Cíntia Rosa Pereira de. Autoridade Nacional de Proteção de Dados e a Efetividade da Lei Geral de Proteção de Dados. São Paulo: Almedina, 2020.
A proteção de dados pessoais, no Brasil, ainda exige respeito e concreção. Não há como existir a inserção do país, no cenário globalizante da sociedade informacional e do comércio eletrônico, sem a especial atenção e o necessário investimento na tutela jurídica da privacidade e da proteção de dados pessoais dos cidadãos. A necessidade dessa tutela, em grande parte, passa por uma conscientização da população e do Estado sobre essa prática. É preciso, por essa razão, trazer como premissa a afirmação de que, sem a tutela jurídica da privacidade e da proteção de dados pessoais, o desenvolvimento tecnológico traz o risco do tratamento dos cidadãos como um livro aberto - ou, nas palavras do jurista e filósofo italiano, Stefano Rodotà, como homens-de-vidro ("l'uomini di vetro"), a partir dos quais o Estado e os grandes "players" do setor privado teriam acesso a todas as suas informações, de modo a influenciá-los e a personalizá-los segundo os seus próprios interesses - de maneira, portanto, a desnaturar o livre-arbítrio de cada um: "o homem-de-vidro é uma metáfora totalitária porque, enredando-se em uma fachada de homenagem às virtudes cívicas, na realidade deixa o cidadão indefeso face a quem queira obter qualquer informação que lhe diga respeito"1. Esse risco, nesse sentido, muitas vezes não é percebido pela população, e, diante desse cenário, a tutela jurídica da privacidade e da proteção de dados pessoais não pode ser tratada como uma discussão secundária - deve, em verdade, ser uma discussão de primeira ordem, tendo-se em vista a sua imprescindibilidade ao desenvolvimento ético da humanidade e de suas tecnologias. É dever do Estado, por essa razão, proteger os cidadãos dessa vitrificação - tanto diante do próprio Estado, quanto diante dos grandes outros "players" da sociedade. No âmbito nacional, juridicamente, a Emenda Constitucional nº 115, de 10 de fevereiro de 20222, trouxe, de forma expressa, a proteção de dados pessoais como um direito fundamental (art. 5º, inc. LXXIX). Também nacionalmente, tem-se a Lei Geral de Proteção de Dados Pessoais (LGPD)3 a nortear, de modo geral, toda a discussão tratada inicialmente. Porém, além disso, a fim de que haja a concreção desse direito fundamental na vida do dia a dia dos cidadãos, é preciso que todas as estruturas do país estejam engajadas na consecução desse fim. É com essa direção que, para além da União, também os Estados, o Distrito Federal e os Municípios - terras nas quais vivem, de fato, os cidadãos - devem trazer esse direito fundamental como vetor de suas respectivas atuações - no âmbito de seus respectivos Poderes. É, assim, também com esse intuito, que o Poder Executivo do Município de São Paulo, por meio de sua Controladoria Geral do Município (CGM/SP), traz, de modo a subsidiar a tutela jurídica desse direito fundamental no âmbito do Município de São Paulo, e de modo complementar à atuação da Autoridade Nacional de Proteção de Dados (ANPD), de orientações aos agentes públicos do Poder Executivo do Município a fim de tratarem a proteção de dados pessoais como norte de toda a sua atuação. O Poder Executivo do Município de São Paulo, por meio do decreto municipal nº 59.767, de 15 de setembro de 20204, regulamentou a aplicação da LGPD em sua estrutura. O decreto municipal previu, por seu art. 5º, a designação de Encarregado pela Proteção de Dados Pessoais da Prefeitura do Município ao seu Controlador Geral. Além disso, dispôs-lhe de suas atribuições por seu art. 6º. Dentre essas atribuições, estão a de orientar os agentes públicos do Poder Executivo sobre as melhores práticas à proteção de dados pessoais e a de trazer diretrizes à implementação do Programa de Governança em Privacidade e em Proteção de Dados Pessoais do próprio Poder Executivo. Nesse sentido, em 21 de julho de 2022, o Encarregado pela Proteção de Dados Pessoais editou a Instrução Normativa nº 01/2022, da Controladoria Geral do Município de São Paulo (CGM/SP)5, que iniciou um processo de estruturação do Programa de Governança, de modo a trazer padrões à realização, por todos os órgãos e as entidades da Administração Pública do Município, de "Registros das Operações de Tratamento de Dados Pessoais" e de "Relatórios de Impacto à Proteção de Dados Pessoais". Em seguida, em 13 de janeiro de 2023, de maneira a sistematizar os procedimentos à estruturação desse Programa de Governança, editou a Instrução Normativa nº 01/2023, também da Controladoria Geral do Município de São Paulo (CGM/SP)6, que possibilitou a elaboração, por parte do órgão de controle interno, de Guias Orientativos, aos órgãos e as entidades da Administração Pública do Município, que objetivam, justamente, orientar os agentes públicos sobre os procedimentos necessários à realização do Programa de Governança. Na mesma data, foi, também, aprovada a publicação, pelo órgão de controle interno, de seu "Guia Orientativo sobre a Privacidade e a Proteção de Dados Pessoais para a Administração Pública do Município de São Paulo"7 e de seu "Guia Orientativo sobre a Instrução Normativa CGM/SP nº 01/2022 para a Administração Pública do Município de São Paulo"8. O "Guia Orientativo sobre a Privacidade e a Proteção de Dados Pessoais para a Administração Pública do Município de São Paulo" constitui-se como um conjunto de diretrizes destinadas à orientação de todos os agentes públicos do Poder Executivo Municipal sobre os direitos fundamentais à privacidade e à proteção de dados pessoais e sobre como esses direitos afetam a sua atuação no âmbito da Administração Pública do Município. O "Guia Orientativo sobre a Instrução Normativa CGM/SP nº 01/2022 para a Administração Pública do Município de São Paulo", por sua vez, constitui-se, também, como um conjunto de diretrizes, mas que objetiva orientar os agentes públicos do Poder Executivo do Município que estão a estruturar, no âmbito de cada órgão e de cada entidade da Administração Pública Municipal, o seu Programa de Governança em Privacidade e em Proteção de Dados Pessoais. Para tanto, disponibiliza passo a passo para a implementação de práticas como "Mapeamento de Processos", "Registro das Operações de Tratamento de Dados Pessoais", "Gestão de Riscos à Segurança da Informação, à Privacidade e à Proteção de Dados Pessoais" e "Relatório de Impacto à Proteção de Dados Pessoais". Esse Guia Orientativo traz, assim, a pedra angular à estruturação de uma governança que demarque como esses direitos dos cidadãos devem ser efetivados no âmbito do Poder Executivo do Município de São Paulo. A elaboração desse conjunto de diretrizes é um projeto inédito no âmbito dos Municípios brasileiros, que objetiva não apenas nortear o Poder Executivo do Município de São Paulo em seu processo de absorção de uma hígida cultura em privacidade e em proteção de dados pessoais no cerne de sua atuação, mas também subsidiar outros Municípios no estabelecimento de melhores práticas à garantia desse direito fundamental. As diretrizes, é claro, devem ser vistas de modo complementar à atuação da Autoridade Nacional de Proteção de Dados (ANPD), que é o órgão vértice sobre a matéria no país, e de maneira contextualizada à realidade local de cada Município - como já trazido, em outra oportunidade: "Municípios, uma brasilidade federativa, são entes com contextos muito variados: entre Serra da Saudade, Minas Gerais, o menos habitado do Brasil, e São Paulo, a 'Pauliceia Desvairada', de Mário de Andrade, não há como serem as políticas públicas tratadas como blocos de construção HTML, já pré-fabricadas e prontas a serem implementadas pelos agentes públicos."9 __________ 1 Para Rodotà, ipsis litteris: "'L'uomo di vetro' è metafora totalitaria perché, reso un omaggio di facciata alle virtù civiche, nella realtà lascia il cittadino inerme di fronte a chiunque voglia impadronirsi di qualsiasi informazione che lo riguardi". RODOTÀ, Stefano.  Relazione annuale 1997. Prefazione. Roma, Itália, Garante per la Protezione dei Dati Personali, 30 abril 1998. Disponível aqui. Acesso em: 25 jan. 2023. 2 BRASIL. Emenda Constitucional nº 115, de 10 de fevereiro de 2022. Altera a Constituição Federal para incluir a proteção de dados pessoais entre os direitos e garantias fundamentais e para fixar a competência privativa da União para legislar sobre proteção e tratamento de dados pessoais. Brasília, Diário Oficial da União, 11 fev. 2022. Disponível aqui. Acesso em: 25 jan. 2023. 3 BRASIL. Lei Federal nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, Diário Oficial da União, 15 de agosto de 2018. Disponível aqui. Acesso em: 25 jan. 2023. 4 SÃO PAULO (Cidade). Decreto Municipal no 59.767, de 15 de setembro de 2020. Regulamenta a aplicação da Lei Federal no 13.709, de 14 de agosto de 2018 - Lei Geral de Proteção de Dados Pessoais (LGPD) - no âmbito da Administração Municipal direta e indireta. São Paulo, Diário Oficial da Cidade de São Paulo, 15 de setembro de 2020. Disponível aqui. Acesso em: 25 jan. 2023. 5 SÃO PAULO (Cidade). Instrução Normativa CGM/SP nº 01, de 21 de julho de 2022. Estabelece disposições referentes ao tratamento de dados pessoais no âmbito da Administração Pública Municipal de São Paulo. São Paulo, Diário Oficial da Cidade, 22 de julho de 2022. Disponível aqui. Acesso em: 23 jan. 2023. 6 SÃO PAULO (Cidade). Instrução Normativa CGM/SP nº 01, de 13 de janeiro de 2023. Altera a Instrução Normativa Controladoria Geral do Município - CGM nº 01, de 21 de julho de 2022, que estabelece disposições referentes ao tratamento de dados pessoais no âmbito da Administração Pública Municipal de São Paulo. Disponível aqui. Acesso em: 25 jan. 2023. 7 SÃO PAULO (Cidade). Controladoria Geral do Município de São Paulo (CGM/SP). Guia Orientativo sobre a Privacidade e a Proteção de Dados Pessoais para a Administração Pública do Município de São Paulo. São Paulo, Controladoria Geral do Município de São Paulo (CGM/SP), 26 jan. 2023. Disponível aqui. Acesso em: 26 jan. 2023. 8 SÃO PAULO (Cidade). Controladoria Geral do Município de São Paulo (CGM/SP). Guia Orientativo sobre a Instrução Normativa CGM/SP nº 01/2022 para a Administração Pública do Município de São Paulo. São Paulo, Controladoria Geral do Município de São Paulo (CGM/SP), 26 jan. 2023. Disponível aqui. Acesso em: 26 jan. 2023. 9 FALCÃO, Daniel; PEROLI, Kelvin. São Paulo, 22 de julho de 2022: As novas abordagens da proteção de dados pessoais no âmbito da Administração Pública Municipal. Migalhas, 22 jul. 2022. Disponível aqui. Acesso em: 25 jan. 2023.
Finalidade e aplicação do Digital Markets Act na Europa Ratificado pelo Conselho da UE em 18 de julho de 2022, o Digital Markets Act - em seu acrônimo, "DMA" - figura como conjunto normativo que pretende regular a competitividade no mercado digital, impactando, principalmente, empresas de tecnologia que concentram grandes fatias do setor em prol do fomento à entrada de novos players no mercado digital. Sua aplicação tem como fim os gatekeepers de core platform services, isto é, as empresas cujo controle de serviços centrais viabilizam operações no mercado digital, tais como redes sociais, navegadores de internet ou mesmo plataformas de e-commerce e marketplace1. As empresas gatekeepers são assim qualificadas quando satisfazem uma tríade de elementos a partir de critérios de presunção. Em suma, a Comissão Europeia considera que, quando uma empresa i) presta seu core platform service (serviço central) em pelo menos três Estados Membros da UE, ii) apresenta um volume de negócio igual ou superior a ?7,5 bilhões em cada um dos três últimos exercícios fiscais ou como capitalização média no último exercício fiscal, e iii) reúne na UE, cumulativamente, em seu core platform service, ao menos 45 milhões de usuários finais ativos ao mês e 10 mil empresas ativas ao ano, também em seu último exercício fiscal, deverá comunicar seu status em dois meses (contados a partir de maio de 2023), pois a Comissão Europeia a considerará uma gatekeeper por satisfazer a tríade de elementos supramencionada, que consiste no fato de a empresa i) impactar significativamente o mercado europeu, ii) fornecer um core platform service que atua como intermediário entre usuários finais e empresas, e iii) usufruir de posição consolidada e duradoura em suas operações na atualidade ou, previsivelmente, em futuro próximo. Em razão da presunção fática de que os gatekeepers são players de relevante poder de mercado - e, portanto, de considerável influência no enviesamento socioeconômico nacional - o DMA figura como uma regulação prévia (ex ante) intimamente relacionada com o GDPR, dada a proibição sobre a combinação dos dados pessoais de usuários finais coletados a partir do core platform service com dados pessoais de outros serviços, ainda que ambos pertençam ao mesmo gatekeeper, ou mesmo com dados pessoais de serviços de terceiros. No entanto, há uma exceção a essa vedação, que se dá pela obtenção - apenas uma vez por ano - do consentimento do titular de acordo com as práticas reguladas pelo GDPR. A justificativa presente no texto do DMA para essa proibição se fundamenta com base no GDPR ao embargar a utilização do legítimo interesse e da execução de contrato pelos gatekeepers em prol da combinação ou do cross-using de dados pessoais coletados em diferentes serviços. Ainda, também há vedação em outras hipóteses, tais quais i) quando a inscrição automática de usuários finais em serviços distintos de um mesmo gatekeeper finda a combinação de dados pessoais, ii) quando dados pessoais são coletados por gatekeepers por meio de empresas que operam sem seu core platform service - salvo em hipóteses em que houver consentimento ou quando bases legais do GDPR forem aplicáveis, excluídos o legítimo interesse e a execução de contrato - para utilização em propagandas, iii) quando gatekeepers visam a reter dados em prejuízo de outras empresas que operam em suas plataformas, iv) quando gatekeepers se utilizam de dados - que não sejam públicos ou fornecidos a partir de outras empresas que também operam em seu core platform service - com o intuito de obter vantagem competitiva. As sanções pelo descumprimento intencional ou negligente variam de 4% a 20% do volume global de negócios do último exercício fiscal da empresa, a depender do grau quantitativo de reincidência sistêmica apresentada em determinada infração. O PL 2.768/2020: outro projeto brasileiro de regulação oriundo da experiência europeia Em relação à adaptação do debate europeu à realidade brasileira, há que se compreender a proposta europeia para regulação de mercados digitais visando à capacitação da sociedade civil brasileira em relação à complementaridade existente entre a regulação de mercados digitais e as abordagens antitruste2. Nessa toada, tramita atualmente na Câmara dos Deputados o PL 2.768/2022, a proposta de uma regulação das plataformas digitais atuantes no Brasil, consideravelmente influenciada pela regulação concorrencial proposta pelo DMA. O PL justifica tal regulação no contexto brasileiro a partir das mesmas premissas trazidas pelo DMA na UE - proteção da ampla concorrência pela promoção da equidade entre players consolidados e empresas embrionárias no mercado digital. As Big Techs, por exemplo, serão amplamente afetadas, tendo em vista a atuação permissiva nas últimas décadas em relação a concentrações de mercado3 conforme relatório do Congresso Americano RCA de 2020 organizado pela Federal Trade Commission (FTC)4. Apesar da própria redação do PL apontar para uma implementação de uma regulação inspirada nas pretensões da Comissão Europeia, apresenta restrições "bem menos detalhadas", sendo focada na mitigação do controle de acesso essencial em plataformas digitais. Ainda, o PL optou por não criar nova autoridade reguladora para tanto, propondo a "reciclagem" do maturidade e do know-how da Anatel, atribuindo a ela, por meio da criação do FisDigi (Fundo de Fiscalização das Plataformas Digitais), a competência de aplicar sanções que vão desde meras advertências até multa de 2% do faturamento total da empresa no último exercício fiscal - em contraste com os 20% de máximo de multa determinados pelo DMA. O texto do PL resguarda, também, as competências do CADE no que tange ao controle de atos de concentração econômica que envolvam plataformas digitais. Sem dúvidas o DMA evidencia uma relevante guinada na mentalidade dos reguladores, podendo ser interpretado como uma aposta heterodoxa nas estratégias regulatórias que, certamente, influenciará a dinâmica legislativa na América Latina nos anos vindouros, como já foi observado nos últimos anos em relação aos movimentos normativos brasileiros para a regulação do tratamento de dados pessoais e do uso de AI - powered systems paralelamente à experiência europeia e norteamericana. __________ 1 Disponível aqui . Acesso em 26 de dezembro de 2022. 2 Disponível aqui. Acesso em 26 de dezembro de 2022. 3 Wu,T.: "The Curse of Bigness". Antitrust in the New Gilded Age. Columbia Global Reports. 4 Disponível aqui. Acesso em 26 de dezembro de 2022.
Os Acordos de Assistência Mútua (Mutual Legal Assistance Treaties - MLAT) são instrumentos importantíssimos para a efetivação transfronteiriça da proteção de dados pessoais. Sua utilização tem sido amplamente desejada para cenários nos quais se almeja o acesso a dados armazenados em provedores situados no exterior, ou mesmo o compartilhamento desses dados para finalidades diversas, geralmente relacionadas à persecução penal. Tais acordos também são relevantes para que autoridades brasileiras possam colaborar com autoridades estrangeiras mediante o compartilhamento de dados mantidos em bases brasileiras, destacadamente para a obtenção de provas. Porém, a constitucionalidade dos referidos acordos não é tema pacífico e, por isso, a Ação Declaratória de Constitucionalidade n. 51 segue em julgamento perante o Supremo Tribunal Federal. O assunto sempre foi polêmico, mas tomou corpo com a ascensão das mídias sociais e das redes de relacionamento social, suscitando dúvidas, por exemplo, quanto à necessidade ou não de que o provedor estrangeiro tenha filial no Brasil, ou quanto à aferição do local de onde se originou a conexão à internet, o que desvela problemas de jurisdição a serem solucionados pelo direito internacional1, uma vez que se questiona os limites do princípio geral de aderência ao território para a solução de disputas nas quais a jurisdição brasileira seja acionada para compelir unilateralmente empresas estrangeiras a viabilizarem o acesso a dados armazenados em seus servidores2. Para além disso, resta saber se a constitucionalidade dos acordos MLAT é suficiente para solver todas as dúvidas existentes em relação ao tema da transferência internacional de dados, que foi tutelado no Capítulo V da Lei Geral de Proteção de Dados Pessoais (arts. 33 a 36), haja vista as preocupações com a morosidade do procedimento atrelado a tais acordos e uma suposta ineficácia de sua utilização.  A Ação Declaratória de Constitucionalidade 51: breve panorama  Em 2017, a Federação das Associações das Empresas de Tecnologia da Informação (Assespro Nacional) ajuizou a Ação Declaratória de Constitucionalidade n. 51. Nela, pretende-se validar dispositivos de cooperação internacional referentes à obtenção de conteúdo de comunicação privada sob controle de provedores de aplicação sediados no exterior3. O argumento central da demanda é o de que, já à época, diversos tribunais brasileiros requisitavam informações a pessoas jurídicas brasileiras que eram afiliadas ao provedor estrangeiro, deixando de aplicar os instrumentos de assistência judiciária internacional utilizados habitualmente nas requisições de provas sobre pessoas e bens situados fora do país pela via da carta rogatória à autoridade estrangeira4. Todavia, na ação, manifestando o receio de que as solicitações vertidas de forma direta às afiliadas locais desses provedores acabariam resultando em relutância ou omissões quanto à entrega de eventuais dados solicitados, a Assespro Nacional explicitou suas razões para asseverar que eventual afronta à soberania nacional poderia ocorrer por inobservância de comando emanado do Judiciário brasileiro. Para a Assespro Nacional, noutras palavras, requisições dessa estirpe direcionadas a representantes brasileiros representariam "declaração branca de inconstitucionalidade" de normas já internalizadas, como o Decreto Federal nº 3.810, de 2 de maio de 2001, que promulgou o Acordo de Assistência Judiciário-Penal entre o governo da República Federativa do Brasil e o governo dos Estados Unidos da América, e também o artigo 237, inciso II, do Código de Processo Civil5, além dos artigos 780 e 783 do Código de Processo Penal. O citado acordo e as normas processuais listadas viabilizam a obtenção de provas6 de materialidade e autoria de crimes cibernéticos, e por isso é tão importante o debate travado na ADC 517, denotando a amplitude da pretensão de reafirmar a constitucionalidade dos procedimentos de cooperação jurídica internacional, conciliando a soberania brasileira e a dos Estados estrangeiros. É inegável que eventuais manifestações expressadas na internet podem ocorrer, basicamente, de qualquer lugar. A ubiquidade da rede torna possível a qualquer pessoa, de qualquer região do mundo, lançar conteúdos na internet com projeção mundial praticamente instantânea e repercussões absolutamente variadas. Isso faz com que, embora determinado conteúdo esteja disponível na própria rede e possa ser acessado em quase qualquer país do mundo, dificilmente se terá condições ou mesmo interesse em inibir a veiculação do que for invasivo, intrusivo ou ilícito, por exemplo. Relembrando o julgamento do RMS 55.109, de relatoria do Ministro Reynaldo Soares da Fonseca, em 17 de novembro de 2017, Ana Lara Camargo de Castro comenta que "o Superior Tribunal de Justiça tem reiteradamente afirmado que empresa ou conglomerado transnacional sujeita-se à soberania brasileira, em cumprimento ao artigo 1º, I, da Constituição Federal, sendo, pois, desnecessária a cooperação internacional em caso de ordem judicial"8. Evidentemente, não se trata de um julgado isolado9, o que reafirma a pujança do debate em torno da viabilidade dos acordos MLAT para que se possa aclarar o campo de incidência da cooperação internacional para temas relativos à internet, mesmo com suas peculiaridades e idiossincrasias. Para fins de investigação em matéria penal, não há dúvidas de que a existência de um acordo de assistência mútua firmado entre Brasil e Estados Unidos da América facilita o intercâmbio informacional e o deslinde de eventual investigação. Não obstante, o lançamento de conteúdos na internet, seu armazenamento e o próprio fluxo de dados ultrapassa os limites definidos pelos dois países em questão para a cooperação bilateral estipulada. Importante audiência pública foi realizada, no início de 2020, com especialistas da sociedade civil e representantes de diversos órgãos públicos, para discutir e esclarecer o controle de dados de usuários por provedores sediados no exterior10. É importante frisar que o artigo 33 da LGPD inaugura tema de especial relevância para a compreensão dos impactos da proteção transfronteiriça de dados pessoais. Sem dúvidas, a sociedade da informação passa por seu apogeu em tempos nos quais as relações jurídicas são realizadas com maior pujança e inegável participação de empresas sediadas em diversas localidades do exterior. As atividades de tratamento de dados, da mesma forma, envolvem a circulação de dados, aparentemente, sem controle fronteiriço ou clareza de jurisdição11. Não é incomum que empresas tratem dados que percorram servidores variados, situados em diferentes países e regidos por legislações diferentes. Nesse contexto, a compreensão da própria internet como substrato resultante do conjunto global de redes de computadores que funcionam de maneira interoperável e dinâmica impõe considerar que não há controle absoluto da rede por nenhum governo. Não é por outra razão que é tão debatida a ideia de consideração da internet como commons12. Fato é que a afirmação soberana de um Estado envolve seu labor legislativo e a edição de marcos regulatórios para suas competências materiais. Naturalmente, a proliferação de leis protetivas dos dados pessoais por todo o globo reflete desafios jurídicos inegáveis quanto à proteção de direitos no contexto das atividades de compartilhamento informacional - e não é diferente no Brasil.  O compartilhamento de dados armazenados no exterior É de amplo conhecimento que a LGPD brasileira, promulgada em 14 de agosto de 2018, tem sua inspiração no Regulamento (EU) 2016/679 - o Regulamento Geral sobre a Proteção de Dados (RGPD) da União Europeia -, que entrou em efeito a partir de maio de 2018. Na Europa, o referido regulamento trata, dentre outros, de temas concernentes à circulação de dados oriundos de seu território no ambiente internacional. Questões como as decisões sobre adequação, os compromissos assumidos pelo controlador para viabilizar a transferência internacional, além de outras hipóteses, constam expressamente de seu texto e impõem especificidades para o fluxo transfronteiriço de dados pessoais. Também vale a pena destacar que "mais explícito ainda é o Regulamento (UE) 2018/1807, de 14 de novembro de 2018, relativo a um regime para o livre fluxo de dados não pessoais na União Europeia, o qual complementa o RGPD. Este, além de distinguir "dados pessoais" de "dados não pessoais" e de restringir a sua aplicação a estes, incluindo as situações em que ambos "estejam indissociavelmente ligados", reitera a imperatividade dos regimes de proteção dos dados pessoais (Art.ºs 2.º n.º 2 e 3.º 1)"13. Na LGPD, o tema também encontra previsão específica. O artigo 5º, inciso XV, conceitua a transferência internacional como a transferência de dados para um país estrangeiro ou organismo internacional do qual o Brasil seja membro14. O conceito é vago e, naturalmente, demanda interpretação sistemática da lei e de seus outros dispositivos. Cita-se, nesse ponto, que o inciso subsequente (XVI) do artigo 5º descreve a transferência internacional como hipótese de "uso compartilhado de dados", diferindo-a, ao menos conceitualmente, do acervo de situações caracterizadoras das atividades de "tratamento de dados" (art. 5º, inc. X). O artigo 3º da LGPD também é de fundamental cognição, pois define que a atividade deve ter por objetivo a oferta de bens ou serviços com finalidade econômica, que a operação de tratamento deve ser realizada em território nacional e/ou que os dados que são objeto de tratamento devem ser coletados no território nacional (art. 3º, inc. I a III)15. Ademais, é importante lembrar que a lei estabelece os casos em que a LGPD não se aplica ao tratamento de dados pessoais (art. 4º), o que permite concluir que a transferência internacional é a atividade de transferência ou compartilhamento para um país estrangeiro, entre pessoas físicas ou jurídicas de direito público ou privado, incluindo organismos internacionais dos quais o Brasil seja membro, de dados coletados em território nacional e/ou cujo tratamento tenha sido realizado no país. A LGPD não possui critérios tão diretos quanto os do art.º 45, n.º 2, do RGPD, a exemplo da exigência de decisão de adequação por parte da autoridade nacional16, mas estabelece que a sua autorização (inc. V) é uma das possibilidades para a transferência internacional de dados. Outra conclusão que se extrai é a de que algumas hipóteses ("bases legais") para o tratamento de dados pessoais podem ser apresentadas em função da transferência internacional. Por exemplo: a proteção da vida ou da incolumidade física do titular ou de terceiro (art. 33, IV c/c art. 7º, VII), o consentimento (art. 33, VIII c/c art. 7º, I) e o cumprimento de obrigação legal ou regulatória pelo controlador, a execução de contrato ou de procedimentos preliminares relacionados a contrato do qual seja parte o titular, a pedido do titular dos dados, e o exercício regular de direitos em processo judicial, administrativo ou arbitral (art. 33 c/c art. 7º, II, V e VI). Em sequência ao que prevê o artigo 33, inciso I, da LGPD, o artigo 34 descreve os critérios a serem considerados pela ANPD para aferir o nível de adequação do país estrangeiro ou do organismo internacional a ponto de considerá-lo suficiente para lastrear a operação de transferência internacional: (i) as normas gerais e setoriais da legislação em vigor no país de destino ou no organismo internacional; (ii) a natureza dos dados; (iii) a observância dos princípios gerais de proteção de dados pessoais e direitos dos titulares; (iv) a adoção de medidas de segurança previstas em regulamento; (v) a existência de garantias judiciais e institucionais para o respeito aos direitos de proteção de dados pessoais; e (vi) outras circunstâncias específicas relativas à transferência17. Pelo §3º do artigo 35, a ANPD pode designar organismos de certificação para definir e verificar o conteúdo de cláusulas-padrão contratuais, cláusulas contratuais específicas, normas corporativas globais ou selos, certificados e códigos de conduta para a realização da transferência internacional de dados. Cabe lembrar, nesse ponto, que o artigo 4º, inciso XIII, do Decreto nº 10.474/2020, prevê a atribuição do Conselho Diretor da ANPD para "designar e fiscalizar organismos de certificação para a verificação da permissão para a transferência de dados internacional". A ANPD ainda poderá rever os atos praticados pelos organismos de certificação, segundo o que prevê o §4º do artigo 35 e, caso haja descumprimento da lei, os mesmos poderão ser anulados (vide, ainda, o que dispõe o art. 4º, inciso XIV, do Decreto nº 10.474/2020). O 5§º do dispositivo, finalmente, faz remissão aos parâmetros de segurança da informação descritos no artigo 46, §§1º e 2º, da LGPD18 quanto à parametrização da análise de suficiência da observância dos princípios gerais de proteção e dos direitos do titular referidas no caput do artigo19. Enfim, o que se nota é que há inúmeras regras que podem, eventualmente, representar empecilhos para a concretização de finalidades específicas relacionadas à cooperação em matéria internacional, instigando reflexões sobre o eventual contraste de tais normas com as disposições de acordos internacionais.  Notas conclusivas  Várias nuances podem ser colhidas do inciso I do artigo 33 da LGPD. Uma delas é a nítida preocupação com a equivalência de adequação do grau de proteção jurídica conferido pelo outro país envolvido na transferência internacional aos dados pessoais ao grau de proteção brasileiro. Por se tratar de conceito aberto, o entendimento sobre a adequação de que trata a lei demandará colmatação pelo labor regulatório infralegal da Autoridade Nacional de Proteção de Dados. E, de fato, o referido tema é o quarto da lista de "ações" da Agenda Regulatória estabelecida pela ANPD para o biênio 2023-202420. Porém, este é apenas um problema preliminar em relação à compatibilização das previsões da LGPD com os rigores da cooperação internacional em matéria de proteção de dados pessoais, especialmente para que eventual Acordo de Assistência Mútua (MLAT) firmado com país estrangeiro se coadune com a exceção definida no artigo 4º, inciso III, "d", da LGPD, pelo qual se excetua da incidência normativa a atividade de tratamento de dados relacionada a investigação e repressão de infrações penais. O principal desafio que se enfrenta diz respeito à soberania brasileira e ao receio concernente ao efetivo cumprimento de ordens judiciais emanadas de autoridades brasileiras. Sem dúvidas, há muitos pontos nebulosos em torno da questão, apesar de já se ter pronunciamentos do STJ a esse respeito. Não obstante, o pronunciamento do STF quanto à constitucionalidade dos acordos MLAT tem o condão de propiciar renovada leitura relacionada à reafirmação da soberania do Estado brasileiro e à impertinência da interferência estrangeira na inviabilização ou obstaculização da obtenção de provas relevantes para investigações. Reconhecer a constitucionalidade dos MLATs é, portanto, um primeiro passo para a superação de diversas dificuldades concernentes a investigações de delitos perpetrados na internet, mas também para a consolidação de maior clareza interpretativa em relação a temas relacionados à jurisdição, inclusive para afastar antinomias com o tema da transferência internacional de dados definido na LGPD, que são, em essência, antinomias apenas aparentes. __________ 1 BASSO, Maristela; POLIDO, Fabrício Bertini Pasquot. Jurisdição e lei aplicável na internet: adjudicando litígios de violação de direitos da personalidade e as redes de relacionamento social. In: DE LUCCA, Newton; SIMÃO FILHO, Adalberto (Coord.). Direito & internet: aspectos jurídicos relevantes. São Paulo, Quartier Latin, 2008, v. 2, p. 442-490. 2 LAUX, Francisco de Mesquita. Redes sociais e limites da jurisdição: planos da territorialidade e efetividade. São Paulo: Thomson Reuters Brasil, 2021, p. 281-283. 3 BRASIL. Supremo Tribunal Federal. ADC 51. Consulta Processual. Disponível aqui. Acesso em: 5 jan. 2023. 4 BRASIL. Supremo Tribunal Federal. ADC 51. Consulta Processual. Disponível aqui. Acesso em: 5 jan. 2023. 5 Sobre a relevância do Código de Processo Civil brasileiro em matéria de cooperação jurídica internacional, conferir POLIDO, Fabrício Bertini Pasquot. Fundamentos, estruturas e mecanismos da cooperação jurídica internacional e o Código de Processo Civil brasileiro. Revista dos Tribunais, São Paulo, v. 990, p. 37-82, 2018. 6 PAGLIARINI, Alexandre Coutinho; KOSAK, Ana Paula. A cooperação jurídica internacional em matéria penal entre Brasil e Estados Unidos e o direito à prova. Revista de Direito Constitucional e Internacional, São Paulo, v. 29, n. 123, p. 271-291, jan./fev. 2021, p. 288. 7 GUIDI, Guilherme Berti de Castro; REZEK, Francisco. Crimes na internet e cooperação internacional em matéria penal entre Brasil e Estados Unidos. Revista Brasileira de Políticas Públicas, Brasília, v. 8, n. 1, p. 276-288, 2018, p. 283-284. 8 CASTRO, Ana Lara Camargo de. Crimes cibernéticos e óbices ao cumprimento do Acordo de Cooperação Internacional (MLAT) com base nos standards de causa provável e liberdade de expressão do direito estadunidense. Revista do Ministério Público do Estado do Rio de Janeiro, Rio de Janeiro, n. 76, p. 19-49, abr./jun. 2020, p. 42. 9 Vide também RMS 55.019, DJe 12/12/2017, Rel. Min. Joel Ilan Paciornik (Yahoo); RHC 84.100, DJe 21/03/2018, Rel. Min. Felix Fischer; RMS 53.213, DJe 13/05/2019, Rel. Min. Ribeiro Dantas (Apple); Inq 784, DJe 28/08/2013, Rel.ª Min.ª Laurita Vaz (Google). 10 BRASIL. Supremo Tribunal Federal. ADC 51. Audiência Pública - Transcrições. 10 fev. 2020. Disponível aqui. Acesso em: 5 jan. 2023. 11 GOLDSMITH, Jack; WU, Tim. Who controls the Internet? Illusions of a borderless world. Oxford: Oxford University Press, 2006, p. 13. 12 Conferir, por todos, as críticas de Mark Raymond a essa proposta: RAYMOND, Mark. Puncturing the myth of the Internet as a Commons. Georgetown Journal of International Affairs, Washington, D.C., n. 14, p. 53-64, 2013. Em sentido mais amplo, conferir HOLMAN, JoAnne; MCGREGOR, Michael. The Internet as Commons: The Issue of Access. Communication Law and Policy, Oxfordshire, v. 10, n. 3, p. 267-289, jun. 2010. 13 MASSENO, Manuel David; MARTINS, Guilherme Magalhães; FALEIROS JÚNIOR, José Luiz de Moura. A segurança na proteção de dados: entre o RGPD europeu e a LGPD brasileira. In: LOPES, Teresa Maria Geraldes da Cunha; SAÉNZ GALLEGOS, María Luisa (Org.). Ensayos sobre derecho y sociedad en la era tecnológica. Ciudad de México: UMSNH, 2020, p. 143. 14 MARTINS, Amanda Cunha e Mello Smith. Transferência internacional de dados pessoais. Belo Horizonte: D'Plácido, 2021, p. 217-232. 15 FRAJHOF, Isabella Z.; SOMBRA, Thiago Luis. A transferência internacional de dados pessoais. In: MULHOLLAND, Caitlin (Org.). A LGPD e o novo marco normativo no Brasil. Porto Alegre: Arquipélago Editorial, 2020, p. 268. 16 VOIGT, Paul; VON DEM BUSSCHE, Axel. The EU General Data Protection Regulation (GDPR): a practical guide. Cham: Springer, 2017, p. 116. 17 MARTINS, Amanda Cunha e Mello Smith. Transferência internacional de dados pessoais. Belo Horizonte: D'Plácido, 2021, p. 118. 18 MARTINS, Guilherme Magalhães; FALEIROS JÚNIOR, José Luiz de Moura. Segurança, boas práticas, governança e compliance. In: LIMA, Cíntia Rosa Pereira de (Coord.). Comentários à Lei Geral de Proteção de Dados. São Paulo: Almedina, 2020, p. 351-352. 19 FRAJHOF, Isabella Z.; KREMER, Bianca. Art. 35 - Da transferência internacional de dados. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (Coord.). Comentários à Lei Geral de Proteção de Dados Pessoais. Indaiatuba: Foco, 2022, p. 351. 20 BRASIL. Autoridade Nacional de Proteção de Dados. Agenda Regulatória 2023-2024. Disponível aqui. Acesso em: 5 jan. 2023.
Conceitualmente, pelo artigo 5º, XII, da Lei Geral de Proteção de Dados Pessoais - LGPD, considera-se 'consentimento' a "manifestação livre, informada e inequívoca pela qual o titular concorda com o tratamento de seus dados pessoais para uma finalidade determinada". O artigo 8º da LGPD traz maior aprofundamento quanto às características do consentimento para o tratamento de dados pessoais. Em seu caput, o dispositivo remete ao inciso I do artigo 7º, no qual está listada a referida "base legal". É importante ressaltar que há diferenças de redação entre o artigo 7º, inciso I, e o artigo 11, inciso I, da LGPD. Ambos explicitam o consentimento como hipótese de tratamento, sendo o primeiro relativo ao tratamento de dados pessoais e o segundo ao tratamento de dados pessoais sensíveis. No artigo 11, o tratamento consentido de dados pessoais sensíveis pressupõe que o titular ou seu responsável legal consintam "de forma específica e destacada, para finalidades específicas"; por outro lado, o artigo 7º, I, não contém os mesmos predicados, se limitando a sinalizar a possibilidade de que o tratamento de dados pessoais se dê "mediante o fornecimento de consentimento pelo titular". Em linhas gerais, quanto à forma do consentimento, a lei é assertiva: "deverá ser fornecido por escrito ou por outro meio que demonstre a manifestação de vontade do titular" (art. 8º, caput). A admissão de meios diversos do tradicionalmente escrito - a indicar sua não exigência -, embora não se possa negar sua licitude, revela dimensão concernente ao alto grau de liberdade que se espera das relações derivadas da autodeterminação informativa, que norteia a estruturação da lei. O artigo 60 da LGPD alterou expressamente dois dispositivos do Marco Civil da Internet, mas permanece vigente a redação atribuída ao artigo 7º, VII, que já exigia o consentimento expresso, embora, como se adiantou, o artigo 7º, I, da LGPD defina a exigência de que o consentimento seja inequívoco, provado por qualquer meio lícito, o que permite constatar a viabilidade do consentimento verbal ou implícito. O ato de consentir, para que seja considerado "informado", usualmente se reveste de contornos tipicamente visualizados na estruturação dogmática da boa-fé objetiva. Como ressaltam Isabella Frajhof e Ana Lara Mangeth, "reconhecendo que as informações prestadas ao titular de dados constituem elemento legitimador da sua concordância em relação ao tratamento de seus dados pessoais, (...) deverá ser informado sobre determinadas particularidades do tratamento para que haja a completa compreensão sobre o destino que será atribuído aos seus dados pessoais"1. Como forma de garantir a assimilação dessas particularidades, é esperado que um documento seja lavrado, com atribuição de destaque visual aos termos que revelem o consentimento para o tratamento de dados pessoais. A título exemplificativo, lembremo-nos da área da saúde, na qual é comum que haja grande preocupação com o devido esclarecimento do paciente acerca de todos os aspectos relevantes para a realização de seu atendimento. A lavratura dos Termos de Consentimento Livre e Esclarecido - TCLEs é prática comum e desejável, há tempos fomentada, e da qual se pode extrair importantes lições sobre como a obtenção do consentimento escrito tende a trazer maior higidez para a formação da fidúcia entre o profissional da saúde e o paciente2. Aliás, mesmo em documentos redigidos com grande detalhamento técnico - que podem ser de difícil compreensão para pessoas leigas - explicações, esclarecimentos e o respectivo consentimento podem se efetivar com o devido destaque clausular, sem que haja prejuízo cognitivo ou embaraço à aferição de sua manifestação3. Nesse aspecto, merece menção a distinção que se faz entre o consentimento para a realização do atendimento médico e o consentimento relativo ao tratamento de dados pessoais. Sobre o tema, Flaviana Rampazzo Soares explica que "é possível afirmar que o [consentimento do paciente no atendimento em saúde] está sujeito à LGPD no que tange aos dados e informações a ela relacionados, e não quanto ao objeto e objetivo do consentimento em si (que é um específico atendimento), e a incidência da LGPD se circunscreverá ao que disser respeito ao tratamento de dados"4. Essa dinâmica se torna ainda mais complexa - é preciso frisar - quando envolve o compartilhamento de dados com outros controladores, em que incidirão as disposições do artigo 7º, §5º, e do artigo 11, §4º, da LGPD, sendo exigido o consentimento específico, no primeiro dispositivo, em caráter antecedente5. Nesse ponto, o modelo de consentimento "opt-in" parece preponderar como técnica de adesão para atribuição do destaque6. Em síntese, ao invés de o titular optar por não permitir o tratamento de seus dados pessoais, realiza ação que pode ser interpretada como manifestação de vontade positiva. É possível fazê-lo por várias técnicas: (i) marcando uma caixa de seleção; (ii) clicando em um botão ou link; (iii) selecionando a partir de uma opção binária (sim/não), de botões ou de um menu drop-down; (iv) escolhendo configurações ou preferências no painel da conta; (v) respondendo a um e-mail que solicita o consentimento; (vi) respondendo positivamente a um pedido claro de consentimento verbal gravado, seja na presença do interlocutor ou por ligação; (vii) mediante aposição de assinatura em uma declaração de consentimento em formulário de papel; (viii) assinando eletronicamente um documento, por técnica criptográfica lícita e suficientemente confiável. Trata-se de evidente rol exemplificativo, que ainda abre margem a discussões mais curiosas e atuais sobre a relação de proximidade entre design, interatividade, cognoscibilidade e direito. Sem dúvidas, mais do que simplificar a cognição, certas técnicas e ferramentas podem otimizar a interlocução entre o titular e o agente de tratamento para a obtenção do consentimento e, especialmente, quanto ao esperado destaque que se deve atribuir ao modelo escrito, por força do que exige o §1º do artigo 8º da LGPD, para dados pessoais, e o inciso I do artigo 11, para dados pessoais sensíveis. Segundo Chiara Spadaccini de Teffé, o termo 'destacado' "pode ser interpretado no sentido de que é importante que o titular tenha pleno acesso ao documento que informará todos os fatos relevantes sobre o tratamento de seus dados pessoais, devendo tais disposições virem destacadas para que a expressão do consentimento ocorra conforme a lei"7. Isso abre margem a estratégias de interação centradas no usuário e que primam pela compreensão do conteúdo que gerará o vínculo obrigacional. Mais do que a robustez formal, importa visualizar o destaque como mecanismo de elevação do grau de interação entre as partes envolvidas para que haja adequada e precisa compreensão. O fomento à interatividade, nesse aspecto, atribui inegável realce à reformulação de documentos (especialmente de contratos, na tendência que a doutrina especializada vem designando como contract design8) para que não sejam apenas esteticamente melhores, mas, também, para que conduzam à rápida e mais efetiva assimilação de conteúdo9. Temática que adquirirá importante proeminência na ressignificação das formas de obtenção do consentimento envolve a disciplina do que hoje se convencionou nomear de experiência do usuário (user experience, ou apenas UX), cujo foco - centrado nas vivências e percepções10 - tem grande relevância para que métodos criativos de obtenção de feedback, com licitude e suporte nas previsões do artigo 8º da LGPD, sejam pensados e implementados em atividades variadas de tratamento de dados pessoais. Valiosa a síntese de Camilla Telles: "Experiências são claramente subjetivas, já que cada usuário tem uma diferente experiência ao usar um produto, serviço ou objeto. Isso acontece porque a experiência é influenciada por diversos fatores humanos (visão, capacidade de leitura, habilidade etc.) e fatores externos (temperatura, ambiente, horário do dia). Todas as vivências de uma pessoa com uma marca, produto ou serviço, seja no momento de compra ou no de uso, incluindo a parte emocional, são definidas como experiência do usuário"11. Essa perspectiva tem enorme valor para a revisão dos famigerados "termos de uso" e "políticas de privacidade", geralmente padronizados, extensos e repetitivos12. Tais documentos, quanto mais sintéticos, claros e elucidativos, mais tendem a expressar clareza, robustecendo a transparência na atuação do agente de tratamento e atendendo aos diversos princípios listados no artigo 6º da LGPD. O mesmo se pode dizer da implementação de elementos visuais (chamados, na seara jurídica, de 'direito visual' ou, no inglês, de visual law), que permitam facilitar a leitura e internalização de uma informação importante. Para o ato de consentir, tradicionalmente obtido em rápida apresentação de condições que o usuário não costuma ler com a devida atenção, simplificar pode propiciar grandes ganhos. Elementos visuais têm exatamente o mérito de substituir textos extensos, por exemplo, por gravuras e diagramas, facilitando a percepção e ativando a intuição para que não haja consentimento açodado. A preocupação se justifica, pois há grande assimetria informacional - especialmente em estruturas dependentes da internet para a manifestação do consentimento -, o que implica considerar as diferentes percepções que cada pessoa pode ter no contato com documentos jurídicos que explicitem as condições de realização do tratamento de dados pessoais. Com efeito, "por mais que os documentos jurídicos, principalmente no âmbito da tutela da privacidade e da proteção de dados pessoais, cuja presença é relevante, estejam disponíveis nas plataformas dos controladores, cumprindo formalmente os princípios da transparência e prestação de contas, surge o questionamento acerca do efetivo e material cumprimento dos referidos princípios"13. A partir de renovada perspectiva, que abandona os modelos padronizados de outrora, como os já superados contratos de adesão shrink-wrap e click-wrap e os termos de uso browse-wrap14, para privilegiar estruturas mais enxutas - mas que não prejudicam a compreensão -, o que se vislumbra é a necessidade de que agentes de tratamento trabalhem com foco direcionado à reestruturação dos mecanismos que utilizam para informar e esclarecer os titulares sobre as atividades de tratamento que realizam. E, com incrementada assimilação, maior confiabilidade se terá no momento em que o consentimento for expressado. ____________ 1 FRAJHOF, Isabella Z.; MANGETH, Ana Lara. As bases legais para o tratamento de dados pessoais. In: MULHOLLAND, Caitlin (org.). A LGPD e o novo marco normativo no Brasil. Porto Alegre: Arquipélago Editorial, 2020, p. 70. 2 CARVALHO, Carla; TATAGIBA, Laís. A utilidade das ferramentas de legal design para o consentimento efetivamente esclarecido. In: FALEIROS JÚNIOR, José Luiz de Moura; CALAZA, Tales (coord.). Legal design: teoria e prática. 2. ed. Indaiatuba: Foco, 2023, p. 441-458. 3 Como já tivemos a oportunidade de alertar: "O consentimento é tido pelo legislador como gatilho para a filtragem da coleta indevida de dados. Optou-se por admitir o tratamento, mediante coleta consentida de dados pessoais, inclusive de dados pessoais sensíveis (inciso X do art. 5º e inciso I do art.11), mas exige-se a observância de finalidade específica. Tudo parte da necessidade de um novo olhar sobre a informação. Na medida em que o consentimento passa a ser o critério fundamental para a coleta, torna-se essencial que o indivíduo saiba discernir os limites e os riscos que enfrentará com o fornecimento de seus dados a determinado agente". FALEIROS JÚNIOR, José Luiz de Moura. Reflexões sobre as bases legais para o tratamento de dados pessoais relativos à saúde na Lei Geral de Proteção de Dados Pessoais. Revista de Direito Médico e da Saúde, Brasília, n. 24, p. 11-26, set. 2021, p. 18. 4 SOARES, Flaviana Rampazzo. Consentimento no direito da saúde nos contextos de atendimento médico e de LGPD: diferenças, semelhanças e consequências no âmbito dos defeitos e da responsabilidade. Revista IBERC, Belo Horizonte, v. 4, n. 2, p. 18-46, maio/ago. 2021, p. 34. 5 Trata-se de situação que guarda similaridades com o regramento estabelecido no RGPD, impondo a adoção de cautelas, como explicam Carla Barbosa e "Naturalmente que esse compartilhamento de dados deverá estar rodeado das devidas cautelas, uma vez que cumpre aferir se e em que medida a sua partilha é estritamente necessária (...). Em qualquer caso, tais atividades de tratamento de dados sobre a saúde autorizadas por motivos de interesse público não deverão ter por resultado que os dados sejam tratados para outros fins por terceiros, como os empregadores ou as companhias de seguros e entidades bancárias". BARBOSA, Carla; LOPES, Dulce. RGPD: compartilhamento e tratamento de dados sensíveis na União Europeia - o caso particular da saúde. In: DALLARI, Analluza Bolivar; MONACO, Gustavo Ferraz de Campos (coord.). LGPD na saúde. São Paulo: Thomson Reuters Brasil, 2021, p. 50. 6 HEIMES, Rita. How opt-in consent really works. IAPP, 22 fev. 2019. Disponível em: https://iapp.org/news/a/yes-how-opt-in-consent-really-works/. Acesso em: 27 dez. 2022. 7 TEFFÉ, Chiara Spadaccini de. Dados pessoais sensíveis: qualificação, tratamento e boas práticas. Indaiatuba: Foco, 2022, p. 149. 8 Conferir, por todos, HAAPIO, Helena. Next generation contracts: a paradigma shift. Helsinque: Lexpert, 2013, p. 49-52. PASSERA, Stefania. Beyond the wall of text: how information design can make contracts user-friendly. In: MARCUS, Aaron (ed.). Design, user experience, and usability: users and interactions. 4th International Conference, DUXU 2015 Proceedings, Part II. Cham: Springer International, 2015, p. 341-352; COMPAGNUCCI, Marcelo Corrales; HAAPIO, Helena; FENWICK, Mark. The many layers and dimensions of contract design. In: COMPAGNUCCI, Marcelo Corrales; HAAPIO, Helena; FENWICK, Mark (ed.). Research Handbook on Contract Design. Cheltenham: Edward Elgar, 2022, p. 2-18. 9 MIK, Eliza. Engineering consent: using technology to create informed consumers. In: COMPAGNUCCI, Marcelo Corrales; HAAPIO, Helena; FENWICK, Mark (ed.). Research Handbook on Contract Design. Cheltenham: Edward Elgar, 2022, p. 403-404. 10 A temática envolve verdadeira mudança de cultura, que, para os agentes de tratamento de dados de qualquer setor, pode acarretar profunda ressignificação dos modelos mais tradicionais de realização da atividade informadora e esclarecedora que está envolvida na obtenção do consentimento livre e inequívoco para que haja verdadeira primazia das interações, com valorização das experiências de interlocução entre titular e agente. Na prestação de serviços jurídicos, o tema já permite falar em uma "legal customer experience", como explica a doutrina: "Em resumo, para construção do legal customer experience, defina seu objetivo e - mais importante - coloque o cliente no centro das decisões. Depois, cuide dos relacionamentos - valorize a experiência das pessoas que somam forças para o alcance do seu objetivo, sejam colaboradores, sócios, fornecedores. E por último, mas não menos relevante, cuide dos processos - a cultura precisa ser viva, tem de estar presente em todas as áreas e departamentos da sua organização." COELHO, Alexandre Zavaglia; BATISTA, Cynara de Souza. Deisgn de serviços jurídicos. In: FALEIROS JÚNIOR, José Luiz de Moura; CALAZA, Tales (coord.). Legal design: teoria e prática. 2. ed. Indaiatuba: Foco, 2023, p. 53. 11 TELLES, Camilla. Experiência do usuário (user experience) e legal design. In: FALEIROS JÚNIOR, José Luiz de Moura; CALAZA, Tales (coord.). Legal design: teoria e prática. 2. ed. Indaiatuba: Foco, 2023, p. 231. 12 Destacando a importância da cooperação entre profissionais que atuam com design (design professionals) e profissionais dedicados à elaboração dessas políticas (policymaker professionals), Margaret Hagan identifica o grande mérito da transformação propiciada pelo implemento de ferramentas de direito visual: "The design professional often is focused on improving the user experience, to ensure that their target person is being satisfied, and helped to live more in the way that they want to. The policymaker professional, in contrast, tends to favor deep analysis of rules, laws, past policies, and government systems. A guiding principle tends to be that, through rigorous, critical analysis and a systems point of view, a team can identify new solutions that will produce desired outcomes, often in the form of improved population-level statistics (rather than individuals' experiences)". HAGAN, Margaret. Prototyping for policy. In: CAMPAGNUCCI, Marcelo Corrales; HAAPIO, Helena; HAGAN, Margaret; DOHERTY, Michael (ed.). Legal design: integrating business, design and legal thinking with technology. Cheltenham: Edward Elgar, 2021, p. 10. 13 VILLANI, Mônica; GUGLIARA, Rodrigo; COPPOLA JÚNIOR, Ruy. Aplicação do legal design como ferramenta essencial do compliance de proteção de dados. In: FALEIROS JÚNIOR, José Luiz de Moura; CALAZA, Tales (coord.). Legal design: teoria e prática. 2. ed. Indaiatuba: Foco, 2023, p. 215. 14 Sobre o tema, conferir LIMA, Cíntia Rosa Pereira de. Contratos de adesão eletrônicos (shrink-wrap e click-wrap) e os termos e condições de uso (browse-wrap). In: LIMA, Cíntia Rosa Pereira de; NUNES, Lydia Neves Bastos Telles (coord.). Estudos avançados de direito digital. Rio de Janeiro: Elsevier, 2014. p. 105-134.
Recentemente, a FTC (Federal Trade Commission)1 introduziu um novo remédio para violações de proteção à privacidade de consumidores, causadas por empresas que utilizam dados ilicitamente obtidos para treinar algoritmos de aprendizado de máquina.  Esse radical mecanismo, vem sendo chamado de destruição algorítmica, algorithmic disgorgement ou simplesmente exclusão de modelo de aprendizado de máquina (machine learning model deletion). A eliminação algorítmica, pode ser percebida como remédio ou direito, sendo conceituada como a destruição ou expropriação de um conjunto de dados, algoritmos, modelos e outros relevantes produtos de trabalho criados por meios ilícitos.2 O disgorgement algorítmico é um remédio preventivo extracompensatório que busca desencorajar e literalmente desfazer os meios tecnológicos danosos, privando os agentes dos benefícios de seus ilícitos.3 O seu design objetiva alterar o comportamento de organizações e máquinas, exigindo-se que empresas não apenas excluam os dados coletados indevidamente, porém, indo além, suprimam todos os modelos de aprendizado de máquina treinados nesses dados. Isto implica que as corporações reverterão os seus modelos para o momento anterior à introdução dos dados obtidos ilicitamente, cabendo a elas treinar novamente o machine learning. No sistema atual, percebe-se uma inconsistência no entroncamento entre privacidade, inteligência artificial e danos algorítmicos. A chamada "Unfair AI" pode causar uma série de danos algorítmicos, tendo como base, exemplificativamente, sistemas de supervisão que mantêm uma vigilância constante no espaço pessoal do aluno e pretendem analisar objetos, emoções e voz; sistemas que rastreiam as teclas digitadas pelos trabalhadores e as combinam com outras que criam uma "pontuação de produtividade"; empresas que extraem informações sobre indivíduos, criando um perfil de milhões de pessoas para vender pelo lance mais alto. Além desses fenômenos mais recentes, os danos algorítmicos vêm na forma de ferramentas de triagem de locatários e pontuações de crédito mediante constante aprimoramento de scanners e ferramentas de avaliação de risco.4 Na tutela da privacidade digital é perceptível uma mitigação da efetividade dos direitos de exclusão - direito ao esquecimento (right to be forgotten) e direito ao apagamento (right to erasure)5 - devido a limitações técnicas de remoção de informações em sistemas de aprendizado de máquina. O art. 17 (2) da GDPR permite ao titular dos dados invocar o direito de apagar "quaisquer links ou cópia ou replicação de dados pessoais". No mesmo sentido caminha a LGPD.6 Ou seja, mesmo sob os parâmetros atuais, reconhecemos que, uma vez transferidos ou tornados públicos, os dados são difíceis de apagar completamente da longa memória da internet. Assim, ilustrativamente, dados dos links removidos do Google ainda podem ser usados como parte do algoritmo de pesquisa da corporação, mesmo após a determinação judicial de remoção dos links. Isso pode influenciar futuros resultados de pesquisa. Neste cenário de limitação de aptidão dos direitos de exclusão já legislados quanto à efetiva proteção da esfera privada, até o momento três importantes cases da FTC introduziram o algorithmic disgorgement como alternativa superior de tutela das situações existenciais de usuários. Em comum aos episódios, tanto a inteligência artificial utilizada para fins fraudulentos, como o aprendizado ilícito de máquina podem ser quebrados, mais especificamente: expelidos.7 O primeiro processo foi o notório imbróglio da Cambridge Analytica, em 2019,8 depois que a empresa se envolveu em práticas enganosas para explorar o acesso de usuários no Facebook, coletando os seus dados sem consentimento. A FTC ordenou que a empresa excluísse ou destruísse todas as informações coletadas dos consumidores por meio de seu aplicativo e qualquer informação ou produto de trabalho, incluindo algoritmos ou equações, originados, no todo ou em parte, dessas Informações. Portanto, isso representou a eliminação de qualquer modelo de aprendizado de máquina criado com dados obtidos de forma ilícita, bem como qualquer modelo resultante, alimentado com dados de usuários ilícitos. Na sequência, a ideia de algorithmic disgorgement como remédio ganhou força em 2021, com a ação da FTC contra a Everalbum, Inc,9 que havia criado uma ferramenta de reconhecimento facial para seu aplicativo, oferecendo aos usuários uma mensagem permitindo que escolhessem se desejavam ativar ou desativar o recurso. No entanto, a FTC descobriu que a Ever não concedia aos usuários uma escolha real, pois o recurso de reconhecimento facial foi ativado por padrão e não havia como desativá-lo. A Ever se valeu das fotos desses usuários para treinar seus modelos de aprendizado de máquina para reconhecimento facial, possivelmente sem o consentimento informado dos usuários. Além disso, coletou outras imagens de usuários e as combinou com dados disponíveis publicamente para criar uma variedade de conjuntos de dados utilizados para desenvolver a tecnologia de reconhecimento facial. No mais, mesmo após eventual desativação, a empresa não excluiu fotos e vídeos, mas armazenou-os. Além de exigir que a Ever excluísse as fotos e vídeos dos usuários que solicitaram a desativação de suas contas, a FTC também determinou que a empresa eliminasse todas as incorporações faciais derivadas da coleta de informações biométricas dos usuários que não consentiram a isto, assim como qualquer produto de trabalho afetado. Em última análise, como remédio para violação da privacidade, a FTC exigiu a exclusão da máquina dos modelos de aprendizado desenvolvidos com a utilização antijurídica de dados - uma radical destruição algorítmica. Fundamental é perceber que a sanção de exclusão de modelo de aprendizado transcende a resposta tradicional de exclusão dos dados dos usuários que, como remédio, não tutela eficazmente a vítima de privacidade, na medida em que as informações ainda mantêm uma impressão duradoura no modelo de aprendizado de máquina, como marca dos dados do indivíduo. Em outras palavras, o input de qualquer dado em um sistema de aprendizado de máquina deixa uma "sombra algorítmica" (algorithmic shadow). O dano de sombra algorítmica representa um agravamento do dano inicial à privacidade. Quando se alimenta um conjunto de dados específicos para treinar um modelo de aprendizado de máquina, esses dados produzem um impacto no modelo resultante desse treinamento. Mesmo que se exclua posteriormente os dados do conjunto de dados de treinamento, o modelo já treinado ainda conterá uma "sombra" persistente dos dados excluídos. Ilustrativamente, cogitemos de um sistema de aprendizado de máquina treinado para identificar se um animal em uma foto é um gato. Se treinarmos o algoritmo inserindo apenas fotos de gatos laranja, o algoritmo resultante treinado nesses dados terá mais probabilidade de reconhecer gatos laranja como gatos e menor probabilidade de prever quando um gato cinza peludo for um gato. Se alguém decidir que o algoritmo projetado e treinado é tendencioso a favor da identificação de animais laranja como gatos, será possível optar por excluir todas as fotos de gatos laranja do conjunto de dados de treinamento. No entanto, isso não teria impacto no algoritmo que já foi treinado nos dados. O algoritmo ainda irá superestimar os animais laranja como gatos. Mesmo que os dados sejam excluídos do conjunto de dados original, ainda permanecerá a "sombra" dos dados no algoritmo.10 Ao exigir que as empresas excluam os modelos treinados com base nos dados dos indivíduos, a FTC elimina essencialmente a sombra algorítmica. Isto se aproxima de uma compensação integral, já que nenhuma parte dos dados violados será utilizada ativamente, pois a empresa terá que treinar novamente os seus modelos com base em algoritmos não influenciados pela sombra dos dados do indivíduo. Com efeito, a mera exclusão de dados não repara os danos psicológicos/emocionais de saber que seus dados foram mal utilizados em treinamento de modelo de aprendizado de máquina, tal como no uso de reconhecimento facial na vigilância policial, tecnologia na qual muitos não consentiriam com a inclusão de suas fotos faciais em bancos de dados para utilização no desenvolvimento de modelos de reconhecimento facial. Mesmo que a empresa de vigilância seja obrigada a excluir as fotos, o dano de ter a foto incluída no modelo de aprendizado de máquina persiste pois lá remanesce a sombra algorítmica como marca, servindo para quaisquer previsões que ele faça para vigilância.11 Contudo, outro resultado se alcança pela via do disgorgement algorítmico. Se determinado modelo, essencial para os serviços de uma empresa for irremediavelmente contaminado pela ilicitude, a eliminação algorítmica resulta na necessidade dessa empresa de destruir o modelo contaminado e começar do zero Adiante, o terceiro e mais recente episódio se deu em 2022. A FTC empregou o disgorgement algorítmico em um acordo com a WW International, Inc. e a subsidiária Kurbo, Inc. que coletou dados pessoais de crianças menores de treze anos, sem informações adequadas e suficientes aos pais, contrariamente à Lei de Proteção e Privacidade Online das Crianças. A empresa se obrigou a excluir ou destruir qualquer "Produto de Trabalho Afetado", ou seja, qualquer modelo ou algoritmo desenvolvido no todo ou em parte com base em informações pessoais obtidas de forma ilícita. Novamente, a FTC empregou a destruição algorítmica como remédio para uma violação de privacidade, reconhecendo que a simples exclusão de dados não é suficiente para sancionar violações de privacidade onde as empresas usam dados ilegítimos para desenvolver modelos de aprendizado de máquina.12 O disgorgement algorítmico é uma importante concretização do princípio da "minimização de dados", que exige que se limite a coleta de informações pessoais ao que é diretamente relevante e necessário para atingir um propósito específico e pelo tempo necessário para cumprir esse propósito. A conformidade ao data minimization reduz o número de casos em que surge o descompasso algorítmico, enquanto a sua desconformidade - aferida por auditorias e avaliações de impacto - permite que agências de fiscalização e consumidores infiram isso como uma violação em si, que potencialmente conduzirá a destruição algorítmica se danos forem constatados.13 A destruição algorítmica impede o enriquecimento injustificado, eliminando os ganhos ilícitos das empresas que violam a privacidade. Em similitude ao que ocorre com o emprego do remédio do disgorgement no mundo físico, objetiva-se a remoção de ganhos monetários ilícitos. Na esfera virtual, os casos aqui evidenciados demonstram que "gains based remedies" podem ser estendidos a casos de privacidade em que empresas coletam e usam os dados dos consumidores de maneira ilegal, possibilitando que os infratores suprimam não apenas os dados obtidos de forma ilícita, mas também os "frutos" - benefícios: aqui os algoritmos - gerados a partir disso dados. A premissa é singela: quando empresas coletam dados ilegalmente, elas não devem lucrar com os dados ou com qualquer algoritmo desenvolvido com base em sua utilização.14 Fato é que, simultaneamente, o algorithmic disgorgement concebe uma penalidade financeira para as empresas e sinaliza uma neutralização de danos para os usuários que tiveram seus dados mal utilizados. A eliminação algorítmica é bem-sucedida onde a medida de exclusão de dados falha na prevenção dos danos da sombra algorítmica persistente. Em termos mais amplos, o disgorgement algorítmico representa uma renovação para o clássico disgorgement, porque pode não apenas remediar os danos subjacentes da IA, mas também reverter os incentivos estruturais para a maximização da coleta de informações e os abusos correlatos. Surge mais uma ferramenta de moderação do "capitalismo de vigilância", mediante desincentivo à extração de dados arbitrária.15 Ademais, no atual estado da arte nos EUA, a destruição algorítmica é um facilitador de governança. Todo o produto de trabalho de IA de uma empresa está agora em risco se ela não proceder corretamente na coleta, segurança, procedência e higidez de dados. O desperdício algorítmico forçará a indústria às melhores práticas, nivelando o campo de jogo para a aplicação da lei, quebrando a assimetria de informação e poder entre agências e empresas de tecnologia que desenvolvem e implantam inteligência artificial e tecnologias de aprendizado de máquina. Isso permite ações de fiscalização mais rápidas e politicamente rígidas, desde que a autoridade seja capaz de identificar quais são os dados, modelos e algoritmos "envenenados"; garantir ou realizar a destruição dos dados, modelos e algoritmos apropriados; verificar se isso foi feito de maneira adequada, ou se há a necessidade de complementar o remédio com sanções adicionais. Contudo, eventual introdução legislativa do disgorgement algorítmico não apenas como remédio, porém como uma nova faceta do direito à privacidade, gera controvérsias. Se em princípio um direito à destruição algorítmica tem a vantagem de ultrapassar a zona da proteção à privacidade do consumidor e tutelar a propriedade intelectual ou reforçar garantias antidiscriminatórias, por outro lado pode significar, como externalidade, um extremo efeito dissuasivo sobre os incentivos ao ambiente de inovação. A ampliação dos encargos de compliance e governança das empresas, torna-as excessivamente cuidadosas com o uso de dados e aprendizado de máquina. É possível que alguns desenvolvedores considerem que o risco e os custos são muito elevados para prosseguir na atividade, desencorajando novos entrantes no mercado. Particularmente, nos EUA, frear a inovação significa um papel menor na formação de normas globais em torno de IA e privacidade, portanto, reduzida capacidade de defender ideais democráticos para o futuro da tecnologia. Assim, qualquer lei que inclua como remédio a exclusão de modelo como consequência do uso indevido de dados, deve estabelecer limites para proteger organizações sem fins lucrativos, pequenas startups e outras partes com recursos limitados para compliance. Ademais, é cada vez mais difícil para o indivíduo mensurar a extensão das violações de privacidade relacionadas à sua privacidade. No complexo ecossistema de dados, encontramo-nos em enorme disparidade de informações em comparação com as grandes corporações e governos. É bem possível que nunca tenhamos conhecimento de que nossos dados estão sendo utilizados para desenvolver um sistema de aprendizado de máquina ou que remanesça uma sombra persistente, mesmo após a exclusão deles. Usuários possuem expectativas sobre a exclusão de dados que não são corroboradas pela realidade da exclusão de dados técnicos. Acreditamos que solicitar a exclusão de dados de uma plataforma também significa que esta excluirá os dados de seu armazenamento privado, o que pode não seja o caso. Assim, uma medida de private enforcement cujo ônus executivo recaia sobre o indivíduo - e não sobre uma agência ou autoridade nacional - talvez seja inefetiva para proteger a sua própria privacidade. Os críticos comparam o disgorgement algorítmico a um martelo cego (blunt hammer) e há um fundo de verdade nessa afirmação. Cego, contudo, não deve ser confundido com aleatório ou equivocado, porém contundente, com a função de eviscerar incentivos estruturais para coleta e manipulação de grandes quantidades de dados de forma despreocupada. É contundente porque dói, não como um martelo no polegar, mas pelo fato de que a accountability doí no começo, mas é necessária. Sim, o disgorgement algorítmico é um martelo, mas estamos construindo uma casa.16 Por tudo que vimos e pela minha longa dedicação ao tema,17 reconheço que a expressão "disgorgement algorítmico" pode ser imperfeita para descrever o novo cenário. O tradicional disgorgement envolve a remoção de lucros que são redistribuíveis para as partes impactadas. Aqui, no entanto, embora o algorithmic disgorgement prive os agentes do produto do trabalho afetado, não implica a redistribuição de ganhos, em vez disso, diz respeito totalmente à destruição do modelo. Independentemente da completa conformação da expressão, o disgorgement algorítmico merece endosso expresso por legisladores como ferramenta essencial para a proteção do consumidor na complexa camada de ilicitude em produtos e negócios edificados com uso intensivo de dados. Portanto, devemos levar a sério a efetivação desse remédio. A inteligência artificial se tornará cada vez mais importante em nossas vidas, sendo imperativo que colaboremos agora para criar estruturas para proteger nossos direitos e interesses em um futuro que esperamos seja melhor para todos. __________ 1 Na ausência de uma lei federal de privacidade, a FTC impõe ações de privacidade com base em sua autoridade da Seção 5 - defesa da concorrência - para regulamentar práticas injustas e enganosas aos consumidores. 2 Hutson, Jevan and Winters, Ben, America's Next 'Stop Model!': Algorithmic Disgorgement (September 20, 2022). Available at SSRN: aqui ou aqui.  3 Mark A. Lemley & Bryan Casey, Remedies for Robots, 86 U. Chi. L. Rev. 1311, 1345 (2019) 4 Exemplos extraídos daqui. 5 Artigo 17 General data protection regulation (GDPR). 6 Art. 18 LGPD: "O titular dos dados pessoais tem direito a obter do controlador, em relação aos dados do titular por ele tratados, a qualquer momento e mediante requisição: IV - anonimização, bloqueio ou eliminação de dados desnecessários, excessivos ou tratados em desconformidade com o disposto nesta Lei". 7 Kate Kaye. The FTC's new enforcement weapon spells death for algorithms, PROTOCOL. (March 14, 2022). 8 Disponível aqui. 9 Disponível aqui. 10 A ideia para este texto, bem como a terminologia "algorithmic shadow" foram desenvolvidas por Tiffany C.Li no artigo intitulado Algorithmic destruction. Li, Tiffany, Algorithmic Destruction (2022). SMU Law Review, Forthcoming, Available at SSRN: aqui ou aqui. 11 "Data deletion does not eliminate the algorithmic shadow. Deleting data from the training data set, the initial data set fed into the computer to train and produce a machine learning model, has no impact on an already trained model. This means that an imprint from the individual user will still remain, though all "data" has been deleted. The algorithmic shadow persists, which means that some measure of privacy loss cannot be undone through the act of data deletion. Thus, there arises a disconnect between the practical reality of data deletion and the supposed goals of data deletion". Algorithmic destruction. Li, Tiffany, Algorithmic Destruction (2022). SMU Law Review, Forthcoming, Available at SSRN: aqui ou aqui.  12 Embora permaneçam dúvidas sobre como exatamente a FTC implementará e monitorará a eliminação algorítmica, esses recentes acordos precedentes demonstram que a agência continuará perseguindo empresas que enganam os consumidores por meio da coleta ilegal de dados pessoais de maneiras inventivas. Extraído em 13.11.2022. 13 O mapeamento de dados e os exigência de sua procedência são essenciais para tornar real a ameaça do disgorgement algorítmico. Há um desafio para a aplicação do remédio que exige regras que mapeiem o ciclo de vida dos dados de forma crítica para informar a supervisão da aplicação a ser realizada. Ou seja, para garantir que o fruto da árvore venenosa possa ser identificado como veneno, é necessário saber de quais sementes veio, com o que foi misturado e quaisquer aditivos ou que possam ter sido adicionados. 14 De fato, o disgorgement algorítmico é intuitivo em relação ao disgorgement monetário. Como Slaughter descreveu em um discurso sobre o futuro da privacidade no século XXI: "We routinely obtain disgorgement of ill-gotten monetary gains when consumers pay for a product that is marketed deceptively. Everalbum shows how we can apply this principle to privacy cases where companies collect and use consumers' data in unlawful ways: we should require violators to disgorge not only the ill-gotten data,but also the benefits- here, the algorithms-generated from that data." Protecting Consumer Privacy in a Time of Crisis, Remarks of Acting Chairwoman Rebecca Kelly Slaughter As Prepared for Delivery Future of Privacy Forum, February 10, 2021. 15 Em suas considerações após o acordo do caso Kurbo, o Diretor da Federal Trade Commission Samuel Levine afirmou: "When we bring enforcement actions, we are committed to obtaining strong, forward leaning remedies that not only cure the underlying harm but also reverse structural incentives to maximize information collection and abuses. This starts with the simple principle that companies should not be able to profit from illegal data practices. That's why we are committed to not only requiring the deletion of unlawfully obtained data, but also the deletion of algorithms and other work products derived from the data." Remarks, Samuel Levine, Director of Federal Trade Commission Bureau of Consumer Protection (May 19, 2022). 16 Hutson, Jevan and Winters, Ben, America's Next 'Stop Model!': Algorithmic Disgorgement (September 20, 2022). Available at SSRN: aqui ou aqui.  17 ROSENVALD, Nelson. Responsabilidade civil pelo ilícito lucrativo. 2. ed. Juspodivm, 2020.
Introdução O dicionário Oxford Languages define interface como um elemento que propicia uma ligação lógica entre duas partes ou mesmo de um mesmo sistema ou de sistemas diversos que não se comunicam diretamente. Já o dicionário Priberam o apresenta como a área ou limite comum a duas unidades distintas que se lhes permite alguma interação, por meio da adaptação lógica destes dois sistemas buscando a obtenção de resultados comuns a ambos. É o que ocorre nas relações entre proteção de dados e inteligência artificial. Trata-se de dois objetos distintos, porém que podem se interconectar. Tomando um exemplo recente, popularizou-se na internet, por meio das redes sociais, aplicativo de inteligência artificial que faz desenhos e fotos a partir de informações e comandos indicados. Em relação as fotos pessoais, há coleta de informações biométricas por meio da recepção da foto do rosto em diversos ângulos, o que permite a inteligência artificial a cumprir com a sua função. Se de um lado referido aplicativo e outros congêneres apresentam períodos de retenção dos elementos carregados, sendo vedado seu uso para identificação, autenticação, criação de perfis, comercialização e publicidade, garantem a utilização de uma base legal para os direitos de seus usuários. Por outro lado, costuma-se liberar a utilização de alguns dados para a personalização de conteúdos, em especial aquelas coletadas por cookies, como as relativas a navegação, conexão, IP, entre outros. Repara-se que os pontos negativos se vinculam a dados sobre outros dados, é dizer estamos diante do uso de metadados, ou informações detalhadas sobre conteúdos gerais. A World Wide Web Consortium1 os definem como informações sobre objetos armazenados na web que podem ser compreendidas pela máquina, implicando em ser a soma total do que pode ser dito sobre algum objeto informacional em algum nível de agregação, de forma que possa ser manipulado como objeto por uma pessoa ou computador. Quando falamos desses metadados, falamos sobre sua função de identificar, descrever e recuperar arquivos; assim como confirmar autenticidade de conteúdo, identificar relações estruturais de objetos e fornecimento de pontos de acesso ao usuário. Podemos dizer, portanto, que são elementos críticos de catalogação e organização de conteúdos e informações em caráter digital. De forma geral esses metadados são gerados em grande quantidade que tornaria impossível para uma pessoa, de forma manual de organizá-los e estrutura-los, o que de fato garantiria a privacidade das pessoas. Entretanto, o uso de inteligência artificial leva a possibilidade de articular referidas informações, dando a ela uma utilidade; neste sentido, o autor Evgene Morozov2 nos alerta sobre o risco que pode ser causado a privacidade e aos dados pessoais, ante ao seu uso por parte de grandes empresas de tecnologias que podem efetuar uma coleta massiva de dados, ainda que de forma oculta ou dissimulada. A partir do uso e da integração desses dados e metadados por algoritmos vinculados a inteligência artificial tem-se a possibilidade de aplicar filtros que permitem encontrar dados e informações não encontradas de outra maneira visto ser necessárias análises estatísticas e probabilísticas substituindo as ações humanas. Evidente o risco de vigilância e violação da própria intimidade e da privacidade pessoal. Isso ocorre, pois, as inteligências artificiais podem se basear em princípios da granularidade e da rastreabilidade das relações sociais mediadas digitalmente, de forma que possa ocorrer uma regulação do comportamento individual por meio do conhecimento dessas informações identificadas. Inteligência Artificial  Segundo Morozov a necessidade pela regulamentação do direito à privacidade individual trouxe à tona o fundamento da imposição de limitações no tratamento dos dados pessoais. É dizer, a mediação dos dados pelas inteligências artificiais impõe-se uma medição tecnocrata da sociedade e das ações humanas havendo uma interseção de lógicas complexas, sendo ressaltado a necessidade de se desenhar fronteiras nítidas entre os algoritmos e os dados com que são alimentados; visto serem os dados são o operador oculto da lógica algorítmica. Segundo a Organização para a Cooperação e do Desenvolvimento Econômico - OCDE - inteligência artificial pode ser definida como um sistema baseado em máquinas que pode, para um determinado conjunto de objetivos pré-determinados, fazer previsões, recomendações, ou decisões que podem influenciar diretamente ambientes reais ou virtuais, sendo concebidos para operar com diferentes níveis de autonomia3. Essa autonomia é desenvolvida por meio do uso de técnicas de Machine Learning, a partir do desenvolvimento de modelos que recebem dados de entrada (input data) para, utilizando-se de análises estatísticas, prever um valor de saída (output value) dentro de um intervalo adequado; podendo serem classificados pelo tipo de aprendizagem proporcionada, sendo que podem ser: supervisionada; não supervisionada e reforçada. Em outras palavras, podemos entender o componente central do funcionamento e aprimoramento das Inteligências Artificiais é o "machine learning", ou seja, a habilidade de melhorar a performance por meio da detecção de novos e melhores padrões a partir de novos dados colhidos e captados ao longo do tempo. O que se vê é uma submissão de grandes massas de dados a fim de que as redes possam interligar mais informações em um menor espaço de tempo. Tal aprendizado da máquina, assim como os processos de tomada de decisão propiciados, só são possíveis graças à Inteligência Artificial - a qual materializa-se em computadores digitais cujos programas raciocinam sobre as diversas facetas do conhecimento, tomam decisões, aprendem, e interagem com seu ambiente, realizando suas atividades com nível alto de sofisticação. Proteção de Dados A partir da compreensão do funcionamento dos Sistemas de Inteligência Artificial baseados em Machine Learning, devemos, então nos questionar qual a sua relação com a Proteção de Dados Pessoais. Antes de mais nada, ao falarmos de proteção de dados, devemos nos recordar que estamos lidando com uma das vertentes dos direitos de personalidade, é uma das expressões da dignidade da pessoa humana. Conforme já discutimos em outros artigos nessa mesma coluna desde a constitucionalização do direito à proteção dos dados4, passando pelas perspectivas e desafios de proteção de dados sensíveis5 estamos diante de uma das vertentes da dignidade da pessoa humana, visto que a partir de 2022 a proteção dos dados pessoais passou a ingressar o rol de direitos e garantias fundamentais expressos na Constituição Federal6. A fundamentalidade do direito à proteção de dados surge de seu conteúdo e alcance jurídico que é intimamente associado à autodeterminação pessoal como uma irradiação do princípio da dignidade humana por meio do integral, livre e completo desenvolvimento da personalidade. Desta forma, como consequência desta fundamentalidade temos que o uso e a coleta de dados devem ter seus critérios: de uso, da forma de coleta e tratamento definidos. Considerações Finais Para fins de conclusão, levanta-se algumas considerações reflexivas. As interfaces existentes entre inteligência artificial e proteção de dados são várias. Aqui, iniciamos trazendo os conceitos de dados e metadados, e algumas considerações críticas quanto a sua possibilidade de uso. Disto, pudermos verificar alguns dos riscos que a aplicação de Sistemas de Inteligência Artificial por meio do uso de Machine Learning pode trazer à proteção dos dados pessoais e consequentemente aos direitos individuais fundamentais. A captação, processamento e uso de dados e de metadados extraídos de diversas formas de redes de massa, é dizer a captação massiva de dados, é uma das interfaces que podem ser levantadas desta relação ampla7. Portanto, fica a reflexão para a necessidade de melhor compreensão destes Sistemas e das suas implicações, em especial a violação da intimidade e da privacidade, recordando que aqui não se pretendeu esgotar o assunto, mas sim apresentá-lo de forma simplificada para melhor compreensão de conceitos e processos a eles vinculados. Bibliografia  CAMPOS, Luiz Fernando de Barros. METADADOS DIGITAIS: revisão bibliográfica da evolução e tendências por meio de categorias funcionais. In. Revista Eletrônica de Biblioteconomia e Ciência da Informação, n. 23. Florianópolis, 2017. ASSETWAY. Metadados com inteligência artificial: como gerá-los. Disponível aqui. Acesso em 06. Dez. 2022. CAI, Charles. Inteligência Artificial em videovigilância e metadados. Revista de Segurança Eletronica [online]. Disponível aqui. Acesso em 06. Dez. 2022 MOROZV, Evgene. BigTech: A Ascensão dos Dados e a Morte da Política; trad. Claudio Marcondes. - São Paulo: Ubu Editora, 2018, 192, pp. COZMAN, Fábio G. PLONSKI, Guilherme Ary; NERI, Hugo (Org.) Inteligência Artificial: Avanços e Tendências. São Paulo: Instituto de Estudos Avançados, 2021. Disponível aqui. Acesso em: 22 de setembro de 2022. OECD. OECD's homepage on legal instrument. Disponível aqui. Acesso em: 23 de setembro de 2022. SALLOUM, Said A. et al. Machine learning and deep learning techniques for cybersecurity: a review. In: The International Conference on Artificial Intelligence and Computer Vision. Springer, Cham, 2020. p. 50-57. OLIVEIRA, Cristina Godoy B. de. Decisões automatizadas no Regulamento Geral Europeu (GDPR): interpretações possíveis. In Migalhas de Proteção de Dados. Disponível aqui. Acesso em 14 dez. 2022. QUINTILIANO, Leonardo. Contexto histórico e finalidade da Lei Geral de Proteção de Dados (LGPD). In Instituto Avançado de Proteção de Dados (IAPD) [online], Ribeirão Preto, 15 mar. 2021. Disponível aqui. Acesso em: 03 ago. 2022.  __________ 1 Principal organização de padronização da rede mundial de computadores, a internet. Consiste em um consorcio internacional que agrega empresas, órgãos governamentais e organizações independentes com a finalidade de estabelecer padrões para a criação e a interpretação de conteúdos para a Web. 2 Evgeny Morozov é um pesquisador Bielorrusso nascido em 1984, que foi professor visitante na Universidade de Stanford; seus estudos envolvem a análise de implicações políticas e sociais do progresso tecnológico e digital, tendo adotado uma posição cética em relação ao potencial democratizante, emancipatório e anti-totalitário que a internet pode promover de acordo com os solucionistas, visto entender esta ser uma ferramenta poderosa para o exercício de vigilância em massa, repressão política, e disseminação de discursos de ódio. 3 Traduzido livremente do original: "a machine-based system that can, for a given set of human-defined objectives, make predictions, recommendations, or decisions influencing real or virtual environments. AI systems are designed to operate with varying levels of autonomy". 4 Reflexões sobre a constitucionalização do direito à proteção de dados. 5 A proteção de dados sensíveis sobre orientação sexual e identidade de gênero vinculados a população LGBTQIA+: perspectivas e desafios. 6 CFRB/1988 - Artigo 5º. LXXIX - é assegurado, nos termos da lei, o direito à proteção dos dados pessoais, inclusive nos meios digitais.  7 OLIVEIRA, Cristina Godoy B. de. Decisões automatizadas no Regulamento Geral Europeu (GDPR): interpretações possíveis. In Migalhas de Proteção de Dados. Disponível aqui. Acesso em 14 dez. 2022.
sexta-feira, 9 de dezembro de 2022

All we need is log?

O que é um log? As recentes manifestações eleitorais trouxeram à tona este termo "velho" conhecido da Computação, mas que estava um pouco esquecido, até mesmo pela mídia específica de Tecnologia da Informação. Inclusive, recentemente, essa mídia especializada estava mais direcionada a comentar sobre soluções computacionais aplicadas, direcionadas a resolver problemas práticos do nosso cotidiano e não estava tão preocupada em remexer os baús de registros de fatos, de informações pregressas, de cousas antigas. Pois é, aqui foi uma explicação brejeira do que é um log. Adianto que não somos o único País a discutir sobre arquivos de log em votações. A Estônia, um dos países com mais serviços governamentais eletrônicos, e-gov1, já analisou inclusive a natureza da interação social entre casais durante votações eletrônicas usando esse tipo de registro, os logs2. Também existem artigos seminais sobre os princípios da votação eletrônica em que o log é analisado3 até sobre seus aspectos forenses no intuito de desvendar eventuais vendas de votos4. No entanto, reforço que as eleições foram só um mote para comentarmos sobre esse tema. Voltemos ao essencial. Aqui estão duas definições técnicas de log que são: 1) A primeira é própria e é oriunda da definição clássica das aulas de sistemas: "Um log é a documentação produzida automaticamente sobre eventos significativos num sistema computacional." Complemento afirmando que praticamente todos os aplicativos e sistemas de software produzem arquivos de log; 2) A segunda é uma definição dada pelo TSE (o "S" da sigla não significa "software", tampouco o "E" significa "especializado"): "Em linguagem de computação, log de dados é uma expressão utilizada para descrever o processo de registro de eventos relevantes num sistema computacional. Os logs são os registros de atividade, como o histórico, de qualquer sistema. É onde se pode localizar possíveis alterações e acessos, como um histórico de atividades desenvolvidas naquele programa"5. Como afirmado, os arquivos de log são um registro histórico de, normalmente, todas as ocorrências num sistema computacional, incluindo eventos como transações, erros e até invasões ao software. São arquivos estruturados, ou seja, com campos específicos e bem definidos os quais geralmente incluem informações como o horário do evento, o tipo de evento e o usuário responsável. Vejamos um exemplo. Muitos sistemas computacionais, como os sistemas hospitalares, registram os eventos ocorridos com e sobre seus profissionais usuários e pacientes. Num hospital informatizado, um log pode registrar eventos tais como: horários de visitas, ingestão de medicamentos, exames realizados, entre outros. Incluo também os equipamentos de beira de leito que monitoram sinais vitais de pacientes. Estes equipamentos podem gerar arquivos de log. É comum que estes sistemas não possam apagar registros anteriores. Em caso de erros ou enganos, um novo registro é criado comentando sobre o erro ou engano anterior. Em sistemas deste tipo, tudo é registrado num arquivo de log, o tipo de evento, o horário do evento e o responsável por ele. Por motivos de segurança, os arquivos de log recebem cuidados especiais de proteção, pois revelam o histórico completo dos acontecimentos no sistema. Na computação, existem formas de registros de log ainda mais restritas e sofisticadas que são os sistemas de arquivos com journaling, termo que podemos traduzir para diário. Nesses sistemas, há um registro de todas as ocorrências, mesmo aquelas que ainda não foram confirmadas pelo sistema. Imagine você retirando dinheiro de um caixa eletrônico num domingo quando, repentinamente, ocorre uma falta de energia no momento em que a máquina se prepara para te entregar as notas? Os sistemas com journaling registram fatos assim e não comprometem o seu extrato e talvez ainda lamentem por esse acontecimento adverso no seu final de semana.  Quem produz log? Praticamente, todos os sistemas computacionais produzem arquivos de log. Por exemplo, o software mais básico que usamos, o sistema operacional, responsável por gerenciar e administrar o hardware do computador, bem como os recursos de softwares instalados, gera arquivos de log. Sim, o Windows, por exemplo, o sistema operacional que opera em mais de 95% dos computadores pessoais produz um arquivo de log que registra detalhes sobre erros no sistema do PC, tais como problemas de hardware e erros de gravação/leitura das memórias interna (RAM) e externa (discos e pendrives). Também produzem logs, os aplicativos de celular, os sistemas das empresas de telefonia, os caixas eletrônicos, os aparelhos de GPS, os roteadores domésticos de acesso à web, as câmeras de segurança, os serviços web como email, editor de texto, planilhas de cálculo, os marcapassos cardíacos, como também alguns medidores digitais de energia elétrica, entre muitos outros equipamentos computadorizados. Sim, o monitoramento pelos arquivos de log é constante. E a minha privacidade? E a LGPD? Bem, esses assuntos podem ficar para uma próxima ocasião. A legislação e os log Como toda atividade diária que envolve os cidadãos, os arquivos de log também estão se moldando à legislação corrente ou, se envolvendo nela. Exemplos não faltam. A lei estadual paulista12.228, de 11 de janeiro de 2006, dispõe sobre os estabelecimentos comerciais que colocam a disposição, mediante locação, computadores e máquinas para acesso à internet a obrigatoriedade de registrar e manter um cadastro atualizado de seus usuários incluindo a hora inicial e final de cada acesso, com a identificação do equipamento utilizado. Essa obrigatoriedade gerou a criação de softwares que são instalados nestas máquinas e que já fazem os registros regulares de atividades dos seus usuários, ou seja, criam arquivos de log. O projeto de lei federal PLS 296/08, similar à lei paulista, em tramitação desde 2008, prevê que os cadastros sejam armazenados por três anos nos estabelecimentos. Talvez o caso jurídico mais emblemático e um dos pioneiros no uso de logs como prova criminal surgiu com a condenação de Alexandre Nardoni e Anna Carolina Jatobá, em março de 2010, pelo assassinato da filha de Alexandre. Mesmo antes do julgamento, na época das perícias criminais em 2008, o casal já havia sido colocado na cena do crime pelos dados coletados do rastreador por GPS do carro da família6. Numa linha semelhante, o famoso caso Carpenter x United States, julgado pela Suprema Corte Norte Americana, e abordado pelo Migalhas7, decidiu pela não aplicação da quarta emenda da Constituição dos EUA. Lembro que esta emenda proíbe a busca e apreensão sem que haja motivo razoável e mandado judicial baseado em causa provável. Recordo que o caso Carpenter x United States surgiu a partir de uma investigação pelo FBI de prática do crime de roubo. Nesta investigação o FBI usou dados sobre a localização dos aparelhos celulares dos suspeitos, bem como os registros das torres de telefonia celular. A polêmica Embora seja interessante a discussão técnica sobre os arquivos de log, é difícil se abster da discussão atual sobre relevância dos arquivos de log nas eleições majoritárias deste ano. Hoje discute-se os resultados dos pleitos recentes8-9. A urna deixou de ser inquestionável. Talvez para resolver os eventuais problemas das urnas eletrônicas de hoje haja mais especialistas do que os potenciais técnicos de futebol frente às partidas da seleção brasileira na Copa do Mundo do Catar. É inegável que a urna é um sistema computacional complexo. Para muitos, é uma simples máquina que capta o número do seu título de eleitor e mais algumas dezenas que correspondem aos votos dados aos candidatos. Tudo é armazenado num "pendrive" cujo conteúdo é remetido aos tribunais eleitorais. Fim. Parece simples, mas não é. A urna é apenas uma parte de um "ecossitema" eleitoral. Esse ecossistema é dividido em vários sistemas específicos, tais como: o Gerenciador de Dados, os Aplicativos e Interface com a Urna Eletrônica (Gedai-UE); o Gerenciador de Aplicativos (GAP), os Softwares Básico da Urna Eletrônica (incluindo o sistema operacional da urna, o UENUX), ou seja, o sistema de Carga (SCUE), o sistema cerne de tudo que é o Votação (Vota), o sistema Recuperador de Dados (RED) e o Sistema de Apuração (SA). Este ecosistema ainda conta com o sistema de apoio ao sorteio de urnas para auditoria - Sorteio, Sistemas de apoio à auditoria de integridade (Votação); o Verificador Pré/Pós-Eleição (VPP); e o verificador de integridade e autenticidade de sistemas eleitorais (AVPART). Tudo isso corresponde a um sistema intrincado de milhões de linhas de código. Reforço que esse ecossistema tem apoio dos arquivos de log. Recordo que comentei acima que vários sistemas computacionais que usamos rotineiramente também possuem históricos na forma de log. Lembro aqui de dois muito usados: os sistemas bancários (caixas eletrônicos e aplicativos) e os rastreadores de sinais de GPS. Estes últimos já usados como prova incontentável de localização e os primeiros já sedimentados quase como "registros em pedra". No entanto, por que motivos depois de 26 da implantação desta tecnologia eletrônica de votação estes dispositivos ainda são contestados?10. A análise dos questionamentos procedimentais dos sistemas eleitorais não está no escopo deste artigo e tampouco é uma tarefa para uma pessoa resolver num curto intervalo de tempo. De qualquer forma, eu gostaria de contribuir neste tema usando duas premissas, ou dois aspectos, que podem ajudar a desvendar essa situação. São elas: a literacia digital e a governança digital. A começar pela literacia digital. Esse termo pode ser entendido como "alfabetização digital", ou seja, refere-se à capacidade da pessoa de utilizar as ferramentas tecnológicas de modo eficaz. Neste quesito, quando vemos o Brasil no panorama global, o Brasil ocupa a 96a posição entre 134 países. Fica na frente da Namíbia por 0,1 ponto e atrás de países como Gana, Cuba, Marrocos, Botswana, Ruanda, Colômbia e segue a lista11. Dos 21 países da América do Sul e Central ocupamos a 12a posição. Não, não é falta de recursos financeiros. Considerando que o Brasil se qualifica como uma economia de rendimentos acima da média nesta região do globo, ocupamos a nona posição entre treze países. Essa falta de "alfabetização digital" não só coloca grande parte da população com pouca vantagem competitiva num universo dominado pela Computação, como coloca esse grupo de "analfabetos digitais" como irresponsivos e dominados por uma tecnologia a qual é obrigado a usar por força da lei. O outro ponto é a governança digital. A governança digital (e-gov) é a utilização, pelo setor público, de TICs (tecnologias da informação e comunicação) para facilitar e agilizar o acesso à informação e à prestação de serviços. O e-gov também incentiva a participação social no processo de tomada de decisão, como é o caso das eleições no Brasil. No entanto, considerando os dados atuais de 2022 das Nações Unidas sobre o índice de desenvolvimento da governança eletrônica no Brasil12, o Brasil ocupa a 49a posição entre 193 países. Podemos considerar um desempenho um pouco melhor que o da literacia digital, mas mesmo assim continuamos atrás da Ucrânia, Croácia e dos nossos vizinhos argentinos. Pelos serviços digitais municipais, estaduais e federais que usamos, podemos perceber que ainda estamos na infância do e-gov, basicamente porque esses serviços digitalizaram a burocracia estatal e não conseguiu aprimorar esses serviços. Perceba, por exemplo, como os serviços digitais nos bancos fez encolher a sua presença física. Inúmeras agências já não contam mais com caixas bancários humanos, apenas caixas eletrônicos. Não foi assim que o e-gov aconteceu no Brasil. Veja as filas e a presença humana nos serviços municipais, estaduais e federais. Como exemplo, recentemente precisei apresentar uma Certidão Criminal Negativa. Acessando o site e-gov.br percebi que, como morador do estado de São Paulo, precisaria apresentar nada menos do que 8 certidões (Justiça Federal, Estadual, Eleitoral, ...)13.  Como essa, são várias outras decepções nos três níveis da Federação. Dadas apenas estas duas constatações percebe-se que ainda temos um longo caminho pela frente para apaziguar essa diferença, essa distância entre os eleitores e a máquina de votação14. Máquina esta que vemos apenas a cada biênio. Elas não estão presentes no nosso cotidiano como os GPS e os caixas eletrônicos. Não temos intimidade. Reparem que essa é a mesma distância que temos diante da política nacional como cidadão15. Votamos e elegemos pessoas totalmente distantes da realidade nacional e as urnas representam e institucionalizam perfeitamente esse distanciamento. All we need is log? Certamente não! Referências bibliográficas  1 How Estonia paved the way for e-government. Disponível aqui. Último acesso em 7 de dezembro de 2022. 2 UNT, Taavi; SOLVAK, Mihkel; VASSIL, Kristjan. Does Internet voting make elections less social? Group voting patterns in Estonian e-voting log files (2013-2015). PloS one, v. 12, n. 5, p. e0177864, 2017. 3 GRITZALIS, Dimitris A. Principles and requirements for a secure e-voting system. Computers & Security, v. 21, n. 6, p. 539-556, 2002. 4 PEISERT, Sean; BISHOP, Matt; YASINSAC, Alec. Vote selling, voter anonymity, and forensic logging of electronic voting machines. In: 2009 42nd Hawaii International Conference on System Sciences. IEEE, 2009. p. 1-10. 5 Glossário de TI - site do TSE. Disponível aqui. Último acesso em 2 de dezembro de 2022. 6 Rastreador ajuda nas investigações do caso Isabella. Disponível aqui. Último acesso em 7 de dezembro de 2022. 7 SCORSIN, Ericson M. Suprema Corte dos Estados Unidos: o debate sobre o direito à privacidade na era digital. Disponível no Migalhas. Último acesso em 7 de dezembro de 2022. 8 Eleições: Bolsonaro pede que TSE anule votos de parte das urnas. Disponível no Migalhas.  Último acesso em 7 de dezembro de 2022. 9 Moraes nega ação do PL que questiona urnas e aplica multa de R$ 22 mi. Disponível no Migalhas. Último acesso em 7 de dezembro de 2022. 10 The Big Lie Is Going Global. We Saw It in Brazil. The New York Times. 14 de novembro de 2022. Disponível aqui. Último acesso em 7 de dezembro de 2022. 11 The digital skills gaps index. Disponível aqui. Último acesso em 7 de dezembro de 2022. 12 E-Government Devopment Index. United Nations. Disponível aqui. Último acesso em 7 de dezembro de 2022. 13 Certidões criminais negativas. Portal do e-gov do Governo Federal. Disponível aqui. Último acesso em 7 de dezembro de 2022. 14 Proteção de Dados Pessoais e Eleitorais na Esfera Pública e Privada: análise segundo a LGPD. Disponível aqui. Último acesso em: 08 de dezembro de 2022. 15 Eleições municipais, LGPD e pandemia: uma combinação imprevisível. Disponível aqui. Último acesso em: 08 de dezembro de 2022.
1 Breve introdução A crescente preocupação com o uso de dados na atual sociedade da informação para fins comerciais e toda a emergente proliferação de normas de proteção dos dados pessoais induz a reflexão sobre a sua comercialização e seus limites. No atual sistema econômico capitalista dominado pelo valor comercial da informação - razão pela qual vem a ser chamado por alguns de informacionalismo1, convém indagar: podemos vender nossos dados pessoais? Se sim, quais os limites? A Lei Geral de Proteção de Dados Pessoais (LGPD) no Brasil não traz expressamente uma resposta. Em seu capítulo III, destinado a disciplinar os direitos do titular de dados, apenas menciona direitos de acesso, correção e à segurança de seus dados ou tratamento. Como se verá a seguir, contudo, apesar de não haver uma regra específica sobre a comercialização ou cessão de dados a qualquer título pelo proprietário dos dados, o sistema jurídico já oferece uma resposta afirmativa à pergunta. Deveras, em se tratando de dados pertencentes à pessoa, é legítimo o direito de qualquer pessoa humana titular desses dados autorizar sua utilização para fins comerciais. Prevalece o princípio da autonomia da vontade, consagrado no artigo 5º, II, da Constituição Federal. Por outro lado, preocupações de ordem ética e a elevação da proteção de dados a direito fundamental (art. 5º, LXXIX, CF) podem conferir limitações à disposição desses direitos. A resposta a essas questões deve considerar o papel da informação na sociedade atual, a análise da privacidade tanto sob a ótica de uma autodeterminação informativa, quando dos direitos patrimoniais. 2 A informação como base do capitalismo informacional A sociedade de informação, iniciada a partir da década de 80 do século XX, tem promovido transformações significativas nas relações sociais e econômicas locais ou globais. Entre os novos paradigmas desse capitalismo informacional (ou informacionalismo)2 está a informação como matéria-prima do sistema.3 Essa futura sociedade da informação nutre especulações positivas e negativas em torno de sua contribuição para o progresso humano. Ao mesmo tempo em que o uso arbitrário ou abusivo da informação desperta um sentimento protecionista, justificando a produção de legislações nacionais para tutela dos dados da pessoa humana, a mesma informação, como base do novo sistema, passa a se tornar o objeto mais valioso do comércio. Se o industrialismo é fundado na capacidade de produção e  comercialização de mercadorias manufaturadas, e o capitalismo financeiro no mercado de créditos, o informacionalismo estrutura-se  no mercado de informações. A informação comercialmente relevante pode se materializar na forma de imagens, localização, comportamentos ou interesses, ainda que potenciais, capturados por desenvolvidos sistemas de inteligência artificial. O interesse e valor comercial em torno da informação, ou de sua forma bruta - os dados -, está claro não apenas por toda a preocupação garantista já mencionada, mas pelo valor de mercado das gigantes da tecnologia (Big Techs), sem mencionar os cada vez mais recorrentes eventos de violação de dados com seu consequente "contrabando" na "deep web". Se os dados brutos ou sua forma elaborada - a informação - constituem a base desse novo sistema econômico, parece lógico que eles podem ser comercializados. Podemos, então, vender nossas informações, nossos dados pessoais? Se sim, quais os limites? Sem grande suspense, especialmente para o público leigo, a resposta é afirmativa. Podemos, sim, "vender", "alugar", "ceder" por diversas formas contratuais nossos dados pessoais. Há, contudo, exceções e limites.  3 Nossos dados pessoais já são "vendidos" Antes de apontar tais exceções e limites, é importante registrar que diariamente "vendemos" nossos dados. Só não temos consciência disso. É claro que não me refiro ao contrato de compra e venda disciplinado no Código Civil, mas ao uso vulgar que damos ao termo "vender", praticamente como sinônimo de comercializar. Com efeito, ao concordarmos com a política de cookies ou privacidade de muitos sites ou aplicativos, estamos concordando com a cessão parcial ou total de nossos dados. A diferença é que essa cessão se dá de forma gratuita. Ao utilizarmos um navegador como o "chrome", ou recorrermos a um buscador como o "google", anuímos, em algum momento, com o compartilhamento de nosso comportamento consumeirista. Nossos interesses nesses ambientes virtuais são dados tratados para se tornarem informações comercialmente atraentes - e, "vendáveis"! Uma empresa que busca anunciar seu produto contrata o "google ad", que nada mais é que um sofisticado mecanismo de inteligência artificial que utilizará nossos dados pessoais (interesse virtual) para nos mostrar o anúncio do produto dessa empresa. Quando realizamos uma busca rápida no "google" procurando uma viagem, esse comportamento cria um dado expresso da seguinte forma: "João acessou a página do "google" e digitou os seguintes termos "viagem para Brasília". Esse fato é um dado interpretado como: "João procura uma viagem para Brasília" (informação). Essa informação alimenta o sistema de inteligência artificial que se integra com o "google ad", que cruza na outra ponta a empresa de pacotes de viagem interessada em vender seu produto a pessoas como João. Ou seja, mediante um sofisticado e difuso sistema articulado por algoritmos (black box), a empresa responsável pelo sistema "google" "vende" seus dados para uma terceira empresa. O problema é que empresas como a "Google", Microsoft, Apple exploram comercialmente nossos dados mediante uma autorização de tratamento, ainda que isso não implique diretamente o acesso de terceiros a eles. Seria possível, portanto, reivindicar direitos de uso de nossos dados, a exemplo do que ocorre com as marcas e o direito de imagem (espécie do gênero dados ou informação)? De acordo com o artigo 5º, II, da Constituição Federal, ninguém é obrigado a deixar de fazer algo senão em virtude de lei. Trata-se da consagração do princípio da autonomia da vontade, que no caso ganha forma como princípio da liberdade de contratar, também reconhecida pelo artigo 421 do Código Civil.  Sem embargo, como ressalva o mesmo artigo, a liberdade de contratar no Brasil não é absoluta, devendo observar limites como a função social do contrato, o regime jurídico dos direitos fundamentais, entre outros limites previstos em lei e na Constituição. 4 Privacidade como propriedade Um ponto controvertido envolvendo a comercialização de dados pessoais envolve o regime jurídico aplicável à relação do indivíduo com seus direitos da personalidade, em especial a privacidade, donde se projetam os dados e informações pessoais.4 Aplicar-se-ia aos direitos da personalidade in commercio  os mesmos institutos e garantias decorrentes do direito de propriedade, ou o regime de tutela dos direitos fundamentais? De fato, muitas são as visões sobre o conteúdo do direito à privacidade, destacando-se o direito de ser deixado sozinho, o direito de exercer autonomia ou controle sobre assuntos de interesse pessoal (autodeterminação informativa) e o direito de limitar o acesso a si mesmo.5 Por isso, muitos interesses já foram protegidos em seu nome, em especial o direito de propriedade. Historicamente, observa-se que a proteção conferida a direitos fundamentais se origina do alargamento da dogmática dos direitos patrimoniais. Assim se deu, por exemplo, com o princípio da proibição do retrocesso social6 e como o princípio da proteção da confiança7, cuja adoção na jurisprudência alemã tiveram por fundamento os direitos patrimoniais. Nos Estados Unidos, cabe citar o caso Yovatt v. Winyard, de 1820, envolvendo a ação movida por Yovatt contra uma alegada cópia de informações de seu livro pessoal de fómulas de remédios, posteriormente utilizada por Winyard, ex-funcionário de Yovatt, em sua clínica particular. O tribunal aplicou ao caso o direito de propriedade para proteção de direitos hoje tutelados sob o manto do direito da concorrência, proteção de marca ou patente, direitos autorais ou privacidade.8 Também no direito inglês, os tribunais não reconheciam ao menos até o início do século XX, a tutela da privacidade, senão por meio da extensão da proteção conferida pelo direito à propriedade, especialmente pela aplicação da máxima "a man's house is his castle".9 A ideia de separação entre direito à privacidade (onde se incluem a proteção de dados e da informação) e direito de propriedade foi inspirada especialmente após a publicação de um artigo, em 15 de dezembro de 1890, por dois jovens advogados de Boston (EUA), Warren e Brandeis, chamado "The right to privacy".10 O direito defendido por ambos, primeiro paradigma teórico voltado à tutela do direito à privacidade, era, contudo, um direito negativo, oponível a terceiros na defesa de sua privacidade. No entanto, já entendiam que o avanço da tecnologia exigiria uma evolução do direito na proteção da dignidade humana. Como observa Seipp, contudo, Warren e Brandeis não propuseram uma autonomia do direito à privacidade, mas apenas procuraram sistematizar doutrinas e entendimentos já existentes em torno da proteção à privacidade, com o objetivo de estender sua aplicação para violações da privacidade cometidas pela imprensa.11 A partir de então, tem sido observado certo ceticismo da doutrina na aplicação do direito de propriedade ao direito à privacidade.12 No Brasil, derivações do direito de propriedade também foram utilizadas, no início, para a proteção da privacidade, citando-se o "caso dos espelhos", em que um edifício com espelhos que expunham a privacidade dos vizinhos teve a obra embargada com fundamento em instituto aplicável à limitação do direito de propriedade ou posse de bem imóvel (nunciação de obra nova).13 O desenvolvimento tecnológico, contudo, e a massificação do tratamento de dados e informações pessoais, bem como a suscetibilidade de seu mau uso por terceiros (empresas, hackers e qualquer pessoa mal-intencionada) exigiram uma modificação qualitativa na dogmática da tutela da privacidade, com o recurso à dogmática da proteção de direitos fundamentais, mais afeito à tutela de direitos da personalidade.14 No entanto, parte da doutrina ainda defende a análise da privacidade numa perspectiva de direito de propriedade, como é o caso de Lawrence Lessig, Professor da Faculdade de Direito de Harvard. Em sua obra "Privacy as property", Lessig questiona essa resistência da doutrina moderna em conceber a privacidade como propriedade, sugerindo as vantagens dessa concepção. O autor questiona: "se os dados fossem considerados uma propriedade, como são os direitos autorais, não seria mais fácil estabelecer um mecanismo de proteção?".15 Na verdade, talvez seja inevitável a aplicação do regime jurídico contratual, assentado em premissas que decorrem do direito de propriedade, aos dados pessoais, quando estes possam ser equiparados aos bens in commercio. A exemplo desses, contudo, a comercialização dos dados pessoais não apresenta liberdade absoluta e também encontra limites explícitos e implícitos no ordenamento jurídico brasileiro. 5 A possibilidade jurídica de comercialização de dados pessoais no Brasil Como visto, a comercialização de dados pessoais é possível na medida em que se compatibilize sua dimensão de direitos fundamentais com a possibilidade de seu uso como res in commercio. O artigo 20 do Código Civil brasileiro regula em parte a hipótese, autorizando, a contrario sensu, a transmissão, publicação, exposição ou utilização da imagem de uma pessoa mediante o livre consentimento. Perdeu o legislador brasileiro a oportunidade de inserir, no artigo 7º da LGPD, a hipótese de comercialização dos dados pessoais, desde que devidamente autorizada, como requisito autorizador de seu tratamento. Nada obstante, a venda, aluguel ou qualquer outra forma de cessão onerosa de dados pessoais encontra abrigo no inciso I do artigo 7º da LGPD, que prevê a possibilidade de tratamento mediante o livre consentimento do titular. Sem embargo, o principal fundamento autorizador da comercialização de dados pessoais pelo titular talvez se funde no fundamento da LGPD consagrado em seu artigo 2º, II - o princípio da autodeterminação informativa. Apesar da infeliz inserção recente na Constituição Federal brasileira da proteção de dados como direito fundamental,16 ainda se reconhece o princípio da autodeterminação informativa como direito fundamental implícito de nossa ordem. Segundo tal princípio, não apenas temos o direito à proteção de nossos dados, mas o direito de controla-los, de decidirmos o que fazer com eles. Ocorre que nossos dados pessoais, assim como nossa privacidade, também são tutelados pela Constituição brasileira e por princípios ínsitos ao Estado de Direito, como a dignidade humana, que restringe nossa liberdade ao coibir situações que atentem contra nossa dignidade. A venda de órgãos, o uso de nossa imagem como pessoa com alguma deficiência para fins comerciais, entre outras hipóteses, são exemplos de situações em que nossa liberdade de dispor sobre nós mesmos é restringida, porquanto nelas se presume uma ofensa à nossa dignidade, com a qual possivelmente concordamos por nos encontrarmos em uma posição de desigualdade econômica, social ou até mesmo psicológica. Para evitar tais abusos, reconhece expressamente o Código Civil a inalienabilidade e intransmissibilidade de direitos fundamentais, razão pela qual não podemos simplesmente "vender" nossos dados pessoais para uma Big Tech, ou renunciar todos os direitos sobre nossas informações. Isso não impede, por exemplo, que celebremos um contrato de cessão provisória de dados, ou cessão definitiva de dados produzidos em determinado contexto, tal qual a cessão de um direito de imagem a certa produtora pela participação em um filme. A gama de possibilidades de uso de dados pessoais para fins comerciais é certamente inestimável, assim como as limitações e condicionamentos que apenas a riqueza dos casos concretos permitirá identificar.  Conclusão A comercialização de dados pessoais é implicitamente autorizada em nosso sistema jurídico, fundando-se no primado da autonomia da vontade e consequente liberdade de contratar, a par do princípio da autodeterminação informativa, uma dimensão da dignidade humana. Protegidos por direitos fundamentais expressos e implícitos, contudo, a comercialização de dados pessoais deve considerar a modalidade contratual e os limites e condicionamentos impostos aos direitos fundamentais, especialmente os direitos da personalidade, entre as quais a irrenunciabilidade e intransmissibilidade, salvo as hipóteses legalmente previstas e constitucionalmente admitidas. Saber, portanto, se um determinado contrato envolvendo o uso de dados pessoais é válido no Brasil, exigirá do profissional do Direito, em grande parte das vezes, o recurso às técnicas de interpretação constitucional, em especial a  ponderação e o sopesamento, de modo a harmonizar a tensão constante e cada vez mais recorrente entre a liberdade de contratar e dispor de nossos direitos da personalidade e a proteção constitucionalmente conferida contra o abuso na utilização de nossos dados pessoais para fins comerciais que viole nossa própria dignidade. ____________ 1 Conceito trazido por CASTELLS, Manuel. A era da informação: economia, sociedade e cultura. In: A Sociedade em rede. São Paulo:  Paz e Terra, 2011, v. 1, p. 50 et seq. 2 Conceito trazido por CASTELLS, Manuel. A era da informação: economia, sociedade e cultura. In: A Sociedade em rede. São Paulo:  Paz e Terra, 2011, v. 1, p. 50 et seq. 3 Ibidem. 4 FERRAZ JÚNIOR, T. S. Sigilo de dados: o direito à privacidade e os limites à função fiscalizadora do Estado. Revista da Faculdade de Direito, Universidade de São Paulo, [S. l.], v. 88, p. 439-459, 1993. Disponível em: https://www.revistas.usp.br/rfdusp/article/view/67231. Acesso em: 20 mar. 2022. 5 PARENT, W. A. Privacy, Morality, and the Law. Philosophy & Public Affairs, v. 12, n. 4, p. 269-288. Disponível em: http://www.jstor.org/stable/2265374. Acesso em: 21 nov. 2022. 6 SARLET, Ingo Wolfgang. A eficácia dos direitos fundamentais: uma teoria geral dos direitosfundamentais na perspectiva constitucional. 11. ed. Porto Alegre: Livraria do Advogado, 2012, p. 450-1. 7  Cf. QUINTILIANO, Leonardo David. Direitos sociais e vinculação do legislador: as reformas previdenciárias e seus limites constitucionais no estado social e de direito. Rio de Janeiro: Lumen Juris, 2019, p. 194. 8 Cf. PROSSER, William L. Privacy. California Law Review, v. 48, n. 3, ago. 1960. p. 384 et seq. 9 SEIPP, David. J. The Right to Privacy in Nineteenth Century America. Harvard Law Review, v. 94, p. 1892 et seq. Disponível em: https://scholarship.law.bu.edu/cgi/viewcontent.cgi?article=2613&context=faculty_scholarship. Acesso em: 20 nov. 2022. 10 WARREN, Samuel D.; BRANDEIS, Louis D. The Right to Privacy. Harvard Law Review, vol. IV, 15 de dezembro de 1890, n° 51890. Disponível em:  http://groups.csail.mit.edu/mac/classes/6.805/articles/privacy/Privacy_brand_warr2.html. 11 SEIPP, David. J. The Right to Privacy in Nineteenth Century America. Harvard Law Review, v. 94, p. 1893 Disponível em: https://scholarship.law.bu.edu/cgi/viewcontent.cgi?article=2613&context=faculty_scholarship. Acesso em: 20 nov. 2022. 12 Cf. SEIPP, David. J. The Right to Privacy in Nineteenth Century America. Harvard Law Review, v. 94, p. 1895 et seq. Disponível em: https://scholarship.law.bu.edu/cgi/viewcontent.cgi?article=2613&context=faculty_scholarship. Acesso em: 20 nov. 2022. 13 Cf. Tribnal de Alçada do Rio Grande do Sul, Brasil, 6ª CC, AC 195079868, j. em 28.09.1995. 14 REGIS, E. D. S. Linhas gerais sobre a lei 13.709/2018 (A LGPD): objetivos, fundamentos e axiologia da lei geral de proteção de dados brasileira e a tutela de personalidade e privacidade. Revista de Direito Privado, v. 21, p. 66, jan./mar. 2020. ISSN 103. Disponivel em: https://pcpcadv.com.br/pdf/artigos/lgpd-erick-regis.pdf. Acesso em: 21 nov. 2022. 15 LESSIG, Lawrence. Privacy as property. Social Research, v. 69, n. 1, Spring 2002, pp. 250-3. 16 De fato, o termo "proteção de dados" fica aquém do real alcance do âmbito de proteção jusfundamental à autodeterminação do indivíduo, na medida em que ele não tem apenas o direito a ter seus dados protegidos, mas inclusive o direito de decidir o que fazer com eles.
Nota-se um paralelo entre o inc. II do art. 43 da LGPD com o Código de Defesa do Consumidor torna-se irresistível; afinal, o art. 43 disciplina a exclusão de responsabilidade por meio da mesma técnica do art. 14, §3º, do CDC, que elenca, em um rol taxativo, as únicas hipóteses em que os agentes não serão responsabilizados. Se comparadas, nota-se que as redações dos dispositivos são quase idênticas ("os agentes de tratamento só não serão responsabilizados quando"), levando parte da doutrina a acreditar que a LGPD optou pelo sistema objetivo1. Contudo, embora essa construção sintática seja típica da responsabilidade objetiva2, uma vez que promove o estreitamento das excludentes de responsabilização, logo no inciso II do mesmo artigo, haveria um aparente alargamento dessas excludentes. Ao tornar possível a exclusão de responsabilidade ante a comprovação da não violação à LGPD, ainda que os agentes tenham realizado o tratamento de dados pessoais que lhes é atribuído, a doutrina subjetivista afirma que o inciso II tornaria possível uma análise baseada na culpa3. Para os subjetivistas, tendo em vista que a legislação de proteção de dados é pautada em uma série de condutas a se observar, condicionar a exclusa~o da responsabilidade civil à observância dessa legislação leva à necessidade de que seja feita uma análise da conduta e, por extensão, da culpa do agente para a responsabilização. Trata-se de um argumento lógico e com o qual concordaríamos se os filtros para a responsabilização na LGPD não fossem demasiadamente estreitos e estritamente objetivos. Mesmo havendo vozes na jurisprudência que se aliem a essa concepção, firmando que "a responsabilidade atribui'da aos agentes de tratamento não é objetiva"4, há outras que sequer notam uma incompatibilidade entre o polêmico inciso II do art. 43 da LGPD e a responsabilidade objetiva. Em julgado da 36a Câmara do Tribunal de Justiça de São Paulo é pontuado que a "responsabilidade dos controladores e operadores e' objetiva, mas dela se eximem se não houve violação à legislação de proteção de dados"5. Ou seja, em que pese a excludente ora mencionada, entendem que a lei desprezaria a culpa. Outro grande protagonista do debate é o art. 44 da LGPD. Novamente, a alusão ao Código de Defesa do Consumidor é irresistível, pois o artigo exprime uma versa~o adaptada do conceito de defeito de serviço insculpido no art. 14, §1º,do CDC6. Ainda que as palavras "defeito" e "vício" não façam parte da redação do artigo7, a inspiração é inegável, basta abrir cada um dos diplomas legais e colocar os dispositivos lado a lado. Assim, da mesma forma que a legislação consumerista entende pelo defeito do serviço se não for fornecida a segurança esperada pelo consumidor, o tratamento de dados será irregular quando não corresponder com essa mesma expectativa de segurança8. Os subjetivistas, contudo, embora reconheçam inspiração do art. 14 §1º do CDC no art. 44 da LGPD, defendem que a atribuição de responsabilidade decorrente deste artigo necessita da prova de que não foram adotadas medidas de segurança9. Ao que defendem, o art. 44 dependeria diretamente de seu parágrafo único, o qual condiciona a responsabilização à prova de que medidas de segurança aptas a proteger os dados não foram adotadas. Para eles, ainda que o dano decorresse da quebra de uma legi'tima expectativa de segurança, não seria possível responsabilizar o agente sem que fosse feita uma ana'lise valorativa de sua conduta, provando que ele deixou de implementar as medidas que lhe cabiam10. Tal tese parece-nos mais um malabarismo com a redação e topografia confusa do artigo do que uma interpretação conforme o espírito da LGPD. Se forem permitidos esses exercícios mentais, propomos a seguinte leitura da legislação: de acordo com a própria redação do art. 44, é irregular o tratamento que não forneça a segurança esperada. Pois bem. Se o tratamento é irregular, logicamente, ele é contrário à LGPD. Admitir raciocínio diverso seria afirmar que um tratamento de dados irregular não viola a legislação ou que a legislação permite um tratamento de dados irregular. São duas ideias absurdas! Partindo dessa premissa óbvia conclui-se: se não foi fornecida a segurança esperada, houve tratamento irregular de dados; se houve tratamento irregular, houve violação à legislação; se houve violação à legislação, não é possível exclusão de responsabilidade com base no inciso II do art. 43; afinal, somente não serão responsabilizados os agentes que respeitarem toda a lei de proteção de dados. Portanto, o agente que não fornecer a segurança esperada não se encaixa nas únicas excludentes de responsabilidade enunciadas no art. 43. É um jogo de palavras a partir das lacunas que a lei fornece. Compreendendo, ainda que brevemente, os principais fundamentos de cada uma das correntes, acaba se reconhecendo que o debate em torno de qual seria a responsabilidade civil decorrente da LGPD é quase tragicômico. A partir da interpretação dos mesmos dispositivos, as correntes chegam a conclusões diametralmente opostas. Elas são como um espelho que reflete, ponto a ponto, exatamente a imagem que se volta para ele, mas num giro de 180 graus. Questiona-se: como foi possível o surgimento de posicionamentos tão opostos a partir da interpretação da mesma série de dispositivos? A resposta se encontra no título do artigo. Por algum tempo, doutrinadores ficaram obcecados em traçar uma oposição entre a responsabilidade objetiva e a subjetiva. Contudo, trata-se de uma falsa dicotomia, que se dissolve cada vez mais ante a mudança do papel da culpa. A transformação ontológica da culpa foi intensa, transitando de uma culpa anímica, em que a reserva mental era relevante, para uma culpa objetiva11, na qual aferir se a conduta foi ou não culposa é verificar se ela observa o padrão esperado de comportamento. Essa transformação, no entanto, causou certa confusão na doutrina, pois se entendia que uma análise in abstracto seria contrária à ideia de responsabilidade subjetiva justamente por ser uma análise dotada de objetividade12. Contudo, ao contrário do que se concebe, os sistemas de responsabilização objetivo e subjetivo não podem ser lidos como duas esferas dissociadas e isoladas. Não são separados e intangíveis! Ao contrário, a responsabilidade subjetiva e a objetiva são dois extremos de uma linha conti'nua, cada uma de um lado, podendo haver sistemas intermediários entre eles13. Em outras palavras, pode haver uma análise de culpa na responsabilidade objetiva e vice-versa; da mesma forma, pode haver uma análise dotada de alta objetividade na responsabilidade subjetiva. São dois raciocínios diferentes que chegam à mesma conclusão: os sistemas de atribuição de responsabilidade se imiscuem. É exatamente pela volatilidade que o sistema de responsabilidade civil pode possuir na prática que há tamanho debate doutrina'rio acerca de qual seria aquele eleito pela LGPD. Embora não façam referência a essa concepção de que pode haver sobreposição de objetividade e subjetividade na atribuição de responsabilidade, DRESCH e FALEIROS JÚNIOR14 vão partir em defesa de que, na LGPD, há uma responsabilidade objetiva especial. Chamam de "especial" justamente por haver um grau de análise qualitativa nos padrões de conduta; porém, todos seriam objetivamente considerados. Ora, afirmar isso é acabar por reconhecer que pode haver algum grau de subjetivismo na objetividade. Ironicamente, BRUNO BIONI e DANIEL DIAS defendem a mesma concepção, mas de maneira invertida, espelhada. Ao invés de afirmarem que a LGPD inaugura uma análise qualitativa da conduta na responsabilidade objetiva, defendem que há um altíssimo grau de objetividade em uma responsabilidade que seria subjetiva. Os autores inclusive pontuam a necessidade de se avançar para além de uma concepção binária e baseada em frágeis antagonismos de se o sistema é objetivo ou subjetivo.15 Chamem de risco na responsabilidade subjetiva ou de culpa na responsabilidade objetiva, a responsabilização sera' a partir de um mesmo raciocínio: se não cumpridas as regras da lei, haverá responsabilidade. E ao que se nota, a lei impõe uma dupla atuação do agente de tratamento de dados, tanto de forma posterior ao dano quanto anterior: adotar medidas, implementá-las e demonstrar eficácia16. Se não adotar essa postura e antecipar os riscos, ele será responsabilizado se dessa falta de proatividade resultar dano. No entanto, não se exige um dever hercúleo do controlador de dados: não é sobre todo e qualquer risco, irrestritamente, que ele deve se responsabilizar, mas sim somente sobre aquilo que se considera a legi'tima expectativa dos padrões da indústria17. A ideia a ser desenvolvida é, ao nosso ver, similar com a disposta no Código de Defesa do Consumidor: trabalhar-se-á com conceito juri'dico indeterminado e cujo sentido deve ser concretizado pelos tribunais nas circunstâncias do caso concreto18. Nesse caso, junto do Poder Pudiciário, destaca-se a necessidade de um protagonismo da ANPD para delimitar quais os padrões mínimos nas principais situações de tratamento de dados, o que fatalmente irá orientar na conferência do estrito cumprimento da LGPD. O raciocínio deve ser o mesmo que já é aplicado: da mesma forma que não é exigido o padrão de segurança de uma instituição financeira a uma pequena mercearia não deve ser imposto aos agentes de tratamento adotar toda e qualquer medida de segurança. De toda forma, a responsabilização na LGPD será a partir de padrões bastante objetivos. E o agente que observa integralmente a lei, cobre todo o risco de seu empreendimento. ___________ *Cíntia Rosa Pereira de Lima é professora de Direito Civil da Faculdade de Direito da USP Ribeirão Preto - FDRP. Doutora em Direito Civil pela Faculdade de Direito da USP com estágio na Universidade de Ottawa (Canadá) com bolsa CAPES - PDEE - Doutorado Sanduíche e livre-docente em Direito Civil Existencial e Patrimonial pela Faculdade de Direito de Ribeirão Preto (USP). Pós-Doutora em Direito Civil pela Università degli Studi di Camerino (Itália) com fomento FAPESP e CAPES. Líder e Coordenadora dos Grupos de Pesquisa "Tutela Jurídica dos Dados Pessoais dos Usuários da Internet" e "Observatório do Marco Civil da Internet", cadastrados no Diretório de Grupos de Pesquisa do CNPq e do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP).  Presidente do Instituto Avançado de Proteção de Dados - IAPD (www.iapd.org.br). Advogada. *Davi Petroni Cardoso da Silva é Bacharelando da Faculdade de Direito de Ribeirão Preto da Universidade de São Paulo e bolsista do Programa Unificado de Bolsas da Universidade de São Paulo. ___________ 1 LIMA, Cíntia Rosa Pereira de; MORAES, Emanuele Pezati Franco de; PEROLI, Kelvin. O necessário diálogo entre o Marco Civil da Internet e a Lei Geral de Proteção de Dados para a coerência do sistema de responsabilidade civil diante de novas tecnologias. In: MARTINS, Guilherme Magalhães; ROSENVALD, Nelson (Coord.). Responsabilidade civil de novas tecnologias. Indaiatuba: Editora Foco, 2020, p. 158 2 TEIXEIRA, Tarci'sio; ARMELIN, Ruth Maria Guerrero da Fonseca. Responsabilidade e ressarcimento de danos por violac¸a~o de regras previstas na LGPD: um cotejamento com o CDC. In: LIMA, Cíntia Rosa Pereira de (Coord.). Comentários à Lei Geral de Proteção de Dados: Lei nº 13.709/2018, com alterac¸a~o da Lei nº 13.853/2019. São Paulo: Almedina, 2020, p. 303. 3 GUEDES, Gisela Sampaio da Cruz; MEIRELES, Rose Melo Vencelau. Capítulo 8. Término do tratamento de dados. Parte I: aspectos estruturais do tratamento de dados. In: TEPEDINO, Gustavo; FRAZÃO, Ana; OLIVA, Milena Donato (Coord.). Lei geral de proteção de dados e suas repercussões no Direito Brasileiro. 2a ed.  São Paulo: Thomson Reuters, 2020, p. 232. 4 BRASIL, Tribunal de Justiça de São Paulo. Apelac¸a~o Ci'vel 1000407-06.2021.8.26.0405; Rel. Ministro Soares Levada; Órgão Julgador: 34a Ca^mara de Direito Privado; Comarca de Osasco; Data do Julgamento: 16/08/2021; Data de Registro: 19/08/2021. 5 BRASIL, Tribunal de Justiça de São Paulo; Apelação Cível 1025180-52.2020.8.26.0405; Rel. Ministro Arantes Theodoro; Órgão Julgador: 36a Ca^mara de Direito Privado; Foro de Osasco; Data do Julgamento: 26/08/2021; Data de Registro: 26/08/2021. 6 SCHREIBER, Anderson. Responsabilidade civil na lei geral de protec¸a~o de dados. In: MENDES, Laura Schertel; DONEDA, Danilo; SARLET, Ingo Wolfgang; RODRIGUES JR, Otávio Luiz. Tratado de proteção de dados pessoais. São Paulo: Forense, 2020. p. 327. 7 MARTINS, Guilherme Magalha~es. Capítulo 16. A lei geral de proteção de dados pessoais e os consumidores. In: MARQUES, Cla'udia Lima; MIRAGEM, Bruno; DIAS, Luciana Ancona de Magalha~es Lopes (Coord.). Direito do Consumidor: 30 anos de CDC. Rio de Janeiro: Forense, 2021, p. 431. 8 TEIXEIRA, Tarci'sio. ARMELIN, Ruth Maria Guerrero da Fonseca. Responsabilidade e ressarcimento de danos por violac¸a~o a`s regras previstas na LGPD: um cotejamento com o CDC. In: LIMA, Ci'ntia Rosa Pereira de (Coord.). Comentários à Lei Geral de Proteção de Dados: Lei nº 13.709/2018, com alterac¸a~o da Lei nº 13.853/2019. São Paulo: Almedina, 2020, p. 304. 9 CRESPO, Marcelo. Compliance digital. In: NOHARA, Irene Patri'cia; PEREIRA, Fla'vio de Lea~o Bastos (Coord.). Governança, compliance e cidadania. Sa~o Paulo: Revista dos Tribunais, 2018, pp. 192-195. 10 SCHREIBER, Anderson. Responsabilidade civil na Lei Geral de Proteção de Dados Pessoais. In: MENDES, Laura Schertel; DONEDA, Danilo; SARLET, Ingo Wolfgang; JÚNIOR, Otávio Luiz Rodrigues; BIONI, Bruno (Coord.). Tratado de proteção de dados pessoais. Rio de Janeiro: Forense, 2021, p. 327. 11 SCHREIBER, Anderson. Novos paradigmas da responsabilidade civil: da erosão dos filtros da reparação à diluição dos danos. São Paulo: Atlas, 2007, p. 33. 12 Assim relatam os seguintes autores: DIAS, José Aguiar. Da responsabilidade civil. Rio de Janeiro: Renovar, 2006, p. 100; SCHREIBER, Anderson. Novos paradigmas da responsabilidade civil: da erosão dos filtros da reparação à diluição dos danos. São Paulo: Atlas, 2007, p. 37 13 "This treatment of strict and fault-based liability as opposites is a monumental mistake. In fact, tort liability is almost always simultaneously fault-based and strict. For torts ranging from battery to negligence, and from libel to trespass, liability is imposed on the basis of wrongdoing. Yet, it is also imposed strictly-that is, in a demanding or unforgiving manner. As the first half of our title suggests, there is strict liability in fault." GOLDBERG, John. ZIPURSKY Benjamin, The Strict Liability in Fault and the Fault in Strict Liability. Fordham Law Review, New York, v. 85, issue 2, 2016, p. 745. 14 DRESCH, Rafael; JUNIOR, José Luiz de Moura Faleiros. Reflexo~es sobre a responsabilidade civil na Lei Geral de Protec¸a~o de Dados (Lei 13.709/2018). In: ROSENVALD, Nelson; DRESCH, Rafael de Freitas; WESENDONCK, Tula (Coord.). Responsabilidade civil: novos riscos. Indaiatuba: Foco Jurídico, 2019, pp. 85-88 15 BIONI, Bruno; DIAS, Daniel. Responsabilidade civil na LGPD: construção do regime por meio de interações com o CDC. In: MARQUES, Claudia Lima; MIRAGEM, Bruno; DIAS, Luciana Ancona de Magalha~es Lopes (Coord.). Direito do Consumidor: 30 anos de CDC. Rio de Janeiro: Forense, 2021, p 518. 16 BRANCHER, Paulo Marcos Rodrigues; KUJAWSKI, Fábio Ferreira; CASTELLANO, Ana Carolina Heringer Costa. Princi'pios gerais de proteção de dados pessoais: uma ana'lise dos princi'pios elencados no art. 6º da Lei nº 13.709/2018 (LGPD). In: BRANCHER, Paulo Marcos Rodrigues; BEPPU, Ana Cláudia (Coord.). Proteção de dados no Brasil: uma nova visão a partir da Lei nº 13.709/2018. Belo Horizonte: Fórum, 2019, p. 81. 17 MIRANDA, Heitor Carma'ssio. Exoneração e limitação de responsabilidade por violação de dados pessoais nos contratos de computação em nuvem. Tese de Mestrado. São Paulo: Faculdade Getúlio Vargas, 2021, p. 73. 18 REINIG, Guilherme Henrique Lima. A responsabilidade do produtor pelos riscos do desenvolvimento. São Paulo: Atlas, 2013, p. 30.
Preliminares Vivemos tempos nos quais, como sociedade, já dominamos o uso da tecnologia da informação para propagar a nossa voz, incrementar nossos negócios, aumentar nossa produtividade e nos aproximarmos como indivíduos. No entanto ainda estamos preocupados com a segurança das nossas informações nestes ambientes computacionais. Será que a Computação Confidencial será uma das inovações que nos deixará mais confiantes quanto ao uso do computador? Mesmo antes de comentarmos sobre Computação Confidencial, devemos analisar os riscos de segurança que recaem sobre a computação convencional. Todo computador é composto por dois tipos de dispositivos, que são: 1) Os dispositivos físicos (hardware) e; 2) Os dispositivos lógicos (software). Quando comentamos sobre segurança cibernética, na maioria das vezes, estamos preocupados com a segurança dos nossos dados, ou seja, dos dados inseridos na máquina, como também da garantia que os softwares, que atuam sobre os dados, produzam o resultado desejado de modo confiável e seguro e, não obstante, com a segurança dos dados resultantes da computação. Em linhas gerais, basicamente estamos preocupados com os aspectos de segurança relacionados ao software. São questões comuns neste tema: É seguro editar um arquivo neste serviço de computação em nuvem? É seguro deixar minhas fotos e dados pessoais na nuvem? Meu computador tem um antivírus confiável? Posso usar e confiar no serviço de banco digital a partir do meu celular? E sobre quais softwares estamos comentando? Basicamente, estamos falando em dois tipos de softwares, que são: 1) O software de aplicação, ou seja, o software que realiza a função desejada e final do usuário, seja ele editar um texto, usar uma planilha, usar um navegador web, entre outros; 2) Também há o software básico que é o sistema operacional. Todo computador ganha "vida" apenas quando operado por um software que interconecta todos os elementos do hardware e os gerencia, ou seja, o sistema operacional. Em termos práticos, estamos falando do Windows, do iOS para os Apple, como também os sistemas baseados em Linux. Em quais situações devo me preocupar com a segurança? Historicamente são duas as principais situações em que os seus dados correm risco. São elas: a) Quando os dados estão armazenados. Dizemos também que os dados estão em repouso, ou seja, quando os dados estão na memória principal do computador, ou armazenado em discos internos, ou mesmo em memórias secundárias externas como os pen drives (memórias flash); b) A outra maneira é quando os dados estão em trânsito, ou seja, quando estão sendo "transportados" entre dispositivos distintos. E como isso pode acontecer? Consideramos como dados em "trânsito" várias situações, entre elas estão: a transferência de dados numa rede de computadores, ou seja, via wi-fi, bluetooth, via web, email, etc; a transferência entre dados em memória, ou seja, da memória principal para os discos (secundária), entre discos, entre a memória secundária interna (discos) e as memórias secundárias externas (pen drives, discos externos, CD e outros). Meus caros, até os automóveis que possuem essas chaves eletrônicas estão em perigo atualmente. Hoje os criminosos conseguem romper os códigos trocados entre as chaves digitais e seu automóvel em segundos1. Sobre os dados em repouso, as ameaças ocorrem pela perda ou furto do equipamento, como também pela ação maliciosa de softwares que vasculham os discos a procura de informações valiosas para os criminosos. Daí a razão de ter instalado um antivírus confiável. Criptografia novamente? Eu uso isso? Sim. Usa! A criptografia é o principal mecanismo de proteção de dados, tanto os dados em trânsito quanto os dados armazenados, ou seja, em repouso2.  A criptografia também é empregada desde a comunicação numa rede wi-fi doméstica (Wired Equivalent Privacy (WEP), Wi-Fi Protected Access (WPA), and Wi-Fi Protected Access Version 2 (WPA2)), até a comunicação por Bluetooth, no WhatsApp e no Telegram.O Facebbok e o Twitter ainda não dispõem de criptografia ponta-a-ponta3 4. Para os serviços em nuvem, tais como os serviços da Google, da Microsoft e da Amazon, todos eles garantem a segurança dos dados em trânsito e em repouso com base em serviços criptográficos. E por que estamos comentando sobre serviços em nuvem? Atualmente, grande parte dos serviços jurídicos, via computador, em escritórios usa a tecnologia de armazenamento em nuvem tanto para o armazenamento de dados, quanto que a realização da computação, ou seja, do processamento de dados. O próprio serviço do TJSP, a Plataforma de Justiça Digital, utiliza os serviços em nuvem da Microsoft5. Pequenos escritórios também têm seu cotidiano facilitado por pacotes similares ao Google Workspace que, como assemelhados, é uma coleção de ferramentas de computação em nuvem para aumentar produtividade e facilitar a colaboração dos usuários. Esses serviços geralmente são compostos por softwares de email, editores de texto, planilhas de cálculo, calendário colaborativo, agenda de contatos, chat e software de comunicação e teleconferência. Ataques às CPUs O que pouca gente sabe é que os computadores também são vulneráveis aos ataques às CPU (Central Processing Unit), ou seja, seus dados podem ser roubados ou adulterados enquanto estão sendo processados e não somente enquanto estão em repouso ou em trânsito. Talvez o caso mais antigo de ataque à CPU, ou seja, ao processador central do seu computador, tenha ocorrido em 2017 com a descoberta do software Meltdown. Na verdade, o Meltdown e o Spectre são dois softwares que exploram as vulnerabilidades dos processadores6. Embora os softwares convencionais não tenham permissão para ler dados de outros programas, um programa malicioso pode explorar o Meltdown e o Spectre para obter segredos armazenados na memória de outros programas em execução. Hoje, praticamente, não importa o dispositivo eletrônico que você usa, se é um telefone celular, se são os dispositivos eletrônicos de seu automóvel, um relógio digital, um tablet, um computador doméstico, ou mesmo um computador em nuvem, todos esses dispositivos têm um processador e todos estão correndo o risco de serem violados7. Praticamente toda semana surgem listas atualizadas sobre descobertas ou atualizações contra os riscos de ataques em CPUs8. Sabe aquele dinheirinho "suado" que você não usou e que, ao final do mês, aplicou numa criptomoeda? Sim, eu lamento, mas até ela também está em risco. Hoje, o segundo lugar na lista dos softwares que mais sofrem abusos é o chamado XMRig9. XMRig é um software de código aberto para CPU usado para minerar a criptomoeda Monero10. Os criminosos geralmente abusam desse software de código aberto, integrando-o a um malware para realizar mineração ilegal nos dispositivos das vítimas. Hoje, no mundo, temos mais de RS12bi em moneros a um custo de mais de R$860 cada criptomoeda. Enfim, o que é a Computação Confidencial? A computação confidencial é uma tecnologia emergente de segurança cibernética que executa tarefas computacionais que garantem a segurança das CPUs enquanto estão em uso. Essencialmente, como muitas organizações usam espaços e processamento por meio de serviços em nuvem, diversas empresas podem ocupar as mesmas instalações físicas ao mesmo tempo. Em tese, pode ocorrer que a presença de softwares distintos de duas organizações que processam os dados no mesmo ambiente possam ser usados para corromper ou espionar os dados do concorrente. Fundamentalmente, a computação confidencial torna possível a coexistência, e até a colaboração, de duas organizações num mesmo ambiente computacional de modo a combinar, analisar e até gerar informações novas a partir de seus dados ao mesmo tempo que mantêm não apenas os dados seguros, mas também os códigos (os algoritmos) "invisíveis" pelo sistema computacional e até pelos operadores humanos. Numa arquitetura de computação confidencial, todos os cálculos, os processamentos, são realizados em ambiente criptografado baseado em hardware na CPU. Estes são conhecidos como ambiente de execução confiável (TEE, do inglês Trusted Execution Environment). Dados e código não podem ser visualizados, adicionados, removidos ou modificados quando estiverem dentro de um TEE. A Computação Confidencial permite que as organizações isolem os dados em uso para que não sejam expostos à infraestrutura que os processa. Essa abordagem de proteção de segurança protege dados e códigos enquanto eles estão sendo usados por aplicativos, permitindo que as organizações tenham mais confiança na execução de aplicativos confidenciais na nuvem. Em quais casos podemos usar a Computação Confidencial? Como dissemos, no modelo atual de computação chamado SaaS (Software as a Service), ou seja, de software como serviço em que o usuário paga uma taxa para usar serviços online (email, editores, planilhas, chat, entre outros) as grandes empresas como Google e Microsoft já dispõem desta tecnologia. Em outros modelos, os quais os softwares são proprietários, muitas vezes elaborados sob demanda, a migração de todo o processamento para ambientes em nuvem permite aproveitar o serviço de computação confidencial disponível pelos provedores. Neste caso, irá ocorrer o isolamento dos processos da empresa contratante da infraestrutura de serviços da contratada, além de ter seu produto protegido contra eventuais administradores mal-intencionados do software. Além deste desacoplamento entre serviço e infraestrutura, a computação confidencial previne o desvio de dados ao mesmo tempo que permite uma colaboração segura entre aplicações.11 Por fim... Agora é só esperar para ver essa realidade da Computação Confidencial invadir também nossos computadores e demais dispositivos computacionais domésticos. Acredito eu que depois de ler este artigo e alguém te disser que tem ou conhece um sistema computacional completamente imune à violações você vai, ao menos, pedir mais detalhes antes mesmo de desacreditar amigavelmente.  ______________ 1. What You Should Know About the Honda Key Fob Vulnerability. Disponível aqui. Última visita em 8 de novembro de 2022. 2. Criptografia homomórfica: essa técnica resolve o problema da segurança dos dados pessoais. Disponível aqui. Última visita em 9 de novembro de 2022. 3. Facebook will begin testing end-to-end encryption as default on Messenger app. Disponível aqui. Última visita em 8 de novembro de 2022. 4. Elon Musk wants end-to-end encryption for Twitter DMs. It may not be that simple. Disponível aqui. Última visita em 8 de novembro de 2022. 5. TJSP anuncia desenvolvimento da nova Plataforma de Justiça Digital. Disponível aqui. Última visita em 8 de novembro de 2022. 6. Meltdown and Spectre: Vulnerabilities in modern computers leak passwords and sensitive data. Disponível aqui. Última visita em 8 de novembro de 2022. 7. Security vulnerabilities found in Intel and AMD processors. Disponível aqui. Última visita em 8 de novembro de 2022. 8. Microsoft fixes four zero-days, 58 other flaws on Patch Tuesday. Disponível aqui. Última visita em 8 de novembro de 2022. 9. Check Point Press Releases: September 2022's Most Wanted Malware: Formbook on Top While Vidar 'Zooms' Seven Places. Disponível aqui. Última visita em 8 de novembro de 2022. 10. CoinMarketCap. Disponível aqui. Última visita em 8 de novembro de 2022. 11. Dever de notificação dos incidentes de segurança com Dados Pessoais - Parte 1. Disponível aqui. Última visita em 9 de novembro de 2022.  __________ Evandro Eduardo Seron Ruiz é professor Associado do Departamento de Computação e Matemática, FFCLRP - USP, onde é docente em dedicação exclusiva. Atua também como orientador no Programa de Pós-graduação em Computação Aplicada do DCM-USP. Bacharel em Ciências de Computação pela USP, mestre pela Faculdade de Engenharia Elétrica da UNICAMP, Ph.D. em Electronic Engineering pela University of Kent at Canterbury, Grã-Bretanha, professor Livre-docente pela USP com estágios sabáticos na Columbia University, NYC e no Instituto de Estudos Avançados da USP (IEA-USP). Coordenador do Grupo de Pesquisa "Tech Law" do IEA-USP. Membro fundador do Instituto Avançado de Proteção de Dados - IAPD. (www.iapd.org.br )
Algoritmos de inteligência artificial: um breve panorama Algoritmos, de maneira simplificada, é uma sequência de passos para executar uma tarefa ou resolver um problema. "[...] uma sequência de raciocínios, instruções ou operações para alcançar um objetivo, sendo necessário que os passos sejam finitos e operados sistematicamente." (ROCKCONTENT, 2019, online). Assim, os algoritmos são desenvolvidos por seres humanos visando à realização de tarefas. Atualmente, é possível afirmar que ferramentas de machine learning conseguem induzir premissas, ou seja, construir hipóteses com base em um determinado conjunto de dados (SCHIPPERS, 2018). Esses algoritmos, alimentados com dados, podem aprender a se aprimorar de forma supervisionada ou não. Um dos grandes problemas é que esse processo de aprendizagem, de maneira não supervisionada, ocorre de forma que nem os desenvolvedores e programadores conseguem entender como o algoritmo chegou a determinados resultados, esses são chamados de "caixa-preta". Portanto, no tocante a essas decisões autônomas e aos algoritmos "caixas-pretas", nota-se um aspecto bastante problemático à medida que, contemporaneamente, eles são utilizados para definir perfis pessoais, profissionais, de consumo e de crédito ou dos aspectos da personalidade da pessoa natural, aliás, expressões essas que constam na Lei Geral de Proteção de Dados (lei 13.709/2018). Porque alguns algoritmos possuem vieses discriminatórios Em primeiro lugar, é válido comentar a compreensão acerca do fenômeno do enviesamento, que se entende pela discriminação baseada no tratamento automatizado de dados pessoais, em outros dizeres, o processo de tomada de decisão por algoritmos que resulta em tratamento injusto para os afetados. Em sentido semelhante, Alex Winetzki, diretor de pesquisa e desenvolvimento (P&D) da Stefanini pontua que "A inteligência artificial é reflexo da visão de mundo do homem, o algoritmo não conhece o argumento moral. [...] Se os dados são de baixa qualidade, o resultado também será ruim." (NOOMIS, 2020, online). A partir disso, o aprendizado de máquina (machine learning) é um ramo da inteligência artificial que envolve o aprendizado a partir de dados, a captação de padrões e a automatização de decisões (SILVA, 2021). Ao invés de elaboradores desenvolverem códigos enormes e rotinas com instruções específicas para que a máquina realize determinadas tarefas e consiga resultados, no aprendizado de máquina, treina-se o algoritmo para que ele possa aprender por conta própria, e até mesmo conseguir resultados que os desenvolvedores nem poderiam imaginar. Nesse treinamento, há a necessidade de quantidades exacerbadas de dados que precisam ser fornecidos aos algoritmos permitindo que eles se ajustem e melhorem cada vez mais seus resultados. Nessa linha, nasce o conceito de discriminação algorítmica, esse fenômeno entende-se pelo enviesamento baseado no tratamento e na tomada de decisões a partir de dados pessoais. Ou seja, o processo de tomada de decisão por algoritmos que resulta em um tratamento injusto para os afetados. Outrossim, de acordo com Gustavo Babo (2020, online): "A intenção dos algoritmos é, na maioria das vezes, tomar decisões sobre o futuro baseados em estatísticas do passado, realizando a predição de uma situação." Esse comportamento é problemático à medida que utilizar dados antigos faz com que os algoritmos reproduzam cenários que podem não condizer com a realidade vivenciada no momento do desenvolvimento e da utilização do sistema. Podendo assim, reproduzir preconceitos institucionalizados historicamente pela sociedade. Essa é a forma de viés mais comum nos algoritmos de inteligência artificial. (BABO, 2020). Dados históricos utilizados pelo sistema ampliam os vieses existentes na sociedade reproduzindo preconceitos nas decisões autônomas realizadas por um algoritmo teoricamente neutro. E isso ocorre porque as aplicações de inteligência artificial, mediante as técnicas de machine learning e de deep learning, utilizam padrões estatísticos na vasta quantidade de dados que recebem para sua tomada de decisão. Karen Hao (2019, online) em uma publicação no blog MIT Technology Review, afirma que: Como vimos antes, os algoritmos de aprendizado de máquina usam estatísticas para encontrar padrões nos dados. Portanto, se você fornecer dados históricos de crimes, ele selecionará os padrões associados a crime. Mas esses padrões são correlações estatísticas - nem de longe o mesmo que as causas. Se um algoritmo descobriu, por exemplo, que a baixa renda está correlacionada com a alta reincidência, não ficaria claro se a baixa renda realmente causou o crime. Mas é exatamente isso que 39 as ferramentas de avaliação de risco fazem: transformam percepções correlativas em mecanismos de pontuação causal. Panorama jurídico em matéria de inteligência artificial A criação de normas jurídicas e a aplicação e interpretação do direito demandam do legislador tempos próprios de modo que não cedam a pulsões intempestivas e populistas, em certas vezes, que se façam sentir. Por essa razão, o espaço jurídico entra em desconserto com fenômenos de alta volatilidade. A tecnologia, e em particular a inteligência artificial, é exatamente um desses casos. A rapidez do processo de surgimento e esquecimento de certos eventos leva o Direito a vários níveis de dificuldade. A primeira dificuldade reconhecida é a descrição da matéria  a ser regulada ao passo que o intérprete entenda genuinamente do que se trata aquele instrumento legislativo. Surge a questão de como  normatizar uma realidade que é, ontologicamente, extrajurídica. Ou seja, como colocar em letra de lei o que é polimórfico, volátil e, muitas vezes, passageiro. De nada serve uma definição que não consegue expressar de modo adequado e transparente o que está a ser definido a seu público. É por isso importante a concreção de um equilíbrio entre a determinabilidade e a intemporalidade. Em segundo lugar, a hiperespecialização acadêmica leva a que os operadores judiciários, preparados quase exclusivamente para a tarefa de leitura de instrumentos normativos, não disponham da capacidade técnica de compreensão do horizonte material que cada um dos termos técnicos relacionados a essas tecnologias demandam. Esta circunstância, fomentada pela falta de aposta na multidisciplinaridade da formação profissional culmina na impossibilidade de apreciação autónoma do caso que necessite de ser qualificado juridicamente. Definições que, visando a resistir à temporalidade de algumas tecnologias, se resumem em redações terminológicas de um elevado grau de abstração, tal que, embora logrando o objetivo visado, falham no que é essencial: fornecer ao intérprete do direito um apoio hermenêutico útil. Com isso, a inteligência artificial e a robótica continuam a ser tópicos que não tem merecido a atenção devida, sendo descortinados apenas pequenos afloramentos normativos em textos legais dispersos. Impacto social causado por algoritmos enviesados Para iniciarmos essa conversa, é válido trazer o exemplo do caso Apple Card que elucida exatamente os problemas do uso de algoritmos de inteligência artificial treinados a partir de dados enviesados. O impasse aconteceu porque o sistema estabeleceu uma pontuação dos usuários (score) para a concessão de crédito no cartão, sendo que homens receberam um crédito maior do que mulheres. Portanto, o algoritmo apresentou um viés discriminatório quanto ao gênero. Em razão da da Lei chamada ECOA (Equal Credit Opportunity Act) dos EUA, publicada em 1976, tornou-se proibido solicitar informações quanto ao gênero nos formulários de abertura de pedido de crédito bancário, no entanto, tal fato fez com que o treinamento de máquina não soubesse distinguir o gênero dos usuários, logo, não foi possível corrigir discriminações existentes na sociedade. Esse exemplo é muito importante para compreendermos que na inteligência artificial, é necessário introduzir a discriminação para corrigí-la. O caso ilustrado demonstra como o fenômeno de discriminação algorítimica pode impactar a sociedade. O fato da tomada de decisão do algoritmo ter feito com que mulheres alcançassem um limite mais baixo de crédito pode afastá-las, por exemplo, de empreenderem para obter sua liberdade e independência financeira. Isso pode reafirmar a violência que mulheres sofrem diariamente na sociedade brasileira e impedi-las de alcançar os direitos garantidos pela Constituição Federal de 1988. Uma mulher, que não obtém acesso à concessão de crédito bancário, possui dificuldades para abrir o seu negócio. No caso de uma vítima de violência doméstica, por exemplo, a independência financeira seria crucial para que ela conseguisse encerrar o ciclo de violência. O artigo 3º da Lei 11.340/2006, também conhecida como Lei Maria da Penha dispõe que: Art. 3º Serão asseguradas às mulheres as condições para o exercício efetivo dos direitos à vida, à segurança, à saúde, à alimentação, à educação, à cultura, à moradia, ao acesso à justiça, ao esporte, ao lazer, ao trabalho, à cidadania, à liberdade, à dignidade, ao respeito e à convivência familiar e comunitária. § 1º O poder público desenvolverá políticas que visem garantir os direitos humanos das mulheres no âmbito das relações domésticas e familiares no sentido de resguardá-las de toda forma de negligência, discriminação, exploração, violência, crueldade e opressão. § 2º Cabe à família, à sociedade e ao poder público criar as condições necessárias para o efetivo exercício dos direitos enunciados no caput. Com isso, reflete-se, portanto, o status normativo para abraçar a manifestação de práticas discriminatórias e como atinge diversas situações existenciais quando envolve o princípio da dignidade da pessoa humana. O Poder Legislativo concordou que essas situações são um reflexo da sociedade, não se pode permitir que fenômenos emergentes, como a inteligência artificial, tenham um início discriminatório e sejam considerados, em certas situações, um firmador de discriminações, embora este seja apenas um reflexo social treinado a partir de dados enviesados com a realidade cotidiana. A superveniência da Lei Geral de Proteção de Dados (LGPD) A superveniência da LGPD ocorreu após o caso da Cambridge Analytica. A coleta de dados de usuários para traçar perfis psicográficos sem autorização devida foram influenciadoras de debates políticos no mundo. A LGPD disciplinou sobre a operação realizada com dados pessoais no que se refere à coleta, à utilização, ao processamento e ao armazenamento e seus consequentes efeitos externos. A amplitude da lei inseriu a percepção de dados pessoais, incluindo registros sobre raça, opiniões políticas, crenças, dados de saúde, etc. Dentro desse contexto, foi fomentado no âmbito brasileiro a proteção de dados pessoais em direito positivado de fato a partir de legislação infraconstitucional em sua máxima eficácia. A esfera da articulação em consonância com a estrutura constitucional vigente estabelece parâmetros sobre a utilização de dados pessoais, tanto para os diversos segmentos sociais e econômicos como para entes governamentais. (MAGRINI, 2019, p.94) A consolidação em legislações, padrões, normas e boas práticas na estrutura evolutiva das tecnologias de informação acompanham o desenvolvimento da inovação que a princípio não deve ser restringido para não afetar o desempenho, coexistindo com o campo jurídico para correlacionar soluções para a convivência e conveniência lícita das novas ferramentas (FERNANDES; GOLDIM, 2022). Conclusão Diante do que fora exposto, pode-se afirmar que a discriminação algoritmica necessita de regulamentação jurídica, sendo encessário disciplinar os fenômenos emergentes das novas tecnologias. O enviesamento é decorrente das desigualdades sociais, no entanto, deve-se evitar o fortalecimento e a reprodução das mesmas. Assim, é preciso verificar qual é a melhor forma de legislar sobre o assunto e é relevante notar que é preciso saber identificar as diferenças na sociedade para introduzi-las no aprendizado de máquinas destinadas à automatização das decisões. Consequentemente, o desafio para os próximos anos é elevado, mas é necessário para que não sejam perpetuadas as discriminações existentes no País. Referências BABO, Gustavo Schainberg S.. Discriminação Algorítmica: Origens, Conceitos e Perspectivas Regulatórias. 2020. Disponível aqui. Acesso em: 10 out. 2022. FERNANDES, Márcia Santana; GOLDIM, José Roberto. Brasil e a Inteligência Artificial na área da saúde - Parte I. Migalhas de Proteção de dados, 2022. Disponível aqui. Acesso em: 01 nov. 2022. HAO, Karen. MIT Technology Review. AI is sending people to jail-and getting it wrong. 2019. Disponível aqui. Acesso em: 18 out. 2022. MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto Alegre. Arquipélago Editorial, 2019. NOOMIS. Treine bem seus algoritmos para evitar decisões tendenciosas. 2020. Disponível aqui. Acesso em: 18 out. 2022. NOVAIS, Paulo; FREITAS, Pedro Miguel. Inteligência artificial e regulação de algoritmos. Diálogos, 2018. Disponível aqui. Acesso em 14 de out. de 2022. SETO, Kenzo Soares. Algoritmos da Opressão: a crítica de Safiya Umoja Noble aos efeitos sociais dos vieses algorítmicos. Lugar Comum-Estudos de mídia, cultura e democracia, n. 63, p. 217-221. SHIPPERS, Laurianne-Marie. Algoritmos que discriminam: uma análise jurídica da discriminação no âmbito das decisões automatizadas e seus mitigadores. Monografia - Escola de Direito de São Paulo, Fundação Getúlio Vargas. São Paulo, 57 p. 2018. Disponível aqui. Acesso em: 18 out 2022. SILVA, Júlia Leal. Tomada de decisão automatizada e controle pela LGPD. Instituto Avançado de Proteção de Dados (IAPD), 2021. Disponível aqui. Acesso em: 01 nov. 2022.
Introdução A inteligência artificial (IA), tal como recentemente definida pela Comissão Europeia caracteriza-se por ser um campo da ciência computacional que estuda o "comportamento inteligente" e "agentes inteligentes" que possam exibir tais comportamentos. Os sistemas podem exibir comportamento inteligente por meio da análise do seu ambiente e da tomada de decisões - com algum grau de autonomia - para atingir objetivos específicos. A IA já está a ser utilizada em muitas áreas, incluindo os cuidados de saúde, entre eles a IA pode ser aplicada na detecção e diagnóstico precoce, tratamento, previsão de resultados, avaliação de prognóstico, etc.1-2 Igualmente, os documentos europeus referidos, apresentam que a AI poderá, caso os riscos sejam gerenciados adequadamente, auxiliar, por meio de análise de grandes quantidades de dados, no encontro de soluções ou melhoramentos de técnicas existentes no setor de saúde e contribuir para a acessibilidade, resiliência e sustentabilidade dos sistemas de saúde, oportunizando vantagem competitiva para os setores de TIC e saúde. A inteligência artificial (AI) e a robótica, suas potencialidades de uso e, na mesma proporção, os desafios jurídicos, éticos e sociais por ela impostos devem ser compreendidos em um contexto complexo na área da saúde, como em muitas áreas da sociedade.3 A complexidade, no sentido proposto por Edgar Morin, isso é:  A aversão ao maniqueísmo - do bem ou do mal - mas sim é compreender que a complexidade não é tudo, não é a totalidade do real, mas é o que melhor pode, ao mesmo tempo se abrir ao inteligível e revelar o inexplicável.4 A incerteza e a ambiguidade - características que traduzem o momento que vivemos - a chamada 4ª Revolução - são pressupostos reconhecidos. Portanto, a AI não pode ser tratada em uma percepção dicotômica - do bem ou do mal - mais sim como uma realidade a ser observada e refletida.  E na mesma proporção, a Inteligência Artificial (IA) impõe uma avaliação dos riscos e oportunidades associados à sua incorporação na vida e no viver dos seres humanos. Luciano Floridi5, em sentido amplo, menciona que os impactos da AI afetam os seres humanos, em sua esfera individual, coletiva e social. A AI é uma realidade, portanto alguns pressupostos devem ser postos: 1- O uso da AI ou outras formas de TICs deve observar a proteção dos direitos fundamentais, Direito Humanos e direitos da personalidade, pautados pelos princípios constitucionais e de Direito Civil - entre eles o princípio da boa-fé e da boa-fé objetiva - que têm sua base no princípio da confiança; 2- A importância da proteção dos dados e informações pessoais, considerando os 13 princípios da Lei Geral de Proteção de Dados - Lei 13.709/2018; - que pauta seus princípios na dignidade da pessoa humana e no princípio da boa-fé (postos em seu artigo 6º). 3- A necessária percepção da complexidade - para manter o equilíbrio entre o desenvolvimento e o acesso às tecnologias e o controle e a vigilância do Estado, o princípio da transparência deve estar conjugado ao princípio da autodeterminação informativa. 4- Morley, Cowls, Taddeo e Floridi propõem que TICs, os aplicativos de rastreamento e com a utilização de AI, entre outros atendam a princípios éticos e critérios específicos para atingir o que eles denominam de "aplicativos éticos".6 5- O uso da AI deve estar em pleno equilíbrio com direito ao acesso à informação e a finalidade deve ser robusta. Os processos de tomada de decisão, particularmente na área da saúde, baseiam-se na confiança e na relação de confiança - que são necessariamente identificadas com todos os envolvidos nesta relação. As relações ocorrem em todas as esferas, públicas e privadas. Os critérios prévios para o estabelecimento da base de confiança, em situações que envolvam AI, não são diferentes na área da saúde, pelo contrário, devem ser intensificados, pois devem ser compostos por mecanismos concretos para informar, dar conta da utilização, motivação, processo e transparência dos critérios utilizados na tomada de decisões. Portanto, a utilização de sistemas que incluem Inteligência Artificial (IA) impõe uma avaliação dos riscos e benefícios associados à sua incorporação na área da saúde. Os diferentes tipos de IA apresentam múltiplos desafios éticos, legais e sociais. 1-      Princípio da confiança Sem dúvida, cuidados de saúde; investigação envolvendo seres humanos ou concepção de políticas públicas - dados e informação são centrais. Por sua vez, a utilização de IA neste cenário depende e requer os dados e informações gastos em registos de saúde electrónicos (EHR). Por conseguinte, o tratamento dos dados e informações de saúde, dados sensíveis, deve basear-se no princípio da confiança.7 O princípio da confiança na área da saúde deve ser o alicerce, o ponto de equilíbrio e este deve ser compreendido na perspectiva ética, jurídica e de os próprios sistemas de AI. Na perspectiva ética, a confiança é elemento central nas relações humanas, sejam elas interpessoais ou dos indivíduos com o Estado, envolvendo a confiança nas instituições e nos seus representantes. Entretanto, esse "estado de confiança" não se apresenta meramente com listas de informações ou explicações ou na divulgação de dados e informações, mas deve ser sustentado sobre uma narrativa inteligível, nós diríamos finalidades justificáveis e motivadas.8 A narrativa inteligível deve ser combinada, conforme Onora O'Neill, com uma comunicação genuína em dois sentidos, 1) no sentido de fornecer oportunidades para a verificação e contestação e 2) no sentido de possibilitar e dar condições para uma posição do titular, tanto para manter, modificar ou recusar a narrativa9. A narrativa inteligível, por exemplo, para o uso de AI na assistência à saúde deve declarar o modo, os critérios e as ferramentas utilizadas; deve haver clareza na informação de como dados e informações em saúde serão tratados. Em qualquer situação, deve ser dando a conhecer os critérios de pré-seleção - pois, sabemos que a seleção em si pode direcionar a informação e negligenciar uma comunicação genuína, com "audiências reais"10 - portanto aqui o princípio da transparência, dos critérios algorítmicos, por exemplo, deve ser a referência para o exercício do controle pelo titular, excepcionadas as situações de interesse público e segurança pública, quando motivados. Por sua vez, na perspectiva jurídica, como leciona Judith Martins-Costa, o princípio da confiança, está na base das relações jurídicas, sejam de direito público ou privado11. O princípio da proteção da confiança apresenta-se na dimensão individual, ou na vertente subjetivada da segurança jurídica. Esse princípio depende do exercício da confiança, com indicação concreta da quebra das expectativas de direito ou com a evidência clara dos requisitos necessários à sua demonstração portanto uma tríade - base da confiança, exercício da confiança e frustação da confiança12. E o princípio da confiança nos sistemas de AI devem estar relacionados diretamente com as características dos sistemas, em particular, de instrumentos, máquinas, equipamentos, programas de computador, entre outros, que sejam utilizados para tratar dados sensíveis de saúde. Além de considerar, outras características, tais como o conhecimento por quem utiliza da operabilidade e a capacidade dos sistemas serem  auditáveis e interoperacionáveis. A área da saúde: sistema de AI e recomendações internacionais  Os sistemas de IA foram incorporados na área da saúde em múltiplas perspectivas, vejamos alguns exemplos: a) estão integrados em tecnologias de imagem e tratamento de sinais; b) estão presentes na área de comunicação para realizar interações de bases de dados robustas e big data;  c) potencializam o acesso de dados e informações, em especial facilitados pelas redes de computadores (internet), por tecnologias como 4G e 5G e pelo acesso de dados e informações processados por satélites potentes e d) estão incorporados nas áreas de planejamento, conhecimento e raciocínio, associando-se diretamente ao processo de tomada de decisão.  A área da saúde a utilização de AI pode auxiliar, subsidiar, complementar processos de tomada de decisão na assistência em saúde, pesquisa com seres humanos e desenho de políticas públicas em saúde. No entanto, é fundamental considerar neste contexto o tipo e o grau de automação associados, assim como o adequado entendimento do caráter obrigatório, recomendado ou permitido associado à utilização dos sistemas de IA. O desafio, em particular na área da saúde, é manter o equilíbrio e preservação as características de humanidade presentes no ato de decidir, levando em conta os aspectos éticos, legais e sociais. Neste contexto, os diferentes tipos de IA apresentam múltiplos desafios éticos, legais e sociais no mundo, tal como assinalado pela OCDE.  Contudo, a diversidade e vulnerabilidade da cobertura social, económica e de acesso a cobertura universal da saúde (UHC) que existe na América do Sul, em particular, torna mais complexa a análise das tecnologias de saúde impulsionadas pela IA.13 A norma a cumprir em termos de acesso à saúde são os Objetivos de Desenvolvimento Sustentável (ODS) da ONU, que, até 2030, um Estado membro deve garantir: 1) o acesso aos serviços de saúde para todas as pessoas que necessitam de saúde, independentemente das características socioeconómicas, localização, riqueza ou qualquer outra vulnerabilidade; 2) a proteção financeira, ou seja  todas as pessoas devem estar a salvo de riscos financeiros ao incorrerem em despesas de saúde; 3) acesso à qualidade dos serviços de saúde, ou seja, os cuidados de saúde têm de ser eficazes na prestação de cuidados e na melhoria dos resultados, ao mesmo tempo que são rentáveis e sustentáveis, porque o acesso sem qualidade pode ser considerado uma promessa vazia de cobertura de saúde universal.14 O Estudo sobre a Interoperabilidade da Saúde, por exemplo, é uma preocupação internacional.  A Interoperabilidade da Saúde em Linha dos Dados de Saúde e Inteligência Artificial para a Saúde e Cuidados na União Europeia - Relatório Final Study salienta que a falta de confiança no apoio à decisão orientada para a IA está a impedir uma adoção mais ampla na saúde, e também a integração de novas tecnologias na prática clínica atual; a investigação e a medicina pessoal. Portanto, são desafios legais, éticos e sociais amplificados pela necessária internacionalização da área da saúde e pelos desafios do compartilhamento de dados e informações a fim de alcançar a saúde global, como proposta da ODS da ONU.15 Há recomendações sendo elaboradas por muitos países e organizações, destacando a recomendação proposta pela Comissão Europeia, em 2020, no White Paper sobre Inteligência Artificial - Uma abordagem europeia à excelência e confiança, com o objetivo de estabelecer as vias políticas para procurar o uso adequado da IA. Neste documento, a Comissão recomenda o estabelecimento de normas e orientações para o investimento na área da IA, visando dois objetivos centrais: a) promover a adoção da IA e b) abordar os riscos associados a certas utilizações desta nova tecnologia.16 A Comissão Europeia também criou um Grupo de Peritos de Alto Nível, que publicou, em abril de 2019, as Diretrizes sobre IA de confiança,  compostas por sete requisitos-chave: 1) respeito pela dignidade da pessoa humana; 2) sistemas técnicos e de segurança sólidos; 3) gestão da privacidade e dos dados; 4) transparência; 5) respeito pela diversidade, não discriminação e equidade; 6) bem-estar social e ambiental e 7) responsabilidade. Por sua vez, o Governo norte-americano, em outubro de 2022, lançou um relatório, contendo um plano de ação e pressupostos, para a utilização de IA em diversas áreas: BluePrint for AI Bill of Rights - Making automated systems work for the american people Este documento é um chamado para a população discutir, refletir e debater sobre a questão da adequação de IA. Os pressupostos lançados no relatório são: 1) sistemas seguros e efetivos; 2) proteção contra a discriminação algorítmica; 3) proteção à privacidade e aos dados pessoais; 4) igualdade de acesso, oportunidades e direitos e 5) reação com as normas e políticas já em vigor. Este relatório também ressalta algumas áreas nas quais o uso de AI pode ser sensíveis - sensitive domains. Destacamos,  em particular, as discussões promovidas, pelo Painel 6, referente aos sistemas de saúde, sobre a perpetuação ou intensificação de discriminações raciais, pelo uso da AI, em prejuízo ao acesso de tecnologias em saúde.17 AI na área da saúde - no Brasil O Brasil tem o maior sistema público de saúde do mundo, o Sistema Único de Saúde (SUS), que tem como princípio basilar o acesso universal - cobertura universal de saúde a nacionais e estrangeiros. O SUS atende mais de 214 milhões de pessoas, das quais 80% dependem exclusivamente dos atendimentos públicos. É indiscutível e notório que o SUS é uma conquista do povo brasileiro, que é garantida pela Constituição Federal de 1988, no artigo 196, e pela Lei n.º 8.080/1990. A estrutura do SUS deve ser garantida e melhorada constantemente.  Entretanto, os desafios, neste contexto, ficam amplificados, pois é reconhecido que em algumas partes do país o acesso à saúde, às tecnologias de saúde e sanitárias são restritas e precárias.18 Neste contexto, a pergunta central deve ser: Como sistemas de AI podem aplacar diferenças e contrastes no acesso a tecnologias de saúde Brasil? Esta pergunta não é de fácil ou de rápida resposta, deve considerar acessibilidade de sistema de internet ou pondo de outra forma; interoperabilidade; conhecimento aplicado de quem opera estes sistemas, equipamentos e sistemas seguros, finalidades adequadas e análise de risco; por isso a resposta não será desenvolvida neste texto, mas em um próximo com foco específico. Entretanto, o Brasil está a reboque, no que concerne as discussões públicas, no âmbito dos poderes executivo e legislativo sobre o tema. E o  Conselho Federal de Medicina ainda está mais defasado nestes reflexões. A falta de análise é evidente em comparação com às discussões internacionais, ocorridas na União Europeia e Estados Unidos da América. O Projeto de Lei 21 de 2020, em tramite no Congresso Nacional, aprovado na Câmara dos Deputados19, que estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil, nos seus 10 artigos, não prevê norma e ignora peculiaridades na utilização da AI na área da saúde, mesmo tendo o país o maior sistema público de saúde do mundo. Esperamos que a Comissão de juristas, instalada para analisar três Projetos de Lei (PL) sobre inteligência artificial, em discussão no Senado Federal, PL 5.051/2019; PL 872/2021 e PL21/2020, possa oferecer texto suplementar para aprimorar o texto legal, e no caso do uso da AI na área da saúde, possa considerar a sua importância, peculiaridade, complexidade e alcance.   Considerações Finais A inteligência artificial (AI) e a robótica devem ser contempladas como ferramentas positivas na área da saúde, principalmente para aplacar desigualdades regionais e econômicas, melhor prover a assistência a saúde; auxiliar na determinação de políticas públicas nesta área e promover inovação na assistência e na pesquisa em saúde. Entretanto, na mesma proporção que as potencialidades de uso, crescem os desafios jurídicos, éticos e sociais por elas impostos, devendo estes serem compreendidos em um contexto complexo na qual está envolta a área da saúde. Neste sentido, a fim de atender aos Objetivos de Desenvolvimento Sustentável (ODS) da ONU e aos mandamentos constitucionais de acesso universal a saúde, estudos aprofundados devem ser realizados na gestão e na academia para colaborar nas discussões internacionais sobre os reais desafios do uso adequado da IA na área da saúde. __________ 1 EUROPEAN PARLAMENT. P9_TA(2022)0140 Artificial intelligence in a digital age European Parliament resolution of 3 May 2022 on artificial intelligence in a digital age (2020/2266(INI)). chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://www.europarl.europa.eu/doceo/document/TA-9-2022-0140_EN.pdf 2 EUROPEAN COMISSION. PwC. Study on eHealth, Interoperability of Health Data and Artificial Intelligence for Health and Care in the European Union Lot 2: Artificial Intelligence for health and care in the EU Final Study Report, 2021. DF ISBN 978-92-76-40310-4 doi: 10.2759/506595 Catalogue number: KK-05-21-225-EN-N 3 FERNANDES, Márcia e GOLDIM, José Roberto. Artificial Intelligence and Decision Making in Health: risks and opportunities; in Artificial Intelligence, Law and Beyond; Edited by Antunes, Henrique Sousa; Oliveira, Arlindo. Editora Spring.  No prelo,  previsão de lançamento 2022/2023. 4 MORIN (Meus demônios. Rio de Janeiro: Bertrand Brasil, 1997, pp.265-266. 5 FLORIDI, Luciano. Group privacy: a defence and an interpretation. In: FLORIDI, Luciano TAYLOR, Linnet; VAN DER SLOOT, Bart (Eds.). Group privacy: new challenges of data technologies. New York: Springer International Publishing, 2017, pp. 83-100; FLORIDI, Luciano. The ethics of information. Oxford: Oxford University Press, 2013. 6 MORLEY, Jessica; COWLS, Josh; TADDEO, Mariarosario e FLORIDI, Luciano. Ethical guidelines for COVID-19 tracing apps. Comment, 28 May 2020, aqui. 7 FERNANDES, Márcia Santana. Prontuário eletrônico e a lei geral de proteção de dados. Migalhas, 12 de fevereiro de 2021. 8 O'NEILL, Onora. Accountability, trust and informed consent in medical practice and research. Clinical Medicine, Vol. 4, no 3, May/June,2004. 9 O'NEILL, Onora. Accountability, trust and informed consent in medical practice and research. Clinical Medicine, Vol. 4, no 3, May/June,2004. 10 O'NEILL, Onora. Accountability, trust and informed consent in medical practice and research. Clinical Medicine, Vol. 4, no 3, May/June,2004. 11 MARTINS-COSTA. Judith. A proteção da legítima Confiança nas Relações Obrigacionais entre a Administração e os Particulares. Revista da Faculdade de Direito da Universidade Federal do Rio Grande do Sul, UFRGS, Porto Alegre, n.22, pp.228-255, 2002. 12 ÁVILA, Humberto. Segurança Jurídica. Entre permanência, mudança e realização no Direito Tributário. Pags. 364; 365; São Paulo: Editora Malheiros, 2011. 13 OECD. Recommendation of the Council Artificial Intelligence on OECD Legal Instruments, 2021. OECD Legal Instruments. 14 OECD/The World Bank (2020), Health at a Glance: Latin America and the Caribbean 2020, OECD Publishing, Paris. 15 FERNANDES, Márcia e GOLDIM, José Roberto. Artificial Intelligence and Decision Making in Health: risks and opportunities; in Artificial Intelligence, Law and Beyond; Edited by Antunes, Henrique Sousa; Oliveira, Arlindo. Editora Spring.  No prelo,  previsão de lançamento 2022/2023. 16 EUROPEAN COMISSION. White Paper on Artificial Intelligence - A European approach to excellence and trust. Brussels, 2020. chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf    17 THE WHITE HOUSE, American Government. BluePrint for AI Bill of Rights - Making automated systems work for the american people. October 2022.  18 ALBUQUERQUE, Mariana Vercesi de; VIANA, Ana Luiza d'Ávila; LIMA, Luciana Dias de, et.al. Desigualdades regionais na saúde: mudanças observadas no Brasil de 2000 a 2016. Ciência & Saúde Coletiva, 22(4):1055-1064, 2017. DOI. 19 BRASIL, Câmara dos Deputados . Acompanhe o tramite processual no link aqui.
A Lei Geral de Proteção de Dados Pessoais - Lei 13.709, de 14 de agosto de 2018, a seguir simplesmente "LGPD", já nasceu parcialmente vetada, notadamente na parte que tratava da Autoridade Nacional de Proteção de Dados - ANPD. No dia 28 de dezembro do mesmo ano foi editada a Medida Provisória 869, alterando então a LGPD e, dentre outros, criando a Autoridade Nacional de Proteção de Dados, naquele momento vinculada à Presidência da República. O texto inicialmente proposto pela MP869 previa, por exemplo, a  alteração do inciso VIII do artigo 5º, permitindo que o  encarregado, em inglês denominado Data Protection Officer - DPO, fosse simplesmente "pessoa" indicada pelo controlador para atuar como canal de comunicação entre o controlador, os titulares dos dados e a Autoridade Nacional de Proteção de Dados. Ou seja, abriu-se o leque de possibilidade não só para pessoas naturais, para também para que pessoas jurídicas pudessem prestar serviços de encarregado, prática corriqueira no Brasil e no mundo, inclusive reconhecida e autorizada pela ANPD1. Durante sua tramitação em regime de urgência no Congresso Nacional, a MP869, que ocupava meia página do Diário Oficial, recebeu nada menos que 176 (cento e setenta e seis) emendas2. Recebida pelo Presidente da República, houve diversos vetos ao texto do legislativo, dando origem à lei 13.853, de 2019 que por sua vez alterou diversos artigos da LGPD quando promulgada no ano anterior. Dentre as alterações promovidas pela lei 13.853/19, destacamos o veto ao § 4º do artigo 41, que originalmente continha a seguinte redação: "§ 4º Com relação ao encarregado, o qual deverá ser detentor de conhecimento jurídico-regulatório e ser apto a prestar serviços especializados em proteção de dados, além do disposto neste artigo, a autoridade regulamentará: I - os casos em que o operador deverá indicar encarregado; II - a indicação de um único encarregado, desde que facilitado o seu acesso, por empresas ou entidades de um mesmo grupo econômico; III - a garantia da autonomia técnica e profissional no exercício do cargo." Resumidamente, não fosse o veto presidencial, a LGPD exigia do encarregado 1) conhecimento jurídico-regulatório; 2) ser apto a prestar serviços especializados em proteção de dados; 3) garantia da autonomia técnica e profissional. Os requisitos e prerrogativas do finado § 4º do artigo 41 se alinhavam às recomendações doutrinárias3 e às melhores práticas nacionais e internacionais, a exemplo do item 6.3.1.1 da norma ABNT NBR ISO/IEC 27701:2019 , onde afirma-se que o encarregado deve ser independente e ter liberdade para reportar ao nível gerencial apropriado para assegurar a efetiva gestão de riscos de privacidade. Encontra respaldo ainda no disposto no Regulamento Geral sobre a Proteção de Dados 2016/679 - GDPR -  em seus artigos 38 e 39. A própria ANPD orienta4 como boa prática  a garantia de 1) liberdade encarregado na realização de suas atribuições; 2) recursos adequados para realizar suas atividades, tais como recursos humanos, prazos apropriados, finanças e infraestrutura; e por fim 3) conhecimentos de proteção de dados e segurança da informação em nível que atenda às necessidades das operações de tratamento de dados pessoais da organização. Na mensagem 288 de 8 julho de 2019, o chefe do Executivo Federal justificou da seguinte maneira as razões de seu veto ao § 4º do artigo 41: "O Ministério da Economia e a Controladoria-Geral da União, solicitaram  ainda, veto ao dispositivo a seguir transcrito: § 4º do art. 41 da Lei nº 13.709, de 14 de agosto de 2018, alterado pelo art. 2º do projeto de lei de conversão. A propositura legislativa, ao dispor que o encarregado seja detentor de conhecimento jurídico regulatório, contraria o interesse público, na medida em que se constitui em uma exigência com rigor excessivo que se reflete na interferência desnecessária por parte do Estado na discricionariedade para a seleção dos quadros do setor produtivo, bem como ofende direito fundamental, previsto no art. 5º, XIII da Constituição da República, por restringir o livre exercício profissional a ponto de atingir seu núcleo essencial." Sem sequer entrar no mérito sobre a polêmica fundamentação formulada pelo Ministério da Economia e a Controladoria-Geral da União, que culminou na morte do § 4º do art. 41, chamamos atenção para um ato administrativo praticado pelo mesmo órgão - Ministério da Economia - do mesmo Governo: Instrução Normativa SGD/ME 117, de 19 de novembro de 2020. O ato Ministerial, que dispõe sobre a indicação do Encarregado pelo Tratamento dos Dados Pessoais no âmbito dos órgãos e das entidades da administração pública federal direta, autárquica e fundacional traz as seguintes previsões em seus artigos 1º.e 3º: Art. 1º A autoridade máxima do órgão ou da entidade da administração pública federal direta, autárquica e fundacional deverá indicar Encarregado pelo Tratamento dos Dados Pessoais, nos termos do disposto no inciso III do art. 23 e no art. 41 da Lei nº 13.709, de 14 de agosto de 2018. § 1º O Encarregado pelo Tratamento dos Dados Pessoais indicado: I - deverá possuir conhecimentos multidisciplinares essenciais à sua atribuição, preferencialmente, os relativos aos temas de: privacidade e proteção de dados pessoais, análise jurídica, gestão de riscos, governança de dados e acesso à informação no setor público; e II - não deverá se encontrar lotado nas unidades de Tecnologia da Informação ou ser gestor responsável de sistemas de informação do órgão ou da entidade. (...) Art. 3º A autoridade máxima do órgão ou da entidade deverá assegurar ao Encarregado pelo Tratamento dos Dados Pessoais: I - acesso direto à alta administração; II - pronto apoio das unidades administrativas no atendimento das solicitações de informações; e III - contínuo aperfeiçoamento relacionado aos temas de privacidade e proteção de dados pessoais, de acordo com os conhecimentos elencados no inciso I do § 1º do art. 1º e observada a disponibilidade orçamentária e financeira do órgão ou entidade. Mesmo que restrita ao âmbito dos órgãos e das entidades da administração pública federal direta, autárquica e fundacional, estarrece a constatação de que o veto presidencial foi ressuscitado pelo mesmo Ministério que pediu - e ganhou - o aniquilamento da regra da LGPD exigia do encarregado 1) conhecimento jurídico-regulatório; 2) ser apto a prestar serviços especializados em proteção de dados; 3) garantia da autonomia técnica e profissional. E mais, a Instrução Normativa ainda foi mais eloquente, exigindo conhecimentos em gestão de riscos (art. 1º § 1º, I) algo não previsto expressamente no texto revogado. O mesmo se conclui pela exigência de acesso direto à alta administração (art. 3º, I). Considerando que ainda nos encontramos em um primeiro movimento de amadurecimento e desenvolvimento de uma cultura de proteção de dados no país, a existência de "sinais trocados" e contradições em normas - ainda que setoriais - leva à uma desnecessária confusão no que diz respeito às qualidades requeridas ou exigíveis de um encarregado de dados. Mais um trabalho interpretativo para a ANPD.  ______________  1 "A LGPD também não distingue se o encarregado deve ser pessoa física ou jurídica, e se deve ser um funcionário da organização ou um agente externo. Considerando as boas práticas internacionais, o encarregado poderá ser tanto um funcionário da instituição quanto um agente externo, de natureza física ou jurídica. Recomenda-se que o encarregado seja indicado por um ato formal, como um contrato de prestação de serviços ou um ato administrativo." Autoridade Nacional de Proteção de Dados. Guia Orientativo para Definições dos Agentes de Tratamento de Dados Pessoais e do Encarregado.  Abril/2022. Par. 74. p. 23. 2 Disponível em https://legis.senado.leg.br/sdleg-getter/documento?dm=7915984&ts=1630433096209&disposition=inline . Acesso em 30 set. 20222 3 "É altamente recomendável que o Encarregado tenha comprovado conhecimento jurídico específico sobre proteção de dados, bem como noções sobre o funcionamento da tecnologia utilizada pelo controlador, exigência expressa na GDPR. Seria de suma importância que a ANPD regulamentasse requisitos mínimos o quanto antes, na forma do Artigo 41, § 3º da LGPD, visando evitar dúvidas e questionamentos neste sentido." GOMES, Rodrigo Dias de Pinho. Encarregado pelo tratamento de dados pessoais na LGPD. Disponível aqui . Acesso em 22/09/2022. 4 Autoridade Nacional de Proteção de Dados. Guia Orientativo para Definições dos Agentes de Tratamento de Dados Pessoais e do Encarregado.  Abril/2022. Par. 75 e 76. p. 23. ______________  Caitlin Mulholland é professora do Departamento de Direito da PUC-Rio. Associada do IBERC. Coordenadora do Grupo de Pesquisa DROIT - Direito e Novas Tecnologias. Doutora em Direito Civil pela UERJ. Rodrigo Dias de Pinho Gomes é professor e advogado. Doutorando e mestre em Direito Civil pela UERJ. Coordenador de Direito e Tecnologia da Escola Superior de Advocacia da OAB/RJ. Atua como consultor e DPO externo em diversas empresas. 
A criptografia sempre aparece como uma alternativa para a proteção de dados pessoais e há controvérsias para esta aplicação. Recentemente vimos surgir um novo tipo de criptografia que permite trabalhar com parte dos dados criptografados, ou seja, deixaria `aberto' os dados supostamente não utilizados para identificação pessoal.   Veremos neste texto uma introdução à criptografia homomórfica. Preliminares Já adianto o que muitos estão pensando: "Mais um conceito novo que eu devo saber. Não bastassem os conceitos do mundo jurídico que evoluem todos os dias, agora tenho que assimilar esses da Computação!". Trago também um alívio: talvez não seja tanto complexo assim. Andiamo piano. Ao mesmo tempo em que vemos muitas violações na segurança de dados pessoais podemos observar que existem também muitas pesquisas em tecnologias para incrementar a privacidade de dados, as chamadas Privacy Enhancing Technologies (PETs)1, tais como: privacidade diferencial, computação confidencial com enclaves seguros, computação multi partidária segura (MPC), aprendizagem federada e criptografia, mais especificamente criptografia homomórfica. Neste tema de criptografia relacionada à proteção de dados e à LGPD destaco a leitura do artigo de Doneda e Machado2 como essencial para entender sob quais circunstâncias e extensões as diversas técnicas criptográficas poderiam ser vistas como técnicas de anonimização de dados, o que, no meu entender, raramente podem ser consideradas assim. Entretanto recentemente essa nova técnica criptográfica, a criptografia homomórfica, entrou no radar da Comissão Europeia de Proteção de Dados por meio de uma empresa de PETs questionando se esta técnica poderia ser adotada para a transferência de dados entre os países da UE3. Neste artigo pretendemos rever alguns conceitos fundamentais em criptografia de dados e comentar en passant, sob quais condições seria apropriado considerar ou não a criptografia homomórfica como uma técnica de anonimização de dados. Criptografia: conceitos básicos É o estudo ou o emprego de técnicas para comunicação segura quando suspeitamos de um comportamento adversário, ou seja, de alguém que queira interceptar e reconhecer a informação trocada. De maneira mais geral, a criptografia trata da construção e análise de protocolos que impedem que terceiros ou o público leiam mensagens privadas. Assim temos um texto a ser criptografado, também chamado de texto puro, que depois de empregada uma técnica criptográfica passa a ser chamado de texto cifrado. As técnicas clássicas de criptografia remetiam a dois tipos de mecanismos para encriptação do texto puro, que são: os códigos de transposição e os códigos de substituição. Vejamos um exemplo de criptografia de transposição aplicada ao texto 'migalhas de proteção': 'imaghlsa rptoçeoã'. E agora aplicando um código de substituição ao texto "migalhas de protecao": OKNJC UFGRT QVGECQ. No primeiro exemplo fica claro que a ordem dos caracteres no texto foi trocada, por exemplo, 'casa' foi criptografada para 'acas'. Já para o segundo exemplo substituímos uma letra para segunda letra em ordem alfabética em caixa alta, ou seja, passamos 'a' para 'C'. Além disso, todas as novas 'palavras' têm cinco letras. Deste modo podemos dizer que a 'chave' deste algoritmo é CDEFGHIJ...TUVXZ, ou seja, elencando as letras em ordem alfabética, substituímos cada uma com a letra da chave de acordo com sua posição nesta ordenação alfabética. No início da II Grande Guerra o emprego massivo de criptografia exigiu o uso de métodos mecânicos e eletrônicos para criptografar. Exemplos destas máquinas 'modernas' são bem retratadas no filme 'O jogo da imitação'. Este filme é baseado no romance de 'Alan Turing: the Enigma' de Andrew Hodges4 e retrata o período em que Alan Turing e sua equipe trabalham para desvendar os códigos secretos das máquinas criptográficas de substituição Enigma dos alemães. Esse tempo marca o início do emprego da computação na criptografia. O que tínhamos de mais moderno até 1976 era a criptografia da chave simétrica em que algoritmos sofisticados baseados em substituição e transposição funcionavam sob o emprego de chaves muito complexas. Entretanto, por mais complexo que fossem esses algoritmos e estas chaves, para se desvendar o texto puro, o original, havia a necessidade de se trocar a chave. Outro problema nasce: como trocar uma chave criptográfica. Uma grande evolução na criptografia ocorre em 1976 quando Whitfield Diffie e Martin Hellman propuseram a noção de criptografia de chave pública, também chamada de chave assimétrica5. Esse nome indica que existem, ao menos, duas chaves distintas: uma chave é chamada de 'chave pública' e a outra de 'chave privada'. A chave pública, como o nome sugere, pode ser distribuída livremente e é a chave que transforma o texto puro no texto cifrado. Já, para desvendar o texto puro, só a chave privada tem este poder. Mais um grande avanço: o algoritmo é único, todos podem usar o mesmo algoritmo, mas com a óbvia criação de pares de chaves pública-privada distintas para cada necessidade. Atualmente as assinaturas digitais são baseadas neste esquema criptográfico de chaves assimétricas. Além deste, diversas outras aplicações usam chaves assimétricas, tais como: Bitcoins e todas as demais moedas digitais, protocolos de Internet, WhatsApp, Telegram, os navegadores web, as comunicações entre aplicativos bancários e os bancos, além de todas as comunicações web nas quais o usuário percebe um ícone de cadeado antes da URL. Na prática No cotidiano destas aplicações que usam criptografia não existe um modelo único de transformação de um texto puro num texto cifrado, mesmo usando essa teoria de chaves assimétricas. Ou seja, falar em criptografia implica em perguntar 'Qual tipo de criptografia?'. Vamos tomar como exemplo o criptomodelo mais conhecido que é o RSA, um algoritmo criado por Ron Rivest, Adi Shamir e Leonard Adleman em 19776. Como outros modelos, o RSA é parametrizado, ou seja, o operador do modelo tem que especificar alguns parâmetros que irão guiar o funcionamento do algoritmo. Por exemplo, o princípio do RSA é construir chaves públicas e privadas utilizando números primos. Dependendo dos números primos que o usuário inserir mais complexas serão as chaves pública e privada e mais difícil será a reversão do texto cifrado para o texto puro. Quanto maiores forem os números mais seguro será o texto criptografado. Na prática geralmente as chaves são de 128 bits e de 256 bits. Além destes dois parâmetros, outros parâmetros internos do algoritmo podem ser alterados pois trabalham na resolução de equações matemáticas complexas. No artigo de Doneda e Machado [2] os autores comentam sobre a necessidade de considerar estes detalhes metodológicos antes de se considerar genericamente um texto criptografado como um texto que resguarda os dados pessoais. A ICO, Information Comissioners Office, uma entidade independente do Reino Unido, que obedece a GDPR e que, por sua vez, entende a criptografia como um meio de proteção de dados pessoais, também faz considerações deste mesmo tipo na aplicação destas técnicas assimétricas7. O Santo Graal da criptografia: A criptografia homomórfica (HE) Será mesmo que precisamos descriptografar um texto cifrado para ter acesso à alguns de seus dados? Por exemplo, considere uma aplicação de votação. Existe uma máquina que lê nossa carteira de identidade digital para nos identificar como eleitores, registramos nosso voto na urna eletrônica e ambas as informações são criptografadas com a minha chave pública também armazenada na minha carteira de identidade digital. Usando a HE seria possível identificar em quem eu votei sem revelar a minha identidade. Bingo! A criptografia homomórfica surgiu como o Santo Graal da criptografia8. Ela promete que podemos extrair dados selecionados de textos criptografados, ou seja, podemos deixar alguns dados `acessíveis' e outros trancados. E como isso funciona? Será que devo saber? Penso que sim para diferenciar os que já ouviram dizer dos que já leram a respeito. HE: como funciona Lembram que a criptografia é realizada por meio de cálculos de funções matemáticas. Pense numa função bem simples que soma 10 em qualquer número natural. Assim, aplicando essa função, por exemplo, aos números 0, 1, 2, 3... teremos 10, 11, 12, 13... ou seja, todos os números foram transladados para valores maiores ou iguais a 10. Se antes esses números `viviam' num espaço (0, 1, 2,...) agora eles 'vivem' num outro espaço. Isomorfismo significa `mesma forma'. Na Matemática, o termo "homomórfico" descreve uma correspondência entre elementos de dois sistemas algébricos. Lembre-se, uma função pode levar um sistema para outro, um espaço para outro. Na criptografia homomórfica existe um homomorfismo entre as operações no texto puro e as operações no texto cifrado. Os autores do RSA já haviam pensado nesta ideia de implementar um esquema de criptografia totalmente homomórfico em 1978, mas foi só em 2009 que Craig Gentry, na sua tese de doutoramento em Stanford, desenvolveu o primeiro esquema de criptografia totalmente homomórfico. A criptografia homomórfica é um modelo de criptografia pública. Uma chave pública é usada para criptografar dados que só podem ser descriptografados com a chave privada correspondente. Enquanto a chave pública é usada para criptografia e pode ser compartilhada, a chave privada é usada para descriptografia e deve ser mantida em segredo. Sem a chave privada, os dados criptografados podem ser trabalhados, mas não descriptografados. No entanto, a HE guarda algumas características mais sofisticadas. Por exemplo, um texto simples de criptografia homomórfica pode ser criptografado usando várias chaves num mecanismo de compartilhamento secreto, de modo que apenas as partes que conhecem todas as chaves podem descriptografar um texto cifrado. Soma-se a esta lista a possibilidade de apenas duas operações com HE, a soma (e sua contrapartida subtração) e a multiplicação. Outras operações são necessárias no cotidiano das aplicações sobre dados pessoais. Tecnicamente hoje são possíveis apenas duas operações homomórficas usando HE, a adição e a multiplicação. Quando uma HE permite apenas uma operação é chamada Criptografia Homomórfica Parcial (PHE) e quando permite as duas é chamada Criptografia Homomórfica Total (FHE do inglês Fully Homomorphic Encryption). HE é a solução? Por enquanto, segundo a literatura internacional, receio que não. Embora a HE ofereça um novo patamar para a aplicação segmentada da criptografia, a HE é vulnerável a diversos tipos de ataques. Um dos motivos, como colocado acima, é porque não existe uma padronização segura na implementação dos algoritmos de HE.  Alguns tipos de ataques, chamados ataques passivos já conseguiram recuperar ambas as chaves de uma HE. Por exemplo, o WPA2 é tido como o protocolo mais seguro de acesso à redes wi-fi. Muito provavelmente você deve estar utilizando este protocolo na sua casa. Internamente o WPA2 pode utilizar o modelo de criptografia AES, Advanced Encryption Standard, que é um protocolo de criptografia padronizado nos EUA desde 2001. Essa padronização ainda não ocorreu com a HE. Essa falta de padrão pode comprometer e muito a sua utilização. Essa falta de padronização foi o requisito que barrou o uso da HE para transações de dados entre os países da UE [3]. Além deste obstáculo, a HE ainda tem que atravessar outras barreiras. A HE não é totalmente à prova de adulteração. Como a criptografia homomórfica envolve a criação de uma chave de descriptografia, a existência dessa chave no modelo cria um risco de segurança. Outra: o desempenho computacional destes algoritmos de HE é muito baixo dada sua complexidade, ou seja, são computacionalmente muito custosos, ou ainda, são lentos. A IBM diz oferecer soluções FHE mais ágeis, assim como a Google. Fica a dica: mais um Santo Graal que promete ser a salvação para a LGPD pode, na verdade, ser mais uma grande falsa promessa nestes momentos iniciais. Referências bibliográficas 1 DONEDA, Danilo; MACHADO, Diogo. Proteção de dados pessoais e criptografia: tecnologias criptográficas entre anonimização e pseudonimização de dados. DONEDA, Danilo; MACHADO, Diogo (Coords.). A criptografia no direito brasileiro. São Paulo: Revista dos Tribunais, 2019. 2 Comments on Recommendations 01/2020 of the European Data Protection Board (EDPB). Disponível aqui. Último acesso em 12 de outubro de 2022. 3 Encryption at a glance. Information Commisioner's Office. Disponível aqui. Último acesso em 12 de outubro de 2022. 4 Time to adopt PETs. European Union Agency for Cybersecurity. Disponível aqui.  Último acesso em 12 de outubro de 2022. 5 HODGES, Andrew. Alan Turing: the enigma. In: Alan Turing: The Enigma. Princeton University Press, 2014. 6 DIFFIE, Whitfield; HELLMAN, Martin E. Multiuser cryptographic techniques. In: Proceedings of the June 7-10, 1976, National Computer Conference and Exposition. 1976. p. 109-112. 7 RIVEST, Ronald L.; SHAMIR, Adi; ADLEMAN, Leonard. A method for obtaining digital signatures and public-key cryptosystems. Communications of the ACM, v. 21, n. 2, p. 120-126, 1978. 8 MOORE, Ciara et al. Practical homomorphic encryption: A survey. In: 2014 IEEE International Symposium on Circuits and Systems (ISCAS). IEEE, 2014. p. 2792-2795.
Introdução: A transformação da ANPD em autarquia especial Até então subordinada formalmente ao Executivo Federal, a Autoridade Nacional de Proteção de Dados (ANPD) pode  passar a cumprir com as diretivas previstas na LGPD1 a partir da edição da Medida Provisória 1.124/2022, que tem em seu cerne primordial a transformação da Autoridade em autarquia de natureza especial, criando também um cargo comissionado executivo de Diretor-Presidente da ANPD. A natureza jurídica da ANPD já era tida como transitória pela LGPD desde sua alteração pela lei 13.853/2019, que previa a possibilidade de transformação da autoridade pelo Poder Executivo em entidade da administração pública federal indireta sob regime autárquico especial. Dessa forma, ao estabelecer um prazo para tal desvinculação, a edição da Medida outorga à ANPD a autonomia técnica e decisória sem mais haver subordinação hierárquica à Presidência da República pela vinculação à Casa Civil, passando a possuir patrimônio próprio, além de sede e foro no Distrito Federal.2 Apesar das competências legais e as estruturas organizacionais permanecerem intactas, a Autoridade passa a ter Procuradoria própria, o que permite que passe a atuar perante o Judiciário a partir da atribuição de capacidade processual para que possa promover ações judiciais. Essa aguardada transformação influencia em muito na problemática nacional de reconhecimento como País adequado e viável para transferências internacionais de dados pessoais perante as autoridades estrangeiras, visto que a independência da Autoridade de Proteção de Dados local é pressuposto sine qua non para tanto3. O modelo europeu, no entanto, não é o único detentor de Autoridade independente, vez que países como Canadá, Japão, Taiwan e Austrália também são exemplos nesse quesito. Ainda, países da América Latina, como Uruguai e Argentina, não só possuem exemplos de legislações destinadas à proteção de dados pessoais, como também são considerados pelas autoridades europeias como países adequados para a transferência internacional de dados. Os anseios nacionais para o processo de ingresso na OCDE Não obstante as diretivas prévias existentes na LGPD para que a ANPD adquirisse sua independência paulatinamente, houve influência da Organização para a Cooperação e Desenvolvimento Econômico (OCDE)4 na edição da Medida aqui tratada, vez que, em outubro de 2020, foi emitido um relatório com recomendações que, dentre outros assuntos, diziam respeito à independência da ANPD. Atender a essas recomendações faz parte da política de Estado brasileira para a manutenção da boa relação com o órgão internacional. Considerado como parceiro-chave, o Brasil intenciona aderir como membro da Organização desde 1991, tendo manifestado interesse formal em 2017 em prol da adesão plena, e em janeiro do presente ano o Conselho da OCDE decidiu abrir discussões de acessão com o Brasil por meio da aprovação de convite formal para que seja iniciado o longo processo de adesão do Brasil nesse seleto clube. Em 2013, a OCDE atualizou a sua Recomendação do Conselho da OCDE sobre as Diretrizes que Regem a Proteção da Privacidade e dos Fluxos Transfronteiriços de Dados Pessoais5 e, em 2020, por meio de suas revisões sobre a transformação digital no Brasil6, emitiu relatório pelo qual atestou o alinhamento da estrutura normativa trazida pela aprovação da lli 13.709/18 (LGPD). No entanto, recomendações para o "aumento da confiança através do aumento da privacidade" foram enumeradas em meio a tantas outras pontuações que tratavam desde problemáticas endêmicas como a desigualdade digital, até questões orçamentárias da nação em relação a planejamento para despesas com Tecnologias da Informação e Comunicação (TIC). Nesse relatório, no que tange à aplicação da privacidade com a governança, os recursos e os conhecimentos técnicos pelas autoridades nos países da OCDE foi recomendada, especificamente ao Brasil, a reavaliação do art. 55-A da lei 13.709/2018 que estabeleceu a ANPD, dispositivo esse que, até então, descrevia a Autoridade como "órgão da administração pública federal, integrante da Presidência da República". Dessa forma, como recomendações pontuais para o aprimoramento da proteção de dados no País - e consequente adequação do Brasil aos parâmetros da OCDE em prol de uma futura adesão como membro - foram mencionadas, para além da revisão e reavaliação do artigo supracitado, a necessidade de assegurar padrões de transparência e imparcialidade nas indicações de membros para o Conselho Diretor da ANPD e para o Conselho Nacional de Proteção de Dados Pessoais e da Privacidade (CNPDP)7, esclarecendo também as responsabilidades de facto atribuídas ao CNPDP. Ainda, foi indicado a necessidade do estabelecimento de regras claras no tangente à tomada de decisões no âmbito da ANPD, bem como em relação à sua implementação pelo Conselho Diretor, mencionando-se, também, que a transparência deveria se estender à adequação de um orçamento previsível para a Autoridade. Por fim, restou recomendado o alinhamento da Estratégia Brasileira para Inteligência Artificial com a LGPD e outros marcos legais relevantes para que seja atingido um nível estável de cooperação com a totalidade de atores no tratamento de dados pessoais. É de interesse nacional o atendimento a tais recomendações, visto que a adequação para a constituição de melhores práticas de governança, gestão pública, democracia consolidada, instituições sólidas e economia sustentável fazem parte da compilação de atributos que um país com o "selo OCDE" deve apresentar perante o mundo. E, para tanto, emerge a Medida Provisória 1.124/2022 como esforço do Executivo Federal para fazer cumprir tais direcionamentos. A necessidade de adequação ao GDPR para maior cooperação na transferência internacional de dados Com a elevação da Autoridade Nacional de Proteção de Dados à condição de autarquia de natureza especial, presumindo-se que a MP 1124/2022 seja convertida em lei, será dado mais um passo para o Brasil ser impulsionado rumo a uma decisão de adequação por parte da Comissão Europeia, decisão essa que constitui um dos mecanismos essenciais para a chancela da transferência internacional de dados entre países. Já com a regulação europeia advinda da Diretiva 95/468 e agora com a consolidação do GDPR, a identificação de países considerados adequados para a circulação de dados é obrigação da Comissão Europeia por meio de um procedimento que avalia uma série de mecanismos que abarque questões de proteção de dados (envolvendo aqui também segurança da informação) para que sejam cumpridos parâmetros específicos determinados pelo art. 45 do GDPR, tais como, principalmente, a possibilidade de exercício dos direitos pelos titulares e a existência de uma autoridade independente de proteção de dados. Somente então pode ser iniciado o processo interno de consultas pela Comissão para que, por fim, seja emitida uma decisão final em relação à adequação de determinado país9. É usual que esse exame sistemático dos mecanismos para a proteção de dados de outros países seja dado por meio de processo bilateral, em que o país "avaliado" seja incluído a fim de que seja facilitada a compreensão do funcionamento dos mecanismos regulatórios e das instituições que os implementam. Tal como é realizado pela Comissão Europeia, a ANPD também se utiliza desse método avaliativo para determinar o nível de adequação do contexto regulatório de proteção de dados de outros países para então determinar a permissão de transferência internacional de dados. No entanto, a inércia da ANPD, muito provavelmente pela falta de independência, não permitiu que fossem definidos os procedimentos necessários para que alguma decisão de adequação fosse proferida até a atualidade, apesar de estar previsto na agenda regulatória e já ter sido mencionada recentemente na Tomada de Subsídios sobre Transferência Internacional de Dados10. No cenário internacional, a interlocução com os organismos internacionais como a OCDE, OMC e OEA rendeu recomendações que, em sua maioria, postulavam pela independência e autonomia da ANPD, conforme mencionado no tópico anterior. Notáveis exemplos de confiança e credibilidade em questões que abarcam transferências de dados é o intercâmbio de cooperação entre autoridades totalmente independentes para resolução de problemáticas de grande repercussão e impacto internacional. A independência é critério de legitimidade não só para o cumprimento de metas de desenvolvimento digital, como também o é para a cooperação entre autoridades em casos de investigação criminal. A questão é que, desde a entrada em vigor da LGPD, diversas dúvidas restaram pendentes de saneamento por parte da ANPD sobre conceitos e hierarquização de mecanismos que deveriam, por sua vez, esclarecer questões sobre transferência internacional de dados11. Para a maioria dos instrumentos existentes no art. 33 da LGPD, existem lacunas residuais que devem ser preenchidas pela própria Autoridade. Essas lacunas, no âmbito da transferência de dados internacionais, são geradas por obstáculos advindos de questões mal esclarecidas. Para além das dúvidas sobre o grau de proteção de dados pessoais adequado e sobre os requisitos e condições mínimas a serem observados em face da LGPD, existem óbices contratuais oriundos da ausência de definições claras e objetivas acerca do conteúdo de cláusulas-padrão contratuais, assim como não se verifica objetivamente normas corporativas globais, certificados, selos, códigos de conduta ou, principalmente, cláusulas contratuais específicas para determinadas transferências de dados pessoais. É nesse cenário lacunar que a tão aguardada consolidação da independência da ANPD se mostra como requisito fundamental no que tange ao estabelecimento de grau de adequação por organizações internacionais multilaterais, tais como a União Europeia12, como bem preconiza o art. 45 do GDPR13, assim como a supracitada Organização para a Cooperação e Desenvolvimento Econômico (OCDE). A inconstitucionalidade formal de uma medida imprescindível Pode-se dizer que a aprovação e sanção da lei 13.709/2018, a LGPD, mesmo após as modificações incluídas com a lei 13.853/2019, para além das lacunas deixadas para futuro preenchimento pela atuação de órgão regulador específico, foi controversa no modo como constituiu a ANPD. Porém, mais controverso foi o modo pelo qual o Executivo Federal resolveu sanar uma falha pretérita. Ocorre que, apesar da presumida boa intenção da Medida, que viria como exercício da diligência prevista nos §§1º e 2º do art. 55-A da LGPD, pairou o questionamento sobre uma potencial incompatibilidade com a Lei Fundamental14. Existiria, então, a possibilidade de a Medida representar ato eivado de inconstitucionalidade formal, em razão do fato de que a Constituição prescreve, em seu inciso XIX do art. 37, que autarquias só podem ser criadas via lei específica. É pressuposto fundamental que toda autoridade reguladora, desde sua criação, tenha independência e autonomia, principalmente no caso brasileiro, em que a LGPD foi editada com uma finalidade regulatória de duas facetas, servindo tanto para o setor privado, quanto para o público. Partindo-se da premissa de que outras agências como a Anatel, Aneel, ANA, ANTT, dentre outras, foram constituídas de imediato na forma de uma autarquia, a ANPD emergiu de forma heterodoxa: apesar de a autoridade reguladora ser constituída com todas as feições de uma autarquia, foi criada como órgão vinculado à Casa Civil e, portanto, subordinado à Presidência da República. O resultado foi uma agência especial de facto cuja estruturação se deu como integrante da Administração Pública Federal Direta. A despeito do vício formal supramencionado, a Medida tende a passar despercebida15. Aparentemente inofensiva, legalmente prevista e economicamente necessária, a Medida pareceu ter sido bem recebida pelos que atuam na incipiente área da privacidade e da proteção de dados, visto que, se aprovada pelo Congresso, sanaria a controvérsia de uma autoridade reguladora vinculada ao Executivo, que deveria ter sido estruturada desde o início com independência e autonomia no âmbito da Administração Pública Indireta. Considerações Finais A entrada na OCDE e a adequação com o GDRP trazem vantagens para as multinacionais brasileiras e estrangeiras, pelo saneamento de gargalos no movimento dos fluxos de capitais e por passar a ter um "carimbo" de viabilidade para negócios e investimentos. Portanto, a transformação da ANPD em autarquia é necessária e benéfica para o País em termos socioeconômicos. Sua independência e autonomia permitirão a sua atuação jurídica como Agência Reguladora, nos âmbitos privado e público, sem ser um órgão da Presidência da República. Ainda que questionada em eventual controle concentrado de constitucionalidade, observando os atritos recentes entre o Planalto e o Supremo, a chancela da Medida Provisória ou de sua Lei de Conversão pelo Tribunal Constitucional é bastante provável. À semelhança das Medidas Provisórias 1.791/1998 e 2.012/2000 que criaram, respectivamente, a Anvisa e a ANS - inquestionadas até os dias atuais - provavelmente a MP 1.124/2022 subsistirá em prol de uma sociedade de dados ávida por aprimoramento e regulação. Criará uma agência com imprescindíveis funções, ensejará que o País se adeque cada vez mais aos parâmetros e recomendações prescritos pelo GDPR e pela OCDE, ironicamente se consolidando como um fim que justifica sim seus meios16. __________ 1 Quintiliano, Leonardo. Contexto histórico e finalidade da Lei Geral de Proteção de Dados (LGPD). IAPD. 17 de março de 2021. Disponível aqui. Acesso em 27 de setembro de 2022. 2 Sobre a atuação da ANPD: LIMA, Cintia Rosa Pereira de. Autoridade Nacional de Proteção de Dados Pessoais (ANPD): entenda quais são as atribuições da ANPD e como este órgão atuará na fiscalização de implementação da LGPD. Disponível aqui, 03/11/2019, acesso em 05 de outubro de 2022. 3 LIMA, Cíntia Rosa Pereira de. Autoridade Nacional de Proteção de Dados e a eficácia da Lei Geral de Proteção de Dados. São Paulo: Almedina, 2021. 4 OECD. Going Digital in Brazil, 2020. Disponível aqui. Acesso em 12 de setembro de 2022. 5 OECD. Recommendation of the Council concerning Guidelines Governing the Protection of Privacy and Transborder Flows of Personal Data. 2013. Disponível aqui. Acesso em 27 de setembro de 2022. 6 OECD. O caminho da Era Digital no Brasil, 2020. Disponível aqui. Acesso em 08 de setembro de 2022. 7 DONEDA, Danilo. A Autoridade Nacional de Proteção de Dados e o Conselho Nacional de Proteção de Dados. In: BIONI, Bruno et al. (Org.). Tratado de Proteção de Dados Pessoais. 1ª ed. São Paulo: Editora Forense, 2020. E-book. 8 Article 29 Working Party. Transfers of personal data to third countries: Applying Article 25 and 26 of the EU data protection directive. Working Paper nº 12, 1998. Disponível aqui. Acesso em 27 de setembro de 2022. 9 Frazão, Ana; Cueva, Ricardo. Compliance e Políticas de Proteção de Dados. São Paulo (SP): Editora Revista dos Tribunais. 2022. 10 Consulta pública encerrada dia 30 de junho de 2022. Tomada de Subsídios sobre Transferência Internacional. Disponível aqui. Acesso em 27 de setembro de 2022. 11 Dresch, Rafael de Freitas Valle; Melo, Gustavo da Silva. A Autoridade Nacional de Proteção de Dados (ANPD): Entre sanção e fiscalização. Migalhas. 05 de novembro de 2021. Disponível aqui. Acesso em 27 de setembro de 2022. 12 CEPAL, UN. Internet & Jurisdiction Policy Network. Regional Status Report: Latin America and Caribbean. 2020. Disponível aqui. Acesso em 27 de setembro de 2022. 13 EUROPEAN COMMISSION. Adequacy Decisions. Disponível aqui. Acesso em: 12 de setembro de 2022. 14 Pereira, Sávio Luiz Martins. Inconstitucionalidade da Medida Provisória nº 1.124/2022. Conjur. 15 de agosto de 2021. Acesso em 22 de setembro de 2022. 15 MELLO, Celso Antônio Bandeira de. Curso de Direito Administrativo. 30ª ed., rev., ampl. e atual. São Paulo: Malheiros, 2013, nota de rodapé nº 10, p. 107. 16 Cf. Fins e Meios, de Aldous Huxley.
Uma das questões mais complexas no âmbito da disciplina da proteção de dados pessoais diz respeito aos artigos 15 e 16 da Lei Geral de Proteção de Dados (LGPD), que disciplinam o término do tratamento de dados. Cuida-se de regramento que visa a responder o questionamento de até quando os dados pessoais deverão ou poderão ser tratados e, ao mesmo tempo, pretende estabelecer o momento a partir do qual o agente de tratamento deverá ou poderá eliminar os dados pessoais. As considerações que seguem pretendem abordar essa questão em sua projeção na área da saúde, mais especificamente no que toca ao término do tratamento dos dados pessoais do paciente. De início, faz-se necessário discorrer brevemente acerca de aspecto conceitual que pode ser considerado de extrema importância no âmbito desta temática. E a digressão inicia a partir de uma pergunta: é possível considerar que os dados sejam "do" paciente? De imediato, adianta-se a resposta, que é negativa e se passa a explicar as razões. Primeiramente, mencione-se que a pergunta posta deve ser respondida a partir da disciplina de proteção de dados, que, de acordo com a Lei Geral de Proteção de Dados Pessoais do Brasil (LGPD - lei 13.709/2018) é transversal e afeta todas as áreas da sociedade. Como se sabe, a LGPD segue a tradição europeia de proteção de dados pessoais, por apresentar um texto legal com o caráter mais geral, marcado até mesmo em sua denominação, uma vez que se denomina "lei geral", como no caso da Europa, da revogada Diretiva de Proteção de Dados de 1995, substituída pelo Regulamento Geral de Proteção de Dados Pessoais de 2016. E, de acordo com nossa lei, que, como referido, segue uma escola europeia, há uma determinação expressa do conceito de dado pessoal. Essa definição consta no art. 5º da LGPD: dado pessoal é a informação relacionada a pessoa natural identificada ou identificável. Note-se: pelo próprio conceito da lei, na linha de outros textos legais internacionais, não se está a afirmar que o dado é "do" titular de dados pessoais, mas sim que se trata de uma informação relacionada à pessoa em questão. É corriqueiro e até aceitável que se faça menção "aos nossos dados" ou aos "dados do titular", mas se analisando o próprio conceito legal verifica-se que não sem razão ele é bem mais preciso. Mesmo na área da saúde, em que o conceito de dado pessoal escala para a categoria especial de dado pessoal sensível, no qual há uma proteção específica e mais robusta, a definição se constrói com base na expressão "informação relacionada a pessoa natural identificada ou identificável". Essa textura da regra, por si só, demonstra que não há como se falar em dado do titular, ou na área da saúde, de "dado do paciente". Não há direito de propriedade sobre o dado pessoal. Não há o direito, por parte do titular, de excluir o acesso ao dado pessoal daquele que com ele interagiu, se essa pessoa, no nosso caso um profissional da saúde, uma instituição de saúde ou um plano de saúde, por alguma razão, tenha de tratar a informação relacionada ao titular. Talvez quem tenha melhor exposto sobre a natureza do dado pessoal, que muito vai nos auxiliar quando examinamos os dados pessoais na área da saúde, foi Alexander Roßnagel, atual comissário de proteção de dados no Estado de Hessen, na Alemanha, e Professor da Universidade de Kassel. Roßnagel, a partir das lentes da impactante decisão do censo de 1983, do Tribunal Constitucional Federal alemão, afirmou que não é adequado falar em propriedade por parte do indivíduo dos dados relativos a sua pessoa1. Ainda, Roßnagel reafirma que a concepção do ordenamento jurídico relativo à proteção de dados não se coaduna com a ideia de propriedade sobre os dados pessoais2. Como já tivemos a oportunidade de referir3, o mais preciso é que se considere os dados relacionados a uma pessoa como resultado de uma observação social ou de um processo de comunicação social multirrelacional.4 Ou seja, há o potencial de um número maior de atores vir a tratar o dado pessoal, como o exemplo da saúde nos mostra claramente: médicos, enfermeiros, nutricionistas, fisioterapeutas, psicólogos, o plano de saúde, enfim, todos os integrantes das equipes multiprofissionais poderão vir a necessitar de tratar os dados relacionados ao paciente. Assim, o direito da proteção de dados, que, como se referiu, imprimiu a sua marca em todas as áreas da sociedade, não regula a propriedade, mas sim consiste num ordenamento sobre a informação e a comunicação do sujeito e envolvendo sujeitos, determinando quem, em qual relação, e em que situação, está autorizado a lidar com as informações relacionadas a determinada pessoa de uma determinada maneira. Dessa forma, o hospital ou o médico, o próprio paciente, bem como a empresa do seguro saúde podem necessitar de ter acesso ao prontuário ou a parte de seus dados para realizar alguma atividade que esteja no âmbito de suas atribuições contratuais ou legais, não podendo, todavia, deles se valer sem o respeito aos princípios da Lei Geral de Proteção de Dados, em especial os da finalidade e da necessidade.5 Quando examinamos, no Brasil, as regras do Conselho Federal de Medicina acerca do dever de guarda e armazenamento das informações relacionadas ao paciente, notamos uma certa falta de técnica no que diz respeito aos conceitos abordados. Impropriedades podem ser localizadas na Resolução n. 1.821/2007, do Conselho Federal de Medicina, que, se reconheça, é anterior à edição da LGPD e aprovou as normas técnicas concernentes à digitalização e ao uso dos sistemas informatizados para a guarda e o manuseio dos documentos dos prontuários contendo informações dos pacientes. Com efeito, um de seus considerandos refere que "o  prontuário  do  paciente,  em  qualquer  meio  de armazenamento,  é propriedade física da instituição onde o mesmo é assistido - independente de ser unidade de saúde ou consultório -, a quem cabe o dever da guarda do documento". Já em outro considerando, consta que os dados contidos no prontuário "pertencem  ao  paciente  e  só  podem  ser  divulgados com sua autorização ou a de seu responsável, ou por dever legal ou justa causa". Há que se considerar que para estar adequada à disciplina da proteção de dados, essas regras devem se desapegar da ideia de propriedade e pertencimento e trilhar o rumo da "relação" e de que a informação relacionada a uma pessoa, ainda que um paciente, integra uma realidade multirrelacional, na qual diversos atores podem vir a ter de tratar o dado pessoal. Há que se perquirir, portanto, quem, em qual situação, pode acessar, e, mais amplamente, tratar o dado pessoal. Essas considerações prévias apresentam relação com a questão do término do tratamento dos dados pessoais na área da saúde. Uma vez que titulares de dados merecem a adequada proteção da informação relacionada a sua pessoa, havendo que se estabelecer, em posição de equilíbrio, os direitos do titular em conjunto com os deveres e interesses dos agentes de tratamento e da própria coletividade. E, por fim, resta a pergunta: mas até quando? Até quando poderá ou até mesmo deverão, a instituição de saúde, o médico, ou, de modo geral, o profissional da saúde armazenar as informações relacionadas ao paciente. Até quando manter arquivado o prontuário do paciente? No ponto, temos uma disciplina a ser compreendida a partir de diversas fontes legislativas. Inicialmente, deve ser considerado, pela ordem hierárquica o que determina a LGPD. Ela prevê, como referido, uma seção específica sobre o término do tratamento dos dados pessoais. A regra basilar dessa seção, nos artigos 15 e 16, é a seguinte: em tendo sido alcançada a finalidade para a qual os dados foram coletados, por exemplo, com o fim do tratamento médico, os dados deverão ser eliminados. Mas a conservação dos dados será permitida ou exigida, em algumas hipóteses, dentre as quais destaca-se, para a área da saúde, as seguintes, presentes no art. 16 da LGPD: I - cumprimento de obrigação legal ou regulatória pelo controlador; II - estudo por órgão de pesquisa, garantida, sempre que possível, a anonimização dos dados pessoais. Como o inciso I indica, pode haver uma obrigação legal ou regulatória a ser cumprida pelo agente de tratamento, no caso aqueles que no âmbito da saúde tratam dados pessoais. Na seara regulatória, merece destaque, quanto à guarda dos dados relacionados ao paciente, o art. 7º da referida resolução 1.821/2007 do Conselho Federal de Medicina, que determina a guarda permanente dos prontuários que sejam arquivados eletronicamente em meio óptico, microfilmado ou digitalizado. Além disso, o art. 8º estabelece o prazo mínimo de 20 anos a partir do último registro, para a preservação dos prontuários em papel, que não migraram para o meio eletrônico. E, por fim, para que se saiba até quando armazenar os dados relacionados ao paciente, deve-se observar o contido na lei 13.787, de 27.12.2018, que dispõe sobre a digitalização e a utilização de sistemas informatizados para a guarda, o armazenamento e o manuseio de prontuários. Esse texto legal estabelece que os prontuários em papel e aqueles digitalizados, ou seja, que foram transformados do papel para o documento eletrônico, poderão ser eliminados, a partir do último registro, decorrido o prazo de vinte anos. Determina, ainda, no art. 6º, § 2º, que, alternativamente, o prontuário poderá ser devolvido ao paciente, o que pressupõe, pela leitura da regra, que o profissional ou instituição de saúde, não manterá uma via consigo. Na legislação de proteção de dados, essa "devolução ao paciente" poderia ser equiparada ao denominado direito de portabilidade, previsto no art. 18, V, da LGPD. Prevê a Lei n. 13.787, ainda, que prazos diferenciados poderão ser estabelecidos em regulamento (ainda não editado) para eventual uso dos dados relacionados ao paciente em estudos e pesquisas nas ciências da saúde, bem assim para fins legais e probatórios. Nesses casos, há que se observar ainda, os critérios estabelecidos no art. 13 da LGPD. Em síntese, é possível afirmar que existe uma regra geral no Brasil, que se comunica e complementa o disposto na LGPD, dando conta de que mesmo que encerrado o tratamento pelos profissionais da saúde os dados não devem ser eliminados, o que poderá ocorrer após o prazo mínimo de vinte anos do último registro. O "último registro" contido na Lei n. 13.787 e até mesmo na resolução 1.821/2007 do Conselho Federal de Medicina, faz com que, na prática, a cada novo registro de informação relacionada ao paciente, os vinte anos passem a contar do zero. O exemplo da aplicação da LGPD, em conjunto com a legislação federal e as resoluções do Conselho Federal de Medicina, demonstra como pode ser lido o sistema da disciplina de proteção de dados em harmonia com o que se denomina legislação setorial, de modo a que se obtenha direcionamentos mais concretos de como os sujeitos devem proceder em determinada área de atuação. Não há dúvidas de que a aplicação dessas regras consiste em grande desafio, de elevada complexidade, a ser enfrentado pelo intérprete, com vistas a extrair da disciplina legislativa a sua mais adequada leitura. O assunto se torna ainda mais relevante quando se verifica a implementação do denominado Registro de Atendimento Clínico (RAC), que tornará obrigatório, em todo o sistema de saúde do País, um registro eletrônico centralizado das informações relacionadas ao paciente, de forma a garantir a continuidade do cuidado da saúde durante toda a vida do cidadão6. Nesse contexto, importantes desafios terão de ser enfrentados, especialmente no que diz respeito à gestão de um banco de dados sensíveis relacionados aos pacientes, de dimensão nacional, e que demandará a observância do razoável equilíbrio entre a proteção da personalidade do paciente e a busca pela maior eficiência na prestação dos serviços médicos.    __________ 1 ROßNAGEL, Alexander. Einleitung. In: Roßnagel, A. (Org.). Handbuch Datenschutzrecht: Die neuen Grundlagen für Wirtschaft und Verwaltung, Munique, Beck Verlag, 2003,p. 4. No Brasil, ver LEONARDI, Marcel. Tutela e Privacidade na Internet, São Paulo: Saraiva, 2012, p. 77, que também rejeita a ideia de propriedade sobre os dados. 2 ROßNAGEL, Alexander. Einleitung., p.4. 3 MENKE, Fabiano. A proteção de dados e o novo direito fundamental à garantia da confidencialidade e da integridade dos sistemas técnico-informacionais no direito alemão. In. MENDES, Gilmar Ferreira; SARLET, Ingo Wolfgang; COELHO, Alexandre Zavaglia P.. Direito, Inovação e Tecnologia. V. 1. São Paulo: Saraiva, 2015. 4 ROßNAGEL, Alexander. Einleitung., p.4. 5 Os princípios da finalidade e da necessidade enunciam, conforme a previsão do art. 6º, incisos I e III, respectivamente, da LGPD:  "I - finalidade: realização do tratamento para propósitos legítimos, específicos, explícitos e informados ao titular, sem possibilidade de tratamento posterior de forma incompatível com essas finalidades; III - necessidade: limitação do tratamento ao mínimo necessário para a realização de suas finalidades, com abrangência dos dados pertinentes, proporcionais e não excessivos em relação às finalidades do tratamento de dados." 6 Ver, quanto ao assunto, a Portaria n. 234, de 18 de julho de 2022, da Secretaria de Atenção Especializada à Saúde, do Ministério da Saúde. Fica o registro de agradecimento ao Dr. Marcos Ottoni pela informação da criação do Registro de Atendimento Clínico em nível nacional.
A lei 13.709/18, Lei Geral de Proteção de Dados ("LGPD"), serviu e ainda serve de tema para inúmeras discussões no âmbito jurídico, no que tange a sua aplicação e extensão de efeitos. Em que pese não se tratar mais de novidade normativa propriamente dita, seus reflexos ainda seguem sendo pauta, como nos contratos eletrônicos, por exemplo, uma vez que a legislação de proteção de dados pessoais é ampla e aplicável às mais diversas áreas, desde os mercados tradicionais até os mais disruptivos. Considerando o conceito legal de dado pessoal1, é intuitivo o entendimento de que estes dados são encontrados em inúmeros segmentos, especialmente em contratos, e devem gozar da respectiva proteção, na forma da lei. Destaca-se, por oportuno, a disciplina de proteção de dados pessoais em ambientes que contam com regulamentação e normativas incipientes, como é o caso das relações tidas no âmbito da internet, em especial no que diz respeito à celebração de contratos eletrônicos. Sobre a temática, demonstrou a Pesquisa Nacional por Amostra de Domicílios promovida pelo Instituto Brasileiro de Geografia e Estatística, que, enquanto no ano de 2003, apenas cerca de 15% (quinze por cento) dos domicílios brasileiros pesquisados possuíam microcomputador2, em pouquíssimo tempo a realidade da digitalização das relações pessoais disparou, sendo que em 2018, e 99,2% (noventa e nove vírgula dois por cento) dos domicílios já contavam com acesso à internet, e se utilizava o telefone celular para a finalidade de navegar na rede3.  Não por acaso, tratou o legislador de editar normativas que não ficassem estranhas a esta realidade, tais como a LGPD, que em seu artigo 1º, caput, estabelece que esta lei regula o tratamento de dados pessoais, ainda que em meios digitais4. É fato notório que hodiernamente vivemos a era das relações digitais em todas as esferas da vida privada, uma vez que as relações interpessoais e os negócios jurídicos se permeiam pela digitalização dos fatos. No que tange à disciplina contratual, como não poderia deixar de ser, a digitalização se faz presente em diversos aspectos. A adoção de contratos eletrônicos em nosso dia a dia é evidente, e marca uma verdadeira necessidade que se alinha com a exigência de dinamicidade, globalização e instantaneidade na maior parte das relações que firmamos. Além disso, a internet enquanto ecossistema e rede interconectada, além do surgimento e a consolidação da ampla utilização de softwares (web e mobile), tornam a cada dia mais concreta a celebração em larga escala de contratos eletrônicos. Estes podem ser entendidos, em sentido amplo, como os vínculos contratuais assumidos por intermédio de ferramentas tecnológicas que substituem papel e caneta, seja para fins de manifestação de vontade, seja para a escrituração do instrumento particular que regerá a relação entre as partes.  Através de contratos ditos eletrônicos, é comum a dispensa da interação humana no mundo concreto, pois a interface entre as partes tem lugar no ambiente digital5. Contratos eletrônicos, portanto, tornam mais fácil, ágil, descomplicada e, muitas vezes, instantânea a assunção de obrigações e celebração de contrato entre partes interessadas, independentemente do tempo e do espaço físico em que se encontram. Atualmente, a cada minuto se celebram inúmeros contratos em ambientes digitais que se tratam de meros instrumentos de adesão, contendo frases como "li e aceito" e caixas em branco para preenchimento com anuência. Entretanto, estes contratos configuram instrumentos válidos, a priori, e, que, não obstante, efetivam operações de tratamento de dados pessoais potencialmente até de cunho internacional, haja vista que não necessariamente todas as pessoas envolvidas naquela transação estarão situadas no Brasil. À medida que a vida humana se torna digital, portanto, o direito contratual se vê coagido a acompanhar tal mudança, inclusive no que concerte à disciplina de proteção de dados pessoais. A edição da LGPD teve por finalidade a construção de um sistema eficaz na promoção da proteção dos direitos fundamentais de liberdade, privacidade e do livre desenvolvimento da personalidade da pessoa natural. Tal normativa foi promulgada ao encontro da tendência mundial de maior preocupação com o fluxo de informações de cunho pessoal na internet, inclusive diante de incontáveis contratações diárias que realizamos nas mais diversas plataformas, sites e aplicativos. Considerando a larga escala de contrato eletrônicos da espécie de adesão, levantam-se questões atreladas à dignidade individual, o direito à informação e à autodeterminação de cada indivíduo, considerando que a contratação ao alcance de um clique, cada vez mais pulverizada, necessita atender parâmetros mínimos. Esta necessidade se torna ainda mais latente ao considerarmos a especial proteção destinada às crianças e adolescentes, que contam com ampla e muitas vezes irrestrito acesso às ferramentas eletrônicas e à internet, e aos quais a LGPD reserva tratamento diferenciado, bem como aos consumidores, da forma do Código de Defesa do Consumidor. É comum que instrumentos contratuais exijam dados pessoais como nome completo, CPF, RG, endereço, nacionalidade, naturalidade, data de nascimento, ou mesmo dados pessoais sensíveis, como origem racial e étnica e biometria. Tais dados, uma vez fornecidos em um contrato eletrônico, ficarão armazenados em bases de dados situadas em arquivos eletrônicos ou mesmo nuvens de informação, as quais, muitas vezes, encontram-se no exterior. Poucos são os casos em que os contratantes se atentam ao consentimento e prestação de informações atrelados a estas coletas e tratamento de dados pessoais, ou que contam com tecnologia suficiente seja para a adequada segurança destes dados, ou, ainda, para aplicação de medidas de anonimização, ou para eventual fornecimento ou correção de dados, quando solicitado pelo titular6. Destaca-se que, para toda esta disciplina, a LGPD traz previsão de direitos e obrigações aos envolvidos, o que vem se reforçando através da atuação da Autoridade Nacional de Proteção de Dados - ANDP, sendo certo que o descumprimento destas premissas pode acarretar, além de penalidades contratuais, sanções por parte deste órgão. Por conseguinte, ainda que se tenha a percepção de que os meios eletrônicos, principalmente se ligados à internet, são menos burocráticos e visam facilitar a contratações, a celebração de contratos eletrônicos não pode ser entendida como terra sem lei, vista que deve ser compreendida dentro do ordenamento jurídico como um todo, inclusive no que se relaciona à disciplina de proteção de dados pessoais. __________ 1 Art. 5º. Para os fins desta Lei, considera-se: I - dado pessoal: informação relacionada a pessoa natural identificada ou identificável. (LGPD. Disponível aqui. Acessado em 22/09/2022) 2 BRASIL, Instituto Brasileiro de Geografia e Estatística, Pesquisa Nacional por Amostra de Domicílios. 2003. v. 24. p. 106. Disponível aqui. Acessado em 05/03/2022 3 BRASIL, Instituto Brasileiro de Geografia e Estatística, Pesquisa Nacional por Amostra de Domicílios Contínua. 2018.  p.26 a 59. Disponível aqui. Acessado em 05/03/2022 4 Art. 1º Esta Lei dispõe sobre o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado, com o objetivo de proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural. Parágrafo único. As normas gerais contidas nesta Lei são de interesse nacional e devem ser observadas pela União, Estados, Distrito Federal e Municípios. (LGPD. Disponível aqui. Acessado em 22/09/2022) 5 Neste sentido: Os  contratos  eletrônicos  podem  ser  conceituados  como  negócios  jurídicos  bilaterais,  que  se  utilizam  de computadores e  outros  tipos  de  aparelhos  eletrônicos, como,por  exemplo,telefone  celular, iPhone ou tablet, conectados à internet,  por  meio  de  um  provedor  de  acesso,  a  fim  de  se  instrumentalizar  e  firmar  o  vínculo contratual, gerando,assim,uma nova modalidade de contratação, denominada contratação eletrônica. CESARO, Telmo De Cesaro Júnior De. RABELLO, Roberto Dos Santos. "Um Modelo Para a Implementação De Contratos Eletrônicos Válidos." Revista Brasileira De Computação Aplicada. 4.1 (2012): 48-60. p. 49. Disponível aqui. Acessado em 26/06/2022. 6 Art. 18. O titular dos dados pessoais tem direito a obter do controlador, em relação aos dados do titular por ele tratados, a qualquer momento e mediante requisição: I - confirmação da existência de tratamento; II - acesso aos dados; III - correção de dados incompletos, inexatos ou desatualizados; IV - anonimização, bloqueio ou eliminação de dados desnecessários, excessivos ou tratados em desconformidade com o disposto nesta Lei; V - portabilidade dos dados a outro fornecedor de serviço ou produto, mediante requisição expressa, de acordo com a regulamentação da autoridade nacional, observados os segredos comercial e industrial;   (Redação dada pela Lei nº 13.853, de 2019)      Vigência VI - eliminação dos dados pessoais tratados com o consentimento do titular, exceto nas hipóteses previstas no art. 16 desta Lei; VII - informação das entidades públicas e privadas com as quais o controlador realizou uso compartilhado de dados; VIII - informação sobre a possibilidade de não fornecer consentimento e sobre as consequências da negativa; IX - revogação do consentimento, nos termos do § 5º do art. 8º desta Lei.  (LGPD. Disponível aqui. Acessado em 22/09/2022).
O artigo 23 da Lei Geral de Proteção de Dados (LGPD) Pessoais impõe, em seus §§4º e 5º, a incidência do regime de tratamento público de dados pessoais aos serviços notariais e de registro1, embora referida lei não traga maiores detalhes em relação às peculiaridades de sua aplicação às atividades em questão2. Com o escopo de detalhar a aplicação da LGPD às serventias extrajudiciais, o Conselho Nacional de Justiça, por sua Corregedoria, publicou, no dia 24 de agosto de 2022, o Provimento n. 134, que trata especificamente das medidas a serem adotadas pelos serviços notariais e registrais. Não é novidade que a chamada "digitalização dos cartórios" tem sido fomentada em anos recentes por iniciativas como o Provimento n. 100/2020 da Corregedoria Nacional de Justiça, que criou o inovador e festejado sistema "e-Notariado"3, ou mesmo pela recentíssima Medida Provisória 1.085, de 27/12/2021, convertida na lei 14.382, de 27/06/2022, que dispõe sobre o Sistema Eletrônico de Registros Públicos - Serp e dá outras providências4. Essas são iniciativas nacionais, sem prejuízo dos avanços locais que as Corregedorias Estaduais já implementam há algum tempo, alinhando-se, assim, a um propósito maior de assimilação dos impactos da sociedade da informação sobre as atividades notariais e registrais. Na mesma linha, o aludido Provimento n. 134/2022 do CNJ5 contempla temas importantíssimos como a definição do controlador, a necessidade de indicação do encarregado de dados, a exigência de políticas de boas práticas e governança, o mapeamento das atividades de tratamento e a definição de procedimentos para o cumprimento de medidas técnicas e administrativas, além de outros, demandando análise cuidadosa de seu escopo de incidência. Definição do controlador de dados Um dos mais intricados temas relativos aos serviços notariais e de registro é a definição de quem será considerado controlador para os fins do artigo 5º, inciso VI, da LGPD e, a esse respeito, o artigo 4º do Provimento n. 134 dispõe que "os responsáveis pelas delegações dos serviços extrajudiciais de notas e de registro, na qualidade de titulares das serventias, interventores ou interinos, são controladores no exercício da atividade típica registral ou notarial, a quem compete as decisões referentes ao tratamento de dados pessoais". De modo geral, sabe-se que compete ao controlador a decisão sobre as atividades de tratamento de dados pessoais, mas, em linhas mais específicas, as atribuições do controlador, na LGPD, são inúmeras, a exemplo das seguintes: (i) elaborar relatório de impacto à proteção de dados pessoais (art. 38); (ii) comprovar o cumprimento das exigências legais para a obtenção do consentimento (art. 8º, § 2º); (iii) comunicar à Autoridade Nacional de Proteção de Dados - ANPD a ocorrência de incidente de segurança (art. 48); (iv) atender requisições para o exercício de direitos dos titulares de dados (art. 18); (v) verificar a observâncias das instruções que repassa ao operador (art. 39); (vi) cooperar para o cumprimento da legislação relativa à proteção de dados pessoais (art. 39); (vii) indicar o encarregado (art. 41). E, havendo que se apurar a ocorrência de dano por violação à lei, é definido regime de responsabilidade civil, nos artigos 42, caput, e 44, parágrafo único, da LGPD, sobre o qual pairam sonoras controvérsias doutrinárias em relação à sua natureza (se objetiva ou subjetiva), mas com regra hialina acerca da solidariedade entre controlador e operador ou entre controladores conjuntos (art. 42, §1º, I e II, LGPD). A previsão contida no Provimento 134/2022 não abre margem a dúvidas no cotejo com a recente definição do Supremo Tribunal Federal, consolidada no Tema 777, com repercussão geral, no qual se analisou os artigos 37, §6º, e 236 da Constituição da República, sendo firmada a seguinte tese: "o Estado responde, objetivamente, pelos atos dos tabeliães e registradores oficiais que, no exercício de suas funções, causem dano a terceiros, assentado o dever de regresso contra o responsável, nos casos de dolo ou culpa, sob pena de improbidade administrativa"6. Assim, embora não se negue que é o titular da serventia, o interventor ou o interino quem, de fato, tem poder de decisão sobre as atividades notariais e registrais e, ainda, sobre o tratamento de dados pessoais levado a efeito no contexto de sua serventia extrajudicial, a incidência do Capítulo IV da LGPD (arts. 23 a 32) e a definição jurisprudencial sacramentada pelo STF não deixam dúvidas de que as atividades exercidas na condição de controlador de dados não poderão implicar a sua responsabilização direta e solidária, seja em caráter objetivo ou subjetivo, com fundamento no artigo 42, caput, ou no artigo 44, parágrafo único, da LGPD. Sobre isso, em complemento à definição trazida pelo CNJ, é absolutamente fundamental que a ANPD se pronuncie, especialmente no exercício de sua competência regulatória infralegal7, para atualizar o Guia Orientativo sobre Tratamento de Dados Pessoais pelo Poder Público8, cuja primeira versão, de janeiro de 2022, nada detalha em relação aos §§4º e 5º do artigo 23 da LGPD e à peculiar situação de tabeliães e registradores. Indicação do encarregado de dados Outro tema fundamental elucidado pelo Provimento 134/2022 é o da nomeação do encarregado pela proteção de dados, incumbência do responsável pela serventia extrajudicial (artigo 6º, inc. I). Sem dúvidas, trata-se de medida fundamental, especialmente em razão da exigência contida no artigo 23, inciso III, da LGPD, que, no regime de tratamento de dados pessoais levado a efeito pelo Poder Público, impõe a indicação do encarregado, em reforço à previsão do artigo 41 da lei. De fato, por estarem os serviços notariais e de registro sujeitos ao regime de tratamento público de dados pessoais e, portanto, incumbidos de fornecer acesso aos dados, por meio eletrônico, à administração pública, por força do §5º do artigo 23 da LGPD, é de fundamental relevância o papel do encarregado, que atua como interlocutor em matéria de tratamento de dados pessoais, propiciando justamente a facilitação do intercâmbio comunicacional com a ANPD e, no caso específico, com o Estado. É de se registrar que, seguindo o entendimento acolhido pela ANPD em seu Guia Orientativo sobre Agentes de Tratamento9 (versão 2, de abril de 2022), não há óbice a que o encarregado seja pessoa natural ou jurídica ou mesmo que atue em prol de múltiplas serventias ao mesmo tempo, sendo a sua nomeação e contratação de livre escolha do titular da serventia, com possibilidade, ainda, de que seja escolhido e contratado de forma conjunta, ou mesmo de que seja subsidiado ou custeado pelas entidades de classe (art. 10, §§1º a 3º, do Provimento n. 134/2022). Políticas de boas práticas e governança Em que pese a facultatividade da definição de políticas de boas práticas e de governança no artigo 50, caput, da LGPD, o CNJ foi assertivo em relação à exigência de que sejam adotadas medidas de governança na implementação dos procedimentos de tratamento de dados para cumprimento das atribuições das serventias notariais e registrais. O artigo 6º do Provimento n. 134/2022 se alinha, em grande medida, às exigências cogentes do artigo 46 da LGPD (dever geral de segurança no tratamento de dados pessoais) e, também, do artigo 49 da LGPD (exigência de segurança dos sistemas e dispositivos informáticos empregados nas atividades de tratamento). Além dos dados pessoais sensíveis, e, ainda em matéria de governança, é imperioso que se considere a parametrização procedimental para o atendimento de requerimentos de certidões envolvendo dados restritos ou sigilosos (art. 38 do Provimento), que demandam avaliação específica. Quanto aos elementos restritos, deve-se observar o disposto nos artigos 45 e 95 da lei 6.015/1973, no artigo 6º da lei 8.560/1992, no artigo 5º do Provimento n. 73/2018, da Corregedoria Nacional de Justiça, e, quanto aos elementos sigilosos, o artigo 57, §7º, da lei 6.015/1973. Enfim, é de se destacar a relevância atribuída ao mapeamento de dados (art. 6º, inc. II, c/c art. 7º do Provimento n. 134/2022), que tem a finalidade de propiciar leitura estratégica das avaliações procedimentais relacionadas ao implemento de medidas técnicas e administrativas relacionadas ao tratamento de dados pessoais. A isso se somam algumas outras boas práticas e ações de governança estabelecidas no provimento, tais como: (i) adotar medidas de transparência aos usuários sobre o tratamento de dados pessoais (art. 6º, inc. IV); (ii) definir e implementar Política de Segurança da Informação (art. 6º, inc. V); (iii) definir e implementar Política Interna de Privacidade e Proteção de Dados (art. 6º, inc. VI); (iv) criar procedimentos internos eficazes, gratuitos, e de fácil acesso para atendimento aos direitos dos titulares (art. 6º, inc. VII); (v) zelar para que terceiros contratados estejam em conformidade com a LGPD, questionando-os sobre sua adequação e revisando cláusulas de contratação para que incluam previsões sobre proteção de dados pessoais (art. 6º, inc. VIII); (vi) treinar e capacitar os prepostos (art. 6º, inc. IX). Assinaturas eletrônicas, ICP-Brasil e digitalização de documentos Outro tema fundamental abordado pelo Provimento n. 134/2022 diz respeito aos critérios de integridade, autenticidade e confiabilidade dos registros públicos, uma vez que se definiu que é atribuição do responsável pela serventia extrajudicial a digitalização dos documentos10 físicos ainda utilizados (art. 15, inc. I) e o armazenamento dos documentos físicos que contenham dados pessoais e dados pessoais sensíveis em salas ou compartimentos com controles de acesso (art. 15, inc. II), facultando-se a eliminação de documentos físicos, depois de digitalizados, com observância ao disposto no Provimento n. 50/2015 da Corregedoria Nacional de Justiça (art. 15, parágrafo único). A previsão é bem-vinda, mas a ela devem se somar as exigências mais específicas contidas na lei 12.682/2012 (Lei da Digitalização11) e no decreto 8.539/2015 (que a regulamentou), pois categorias conceituais sobre documentos digitais (art. 2º, inc. II, do Dec. 8.539/2015) envolvem a diferenciação entre documentos nato-digitais e documentos digitalizados, sendo exigida, para esses últimos, a adoção de criptografia assimétrica de padrão ICP-Brasil para fins de arquivamento (art. 2º-A, §8º, da lei 12.682/2012, com reforma realizada pela lei 13.874/2019). A preocupação com a higidez dos requerimentos e com a segurança da informação também consta do Provimento 134/2022, como, por exemplo, verifica-se no art. 39 quanto aos requerimentos de certidões de inteiro teor, para os quais se exige assinatura eletrônica qualificada (de padrão ICP-Brasil) ou avançada (que adote os mecanismos do assinador Gov.br do Instituto Nacional de Tecnologia da Informação - ITI), denotando sintonia com as classificações definidas para assinaturas eletrônicas12 nas interações de particulares com o Poder Público, no plano federal, pelo artigo 4º da lei 14.063/2020. Por fim, a eliminação de documentos físicos que já tenham sido digitalizados demandará observância estrita ao disposto no artigo 55, §1º, do Provimento 134/2022 e reforçada cautela para evitar a duplicidade documental, inclusive para fins de governança de dados, sendo essencial que se avalie cada caso em função das exigências e dos permissivos dos artigos 15 e 16 da LGPD para fins de eliminação de dados. Das particularidades do provimento em relação às especialidades O Provimento 134/2022, em seus capítulos XI a XV, traz um detalhamento com relação a cada especialidade extrajudicial. Com relação aos Tabelionatos de Notas, o Provimento avança e uniformiza regras que eram disciplinadas de maneiras diversas nos variados Estados Brasileiros. Agora, o fornecimento de certidões de fichas de firma e testamentos, por exemplo, obedecerão aos mesmos requisitos em todo território nacional (arts. 28 a 33). No tocante às certidões do Registro Civil das Pessoas Naturais, o Provimento impõe restrições severas ao fornecimento de certidões, principalmente as de inteiro teor. A aplicabilidade, viabilidade e até mesmo a fiscalização desse controle demandarão análise profunda. Curiosamente, as certidões do Registro de Imóveis tiveram tratamento menos severo, muito embora possam refletir dados sensíveis constantes de certidões do Registro Civil. Uma questão que se coloca é a da exigência de indicação da finalidade para obtenção da certidão. Não há, nem por parte da lei, muito menos do Provimento, rol elucidativo acerca do que seria legítimo ou aceitável como finalidade para solicitação de uma certidão cujo conteúdo é, por disposição legal, público. A quem caberá a análise dessa finalidade? Por fim, no tocante aos Tabelionato de protesto, o Provimento impõe a exclusão do endereço do devedor e seu telefone da certidão (art. 51), bem como disciplina a unificação da CENPROT com facilitação de compartilhamento de endereços entre os tabeliães de modo a facilitar as intimações. Notas conclusivas O Provimento 134/2022 é repleto de nuances e detalhamentos essenciais para a adequação das serventias extrajudiciais à LGPD, especialmente em função da transformação digital que foi acentuada durante o período pandêmico de 2020-2021. Sem dúvidas, há necessidade de adequação/aperfeiçoamento por parte da Autoridade Nacional de Proteção de Dados, cujo múnus regulatório infralegal será muito beneficiado caso se acrescente, no cronograma de sua Agenda Regulatória13, para o próximo biênio (2023-2024), iniciativa voltada especificamente às atividades notariais e registrais. Temas ainda controversos, como a atuação do titular da serventia extrajudicial, na condição de controlador, e a necessidade de compatibilização de seu regime de responsabilidade civil - já sacramentado no Tema 777 do STF, com repercussão geral -, com as regras específicas dos artigos 42, caput, e 44, parágrafo único, da LGPD, bem como o delineamento de contornos mais claros para a aplicação das exigências dos demais dispositivos do Capítulo IV da LGPD aos serviços notariais e de registro são alguns dos assuntos que a ANPD terá de esmiuçar por força da competência que lhe é imposta pelo artigo 55-J, inciso XIII, da LGPD. As restrições severas à obtenção de certidões que essencialmente são públicas chocam-se com o princípio da publicidade que é essencial aos serviços notarias e de registro, e com a própria Lei n. 6.015/1973 que, em seu artigo 17, autoriza a obtenção de certidões sem informar motivo ou interesse. Curioso é que o Provimento faz menção a este artigo em seus considerandos, mas impõe a necessidade de indicação de finalidade à obtenção de determinadas certidões e até mesmo de autorização judicial. No mais, a atuação do CNJ, por sua Corregedoria Nacional de Justiça, é elogiável e muito bem-vinda, pois traz luz à aplicação da LGPD, com toda a sua complexidade, a um setor permeado por peculiaridades. Espera-se que o debate evolua ainda mais para que esclarecimentos complementares sejam trazidos à tona com máxima brevidade. Cabe agora às Corregedorias Estaduais a complementação do provimento através de Normas de Serviço, o que possibilitará a efetiva aplicabilidade do provimento em todo território nacional. __________ 1 LIMBERGER, Têmis. Comentários ao artigo 23. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Comentários à Lei Geral de Proteção de Dados Pessoais. Indaiatuba: Foco, 2022, p. 281-303. 2 LIMA, Cíntia Rosa Pereira de; LIMA, Marilia Ostini Ayello Alves de. Proteção de dados pessoais e publicidade registral: uma longa caminhada de um tema inesgotável. Migalhas de Proteção de Dados, 12 nov. 2021. Disponível em: https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-dados/354779/publicidade-registral-uma-longa-caminhada-de-um-tema-inesgotavel Acesso em: 13 set. 2022. 3 Conferir, por todos, PERROTTA, Maria Gabriela Venturoti. Impactos jurídicos do sistema e-Notariado para as atividades notariais no Brasil. In: CRAVO, Daniela Copetti; JOBIM, Eduardo; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Direito público e tecnologia. Indaiatuba: Foco, 2022, p. 327-339. 4 MIRANDA, Caleb Matheus Ribeiro de. Sistema Eletrônico de Registros Públicos (Serp). In: KÜMPEL, Vitor Frederico (coord.). Breves comentários à Lei n. 14.382/2022. São Paulo: YK Editora, 2022, p. 9-34. 5 CONSELHO NACIONAL DE JUSTIÇA. Provimento n. 134, de 24 de agosto de 2022. Estabelece medidas a serem adotadas pelas serventias extrajudiciais em âmbito nacional para o processo de adequação à Lei Geral de Proteção de Dados Pessoais. Disponível aqui. Acesso em: 13 set. 2022. 6 BRASIL. Supremo Tribunal Federal. Repercussão Geral. Tema 777 - Responsabilidade civil do Estado em decorrência de danos causados a terceiros por tabeliães e oficiais de registro no exercício de suas funções. Paradigma: RE 842.846. Relator: Min. Luiz Fux. DJe Nr. 172, de 08/07/2020. Disponível aqui. Acesso em: 13 set. 2022. 7 LIMA, Cíntia Rosa Pereira de. Comentários ao artigo 55-J. In: MARTINS, Guilherme Magalhães; LONGHI, João Victor Rozatti; FALEIROS JÚNIOR, José Luiz de Moura (coord.). Comentários à Lei Geral de Proteção de Dados Pessoais. Indaiatuba: Foco, 2022, p. 529-530. 8 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS. Guia Orientativo sobre Tratamento de Dados Pessoais pelo Poder Público. Versão 1.0, 27 jan. 2022. Disponível aqui. Acesso em: 13 set. 2022. 9 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS. Guia Orientativo para Definições dos Agentes de Tratamento de Dados Pessoais e do Encarregado. Versão 2.0, 28 abr. 2022. Disponível aqui. Acesso em: 13 set. 2022. 10 Sobre o tema, conferir PARENTONI, Leonardo. Documento eletrônico: aplicação e interpretação pelo Poder Judiciário. Curitiba: Juruá, 2007, especialmente o Capítulo III. 11 MARCACINI, Augusto Tavares Rosa. Documentos digitalizados: originais, cópias e a nova Lei nº 12.682/2012. In: PAESANI, Liliana Minardi (coord.). O direito na sociedade da informação III: a evolução do direito digital. São Paulo: Atlas, 2013. p. 33-51. 12 MENKE, Fabiano. Assinatura eletrônica no direito brasileiro. São Paulo: Revista dos Tribunais, 2005, p. 30. O autor explica que "agora se vive a realidade de (...) ter de diminuir bastante a necessidade de utilização das assinaturas manuscritas. E isto de deve justamente ao desenvolvimento da criptografia assimétrica, e, com ela, a criação das assinaturas digitais". 13 AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS. Portaria n. 11, de 27 de janeiro de 2021. Torna pública a agenda regulatória para o biênio 2021-2022. Disponível aqui. Acesso em: 13 set. 2022.
Introdução Com a chegada e a declaração de estado pandêmico provocado pela COVID-191, questões e dúvidas relativas à privacidade e à intimidade tornaram-se mais evidentes. O Direito, como uma das ciências da vida em sociedade, viu-se questionado. Poderia, então, este ente abstrato limitar direitos e garantias em prol de uma coletividade? Muito além das meras discussões acadêmicas, essas posições e discussões mostram interferências diárias em nossas vidas. Quais são os direitos e os deveres que cabem a cada pessoa e ao Estado quando posições fáticas refletem interferências nas escolhas individuais e na própria escolha individual de cada um? Os direitos fundamentais apresentam-se como o centro do debate. Não podemos negar que, nessa segunda década do século vinte e um, discussões sobre os limites dos poderes da sociedade materializados no Estado e no governo, e os direitos e deveres individuais, se colocaram em conflito. Mas será esse conflito real, ou meramente aparente? Em um contexto geral, é a Constituição Federal a norma máxima que apresenta fundamento de validade para os demais direitos. Mas, ela seria meramente o texto positivado, ou haveria algo a mais, questões vinculadas a materialidade, isto é, a realidade das relações que se apresentam. Analisaremos nesse breve artigo algumas considerações sobre proteção de dados e privacidade. Mas o que justificaria tal esforço? A questão é simples de se observar. Se de um lado temos as garantias e deveres constitucionais impostas à autoridade com poder de coerção, de outro temos a liberdade e o direito de exercermos nossas escolhas limitados pela consecução do bem comum. O Direito é amplo e permite discussões e posicionamentos diversos, dependendo da construção dos fatos que nos levam a possíveis conclusões diversas. Tecemos, então, alguns comentários a fim de fomentar a discussão e a polêmica inerentes a este assunto. O objetivo principal deste texto é discutir e difundir essas posições. Para tanto tentaremos trazer alguns aspectos deste debate, sem, contudo, esgotar a temática. Desenvolvimento A incorporação constitucional do Direito a Proteção de Dados como proteção fundamental A Emenda Constitucional 115, de 10 de fevereiro de 2022, alterou a Constituição Federal para incluir a proteção de dados pessoais entre os direitos e garantias fundamentais e para fixar a competência privativa da União para legislar sobre proteção e tratamento de dados pessoais. Incluiu-se no rol de direitos e garantias fundamentais previstos no artigo 5º, o inciso LXXIX, segundo o qual fica assegurado, nos termos da lei, o direito à proteção dos dados pessoais, inclusive nos meios digitais. Da mesma forma que acrescentou o inciso XXVI ao artigo 21, de forma que compete à União: organizar e fiscalizar a proteção e o tratamento de dados pessoais, nos termos da lei. Fixando, ainda, competência legislativa privativa àquele ente, nos termos do inciso XXX, do artigo 22, segundo o qual compete privativamente à União legislar sobre: proteção e tratamento de dados pessoais. Anteriormente a este desenvolvimento legislativo e normativo a edição da Lei Geral de Proteção de Dados - lei 13.709/2018 apresentou uma regulação legal (infraconstitucional) sobre o assunto, a despeito da ausência de um marco normativo constitucional. Ainda que esta legislação não sirva de base de justificação constitucional direta deste direito, permite-se extrair a fundamentalidade da proteção a partir do seu conteúdo e alcance associado a partir da interpretação de princípios e direitos fundamentais de caráter geral e especial já positivados como o princípio da dignidade da pessoa humana, o direito ao livre e completo desenvolvimento da personalidade. Leonardo Quintiliando, em artigo publicado neste mesmo Portal2 nos questiona, após análise dos fundamentos que implicaram em alterações constitucionais, a sua necessidade; visto que "o direito à proteção de dados já é reconhecido pela doutrina e jurisprudência como princípio implícito na Constituição". O professor e advogado analisa os fundamentos considerados pelo Congresso para a constitucionalização identificando uma omissão quanto aos motivos e fundamentos que motivaram o constituinte, não explicitando sua necessidade. Identificou ainda que ,da forma que foi constitucionalizada como norma de eficácia contida esse direito, pode vir a sofrer restrições. Em outro escrito3, Quintiliano discute o contexto histórico e a finalidade da LGPD sob o alerta da possibilidade de controle da privacidade dos cidadãos e da manipulação de seus dados para interesses ilegítimos. Compreende, pois, que a proteção da privacidade é inerente à autodeterminação pessoal como uma irradiação do princípio da dignidade humana. Sua análise percorre desde a genérica previsão ao direito à privacidade na Declaração Universal dos Direitos Humanos, passando por outros instrumentos regionais para então chegar à proteção de dados, enquanto direito. A construção argumentativa é similar à utilizada pela Ministra Rosa Weber quando do julgamento da constitucionalidade da Medida Provisória 954/2020 que declarava a emergência de saúde pública no Brasil e dentro de seu escopo estava o compartilhamento obrigatório dos dados pessoais tendo em vista a proteção a saúde pública. O STF afastou essa hipótese. A partir da ADI 63874 de Relatoria da Ministra Rosa Weber no ano de 2020 quando o Supremo Tribunal Federal passou a reconhecer a proteção de dados pessoais como um direito fundamental autônomo e implicitamente positivado.5 Para compreender a lógica doutrinária e jurisprudencial devemos considerar a existência de normas com conteúdo materialmente constitucionais, de normas com conteúdo formalmente constitucionais. Recordando: o constituinte originário compreendeu que direitos e garantias expressos presentes na Constituição não excluem outros decorrentes do regime e dos princípios por ela adotados (Art. 5§2º). Podemos afirmar a existência de direitos materialmente constitucionais fora do texto expresso da constituição, atingidos por meio da interpretação proveniente dos tribunais competentes e da mais arrazoada doutrina. O texto constitucional não é taxativo em relação ao rol de direitos fundamentais. Esses podem estar dispersos no texto constitucional, assim como podem ser extraídos pelo intérprete do direito de toda a conformação do ordenamento jurídico. De acordo com Canotilho,6 a fundamentalidade material dos direitos fundamentais decorre da abertura da Constituição a outros direitos fundamentais não expressamente constitucionalizados Podemos entender o ordenamento jurídico, segundo as lições de Norberto Bobbio7, como uma entidade unitária constituída pelo conjunto sistemático de todas as normas (2006, p. 197), objetivando superar o risco permanente de incerteza e de arbítrio (2006, p. 198) a partir de três características fundamentais: a unidade, a coerência e a completude (2006, p. 198), encontrando seu fundamento na norma hipotética fundamental que pode se  materializar na Constituição (mas que com ela não se confunde) em sua  forma dinâmica. Ainda que possa o poder constituinte originar-se de um fato social, ele é autorizado pela norma fundamental a estabelecer normas emanadas que deverão ser cumpridas por todos, não admitindo lacunas, contradições e antinomias em seu sistema; sendo, portanto:  uno, completo e coerente (BOBBIO, 2006, p.202). É dentro desta lógica sistêmica que o raciocínio vinculado à fundamentalidade do direito da proteção dos dados pessoais emergiu em decorrência dos direitos de personalidade e constitucionalmente, em especial, o respeito à privacidade e à autodeterminação informativa8. De forma que a coleta, o uso e o processamento (tratamento e manipulação) de dados relativos à identificação - efetiva ou potencial - de pessoa natural, hão de observar os limites delineados pela proteção à liberdade individual (art. 5º, caput), da privacidade e do livre desenvolvimento da personalidade (art. 5º, X e XII). O tratamento de dados pessoais tende a ser uma medida eficaz, muitas vezes essencial, para a avaliação e o manejo de riscos, sendo que apresenta implicações para o desenvolvimento de políticas públicas e sociais. Quando há interesse público legítimo no compartilhamento dos dados pessoais dos usuários de serviços, faz-se necessária a garantia de que esses dados manipulados sejam adequados, relevantes e não excessivos em relação ao propósito a que deles se espera para o uso e conservados apenas pelo tempo necessário. Em função do princípio da transparência, o uso e a coleta desses dados devem ter seus critérios de uso e da forma de coleta e tratamento definidos, expressando e protegendo também a garantia do devido processo legal (art. 5º, LIV, da CF). Na dimensão substantiva, deve oferecer condições de avaliação quanto à sua adequação, à necessidade, à compatibilidade do tratamento com as finalidades informadas e à sua limitação ao mínimo necessário para alcançar suas finalidades.  No mesmo sentido, devem ser apresentados mecanismos técnicos ou administrativos aptos à proteção de tais dados pessoais, em especial aqueles definidos como sensíveis de acessos não autorizados, vazamentos acidentais ou utilização indevida, seja na transmissão, seja no tratamento, Independentemente do cenário de urgência decorrente de crises e emergências, a necessidade de formulação de políticas públicas, que demandem dados específicos para seu desenho executivo, não pode ser invocada como pretextos para justificar investidas visando ao enfraquecimento de direitos e permitindo o atropelo de garantias fundamentais consagradas pelo sistema constitucional. Consequentemente, é relevante compreender o sentido do termo "dados pessoais" e analisar as características específicas da temática referente a dados pessoais sensíveis. Algumas Definições: Dados Pessoais e Dados Pessoais Sensíveis O Regulamento Europeu (UE 2016/679), que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados, considera que as pessoas têm direito à proteção dos dados de caráter pessoal, garantindo a realização de um espaço comum de liberdade, segurança e justiça; logo, devendo esta proteção ser considerada em equilíbrio com outros direitos fundamentais. Neste sentido, define-se Dados Pessoais como toda unidade, a qual integra uma informação pessoal, relativa a uma pessoa física que possa ser identificada, direta ou indiretamente, a partir de uma referência ou identificador, por via eletrônica ou física, que apresentem elementos específicos da identidade física, fisiológica, genética, mental, económica, cultural ou social da mesma9. Nota-se que a normativa europeia define algumas categorias especiais relativas aos dados pessoais, é dizer, especifica-se a proteção de dados sensíveis, sendo esses aqueles que: "revelem a origem racial ou étnica, as opiniões políticas, as convicções religiosas ou filosóficas, ou a filiação sindical, bem como o tratamento de dados genéticos, dados biométricos para identificar uma pessoa de forma inequívoca, dados relativos à saúde ou dados relativos à vida sexual ou orientação sexual de uma pessoa"10.  No direito pátrio, por sua vez o legislador seguiu os mesmos conceitos, a partir do artigo 5º da LGPD, podemos extrair que dados pessoais são informações relacionadas a pessoa natural identificada ou identificável e dados pessoais sensíveis caracterizam-se como dado pessoal sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural. A partir destas definições conceituais, deve-se compreender os limites e as diferenças entre o direito à proteção de dados pessoais e os direitos de privacidade, já que são conceitos relacionados e interligados; porém distintos e diversos. Entre os Direitos de Privacidade e a Proteção de Dados Kevin Peroli11 afirma que a efetividade da autodeterminação do indivíduo também recai sobre a proteção dos dados pessoais e sensíveis como fundamento ao acordo entre indivíduos e instituições acerca de quais dados podem ser tratados, de forma que existe a soberania do titular desses dados sobre suas próprias informações. Conforme nos indica Leonardo Quintiliano12, o próprio parecer da Câmara dos Deputados a respeito da PEC 17/2019 traz o posicionamento de Laura Schertel Ferreira Mendes, professora da Universidade de Brasília, que de forma concisa nos apresenta as diferenças básicas sobre esses direitos. O direito à privacidade possui caráter individual, expressando-se como um direito negativo que oportuniza o uso e o gozo de direitos. De outro lado, a proteção de dados apresentar-se com um caráter mais coletivo, expressando-se como um direito positivo, manifestado na própria decisão do indivíduo de permitir ou não a coleta, o uso, a circulação e o tratamento de seus dados, de forma a garantir a igualdade por meio da não discriminação e o aproveitamento de oportunidades sociais. Considerações Finais Desta forma, fica claro que apesar de próximos, estes conceitos não se confundem. Ainda mais que, com a constitucionalização da proteção de dados, o direito de proteção aos dados pessoais se tornou um direito mais autônomo, e não mais uma mera construção interpretativa. Ainda que haja críticas sobre a constitucionalização e a sua necessidade, o fato é que com a positivação deste direito em norma constitucional expressa, torna-se mais fácil o acesso e a compreensão desta proteção dos dados pessoais. No entanto, por ser algo novo, que tem seu debate iniciado há poucos anos, a execução e a proteção de direitos derivados da proteção de dados dependem de estabilização que só ocorrerá a partir das decisões judiciais sobre o caso concreto, de forma a garantir a unidade e a coerência de todo o sistema e ordenamento jurídico. __________ 1 BRASIL, Decreto Legislativo Nª. 06 de março de 2020, que "Reconhece, para os fins do art. 65 da Lei Complementar nº 101, de 4 de maio de 2000, a ocorrência do estado de calamidade pública, nos termos da solicitação do Presidente da República encaminhada por meio da Mensagem nº 93, de 18 de março de 2020". 2 QUINTILIANO, Leonardo David. A proteção de dados pessoais como direito fundamental - (ir)relevância da PEC 17/2019?  Disponível aqui. 3 QUINTILIANO, Leonardo David. Contexto histórico e finalidade da Lei Geral de Proteção de Dados (LGPD). Instituto Avançado de Proteção de Dados - IAPD Disponível aqui. 4 EMENTA MEDIDA CAUTELAR EM AÇÃO DIRETA DE INCONSTITUCIONALIDADE. REFERENDO. MEDIDA PROVISÓRIA Nº 954/2020. EMERGÊNCIA DE SAÚDE PÚBLICA DE IMPORTÂNCIA INTERNACIONAL DECORRENTE DO NOVO CORONAVÍRUS (COVID-19). COMPARTILHAMENTO DE DADOS DOS USUÁRIOS DO SERVIÇO TELEFÔNICO FIXO COMUTADO E DO SERVIÇO MÓVEL PESSOAL, PELAS EMPRESAS PRESTADORAS, COM O INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA. FUMUS BONI JURIS. PERICULUM IN MORA. DEFERIMENTO. 1. Decorrências dos direitos da personalidade, o respeito à privacidade e à autodeterminação informativa foram positivados, no art. 2º, I e II, da Lei nº 13.709/2018 (Lei Geral de Proteção de Dados Pessoais), como fundamentos específicos da disciplina da proteção de dados pessoais. 2. Na medida em que relacionados à identificação - efetiva ou potencial - de pessoa natural, o tratamento e a manipulação de dados pessoais hão de observar os limites delineados pelo âmbito de proteção das cláusulas constitucionais assecuratórias da liberdade individual (art. 5º, caput), da privacidade e do livre desenvolvimento da personalidade (art. 5º, X e XII), sob pena de lesão a esses direitos. O compartilhamento, com ente público, de dados pessoais custodiados por concessionária de serviço público há de assegurar mecanismos de proteção e segurança desses dados. 3. O Regulamento Sanitário Internacional (RSI 2005) adotado no âmbito da Organização Mundial de Saúde exige, quando essencial o tratamento de dados pessoais para a avaliação e o manejo de um risco para a saúde pública, a garantia de que os dados pessoais manipulados sejam "adequados, relevantes e não excessivos em relação a esse propósito" e "conservados apenas pelo tempo necessário." (artigo 45, § 2º, alíneas "b" e "d"). 4. Consideradas a necessidade, a adequação e a proporcionalidade da medida, não emerge da Medida Provisória nº 954/2020, nos moldes em que editada, interesse público legítimo no compartilhamento dos dados pessoais dos usuários dos serviços de telefonia. 5. Ao não definir apropriadamente como e para que serão utilizados os dados coletados, a MP nº 954/2020 desatende a garantia do devido processo legal (art. 5º, LIV, da CF), na dimensão substantiva, por não oferecer condições de avaliação quanto à sua adequação e necessidade, assim entendidas como a compatibilidade do tratamento com as finalidades informadas e sua limitação ao mínimo necessário para alcançar suas finalidades. 6. Ao não apresentar mecanismo técnico ou administrativo apto a proteger, de acessos não autorizados, vazamentos acidentais ou utilização indevida, seja na transmissão, seja no tratamento, o sigilo, a higidez e, quando o caso, o anonimato dos dados pessoais compartilhados, a MP nº 954/2020 descumpre as exigências que exsurgem do texto constitucional no tocante à efetiva proteção dos direitos fundamentais dos brasileiros. 7. Mostra-se excessiva a conservação de dados pessoais coletados, pelo ente público, por trinta dias após a decretação do fim da situação de emergência de saúde pública, tempo manifestamente excedente ao estritamente necessário para o atendimento da sua finalidade declarada. 8. Agrava a ausência de garantias de tratamento adequado e seguro dos dados compartilhados a circunstância de que, embora aprovada, ainda não vigora a Lei Geral de Proteção de Dados Pessoais (Lei nº 13.709/2018), definidora dos critérios para a responsabilização dos agentes por eventuais danos ocorridos em virtude do tratamento de dados pessoais. O fragilizado ambiente protetivo impõe cuidadoso escrutínio sobre medidas como a implementada na MP nº 954/2020. 9. O cenário de urgência decorrente da crise sanitária deflagrada pela pandemia global da COVID-19 e a necessidade de formulação de políticas públicas que demandam dados específicos para o desenho dos diversos quadros de enfrentamento não podem ser invocadas como pretextos para justificar investidas visando ao enfraquecimento de direitos e atropelo de garantias fundamentais consagradas na Constituição. 10. Fumus boni juris e periculum in mora demonstrados. Deferimento da medida cautelar para suspender a eficácia da Medida Provisória nº 954/2020, a fim de prevenir danos irreparáveis à intimidade e ao sigilo da vida privada de mais de uma centena de milhão de usuários dos serviços de telefonia fixa e móvel. 11. Medida cautelar referendada. (ADI 6387 MC-Ref, Relator(a): ROSA WEBER, Tribunal Pleno, julgado em 07/05/2020, PROCESSO ELETRÔNICO DJe-270  DIVULG 11-11-2020  PUBLIC 12-11-2020) 5 SARLET, Ingo Wolfgang; A EC 115/22 e a proteção de dados pessoais como Direito Fundamental I. In Consultor Jurídico [Direitos Fundamentais]. Publicado em 11 de março de 2022. Acesso em 05 de Agosto de 2022. 6 CANOTILHO, José Joaquim Gomes. Direito constitucional e teoria da constituição. 4º ed. Coimbra: Almedina, p. 373 7 BOBBIO, Norberto. O Positivismo Jurídico: Lições de Filosofia do Direito. Coleção Elementos do Direito. São Paulo, Ícone: 2006. 8 Trata-se de um poder que cada cidadão tem sobre seus próprios dados pessoais sendo uma forma de garantir o controle sobre as próprias, permitindo o domínio sobre os dados pessoais e consequentemente implicando que o seu uso e tratamento sejam legítimos. É um dos fundamentos que norteiam a LGPD e constitui-se em uma faculdade pessoal garantida a todos para o exercício de controle da coleta, uso, tratamento e transferência desses dados por e a terceiros. 9 Artigo 4º. Do Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) 10 Artigo 9º. Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) 11 PEROLI, Kelvin. O que são dados pessoais sensíveis?  Instituto Avançado de Proteção de Dados - IAPD. Disponível aqui. 12 QUINTILIANO, Leonardo David. A proteção de dados pessoais como direito fundamental - (ir)relevância da PEC 17/2019?  Disponível aqui.
Introdução A LGPD não trouxe previsão expressa do direito à desindexação dentre os direitos assegurados aos titulares de dados nos artigos 17 a 22 da lei, no entanto, não se deve olvidar que este é um rol exemplificativo na medida em que a proteção de dados pessoais é um direito fundamental e integra o rol dos direitos de personalidade. Assim, o próprio art. 5º da CF/88 traz a possibilidade de outros direitos e garantias fundamentais previstos em Tratados Internacionais dos quais o Brasil seja signatário (cláusula geral de reenvio prevista no § 3º). Semelhantemente, o Código Civil menciona alguns direitos de personalidade de forma exemplificativa1 (arts. 11 a 21 do CC/02), pois a tutela privada dos direitos de personalidade impõe uma releitura dos fundamentos do Direito Privado, como alertava Orlando Gomes2. Neste sentido, Pietro Perlingieri3 afirma que o fundamento da tutela dos direitos de personalidade é único, porém as manifestações da personalidade humana são múltiplas e não se pode identificar todas estas variedades a priori.  1 Conceito e limites do direito à desindexação Pizzetti Franco4 define o direito à indexação como: "o direito de não ver facilmente encontrada uma notícia que não seja mais atual. O efeito principal da indexação e difusão da notícia por meio das ferramentas de busca é, de fato, colaborar de maneira contínua para a atualidade das informações e criar um perfil da pessoa a que se referem". Para se compreender o direito à desindexação, deve-se recordar que as ferramentas de busca coletam informações a partir dos parâmetros indicados pelos usuários, classificando-as a partir de algoritmos de relevância da informação, restando claro que estas ferramentas realizam tratamento de dados pessoais. Portanto, surge a questão sobre as hipóteses legais para sustentar esse tratamento de dados. No art. 7º da LGPD, constatam-se as hipóteses para tratamento de dados pessoais, quais sejam: o consentimento do titular de dados; cumprimento de obrigação legal ou regulatória;  pela administração pública, quando necessário à execução de políticas públicas; para a realização de estudos por órgão de pesquisa (garantida a anonimização sempre que possível); para a execução de contrato ou de procedimentos preliminares; para exercício regular de direito em processo judicial, administrativo ou arbitral; para a proteção da vida ou da incolumidade física do titular ou de terceiros; para a tutela da saúde; para atender interesses legítimos dos agentes de tratamento ou de terceiros; e para a proteção do crédito, conforme a Lei do Cadastro Positivo (lei 12.414/2011). O art. 11 da LGPD, por sua vez, estabelece as bases para o tratamento de dados pessoais sensíveis,5 a saber: consentimento; cumprimento de obrigação legal ou regulatória; pela administração pública quando necessário à execução de políticas públicas; para a realização de estudos por órgão de pesquisa (garantida a anonimização sempre que possível); exercício regular de direito; obrigação legal ou regulatória; para a proteção da vida ou da incolumidade física do titular ou de terceiro; - para a tutela da saúde; e para a prevenção à fraude e à segurança do titular de dados. Percebe-se que, embora semelhantes, as hipóteses para o tratamento de dados pessoais sensíveis são mais restritivas, não se admitindo para a execução de contrato ou de procedimentos preliminares, para atender aos interesses legítimos dos agentes de tratamento de dados e para proteção do crédito. Desta forma, a indexação somente pode se sustentar se estiver embasada em uma das hipóteses autorizadoras para o tratamento de dados pessoais acima elencadas. Uma das hipóteses é o consentimento. Muito embora não seja esta a única base para o tratamento de dados pessoais, é inegável a relevância desta hipótese legal para que o tratamento de dados seja realizado. Portanto, quando a indexação estiver embasada apenas no consentimento6, a LGPD garante ao titular de dados pessoais o direito de revogar o consentimento (art. 18, inc. IX da lei). Neste sentido, pode-se afirmar que o direito à desindexação é um direito que decorre do sistema de proteção dos dados pessoais, segundo o qual o titular dos dados pode se opor ao tratamento de dados realizado sem uma base legal que o sustente ou quando o titular de dados se oponha, revogando o consentimento manifestado de forma expressa ou inequívoca. Quanto aos limites do direito à desindexação, deve-se atentar às circunstâncias legais que autorizam o tratamento de dados pessoais, independentemente do consentimento do titular de dados. Portanto, nestas hipóteses, não caberá o direito à desindexação, pois existe um fundamento legal, que deve ser demonstrado pelo agente de tratamento de dados em função do princípio da responsabilidade e prestação de contas (accountability) nos termos do inc. X do art. 6º da LGPD. Fundamento legal do direito à desindexação em uma perspectiva civil-constitucional O direito à desindexação está intimamente ligado à autodeterminação informativa, entendida como o direito subjetivo da pessoa de poder controlar o acesso, o fluxo e o compartilhamento de suas informações pessoais, o direito à proteção de dados deve ser visto como um direito fundamental. Os desafios para a concretude deste direito no contexto das novas tecnologias, cuja capacidade de armazenamento e a perenização da informação são facilmente alcançadas, são muitos. Segundo a opinião de Viktor Mayer-Shönberger7, a "Internet precisa nos permitir esquecer". Porém, destaca o autor, que, no caso González vs. Google Spain, a informação já estava ultrapassada e era irrelevante, portanto, não era necessária a sua preservação. Viktor destaca que não resgatar eventos e notícias descontextualizadas e desatualizadas é fundamental para a evolução do ser humano e o perdão. Cumpre destacar este o direito à desindexação é próprio ao sistema de informação, pois implica na coleta, seleção e organização de dados pessoais a partir dos parâmetros de busca definidos por algoritmos. Neste sentido, Jonathan Zittrain8 entende que, na verdade, o direito que se pretende é que a sua vida não seja apresentada por uma máquina sem que haja revisão, e de maneira tão trivial, basta digitar uma palavra de busca e um clique. Segundo o autor, este direito é legítimo. E a solução mais eficaz está na arquitetura da rede, disseminando ferramentas tecnológicas que subordinam a acessibilidade de determinado dado a um lapso temporal. Portanto, o direito à desindexação tem fundamento na própria Constituição Federal, art. 1o, inc. III (dignidade da pessoa humana), além do art. 12 do Código Civil quanto à tutela privada dos direitos de personalidade. A própria Constituição Federal, §1º do art. 2209, estipula fatores que relativizam a liberdade de informação e de expressão como a proteção dos direitos da personalidade, pois cediço que nenhum direito é absoluto.  Por isso, um site de ferramenta de busca e indexação na Internet pode ser obrigado a estabelecer ferramentas de filtros para que determinado conteúdo não seja mais indexado conforme um determinado parâmetro de busca, sem, contudo, removê-la do provedor de conteúdo, da fonte primária, o que caracterizaria o direito à desindexação. Por ser o principal prejudicado, o titular do exercício do direito à desindexação, como um direito de personalidade, é a própria pessoa, detentora de suas informações pessoais veiculadas, processadas e transmitidas. Em contrapartida, excepcionalmente, a pretensão poderá ser exercida por seus sucessores nos termos do parágrafo único do art. 12 do Código Civil brasileiro, que confere tal legitimidade para a tutela dos direitos da personalidade. Conclusão: o fundamento do direito à desindexação na Lei Geral de Proteção de Dados (LGPD) Além disso, o fundamento legal para o direito à desindexação depende da hipótese em questão. Se o tratamento tiver sido realizado com base nas hipóteses legais para tal atividade, exceto o consentimento, a LGPD possibilita o direito à desindexação por meio da oposição facultada aos titulares de dados nos termos do art. 18, § 2o: "O titular pode opor-se a tratamento realizado com fundamento em uma das hipóteses de dispensa de consentimento, em caso de descumprimento ao disposto nesta Lei". A parte final deste dispositivo legal ("em caso de descumprimento ao dispositivo da Lei") foi acrescentada na discussão do texto da lei no Congresso Nacional. Desta forma, o legislador deixa clara a possibilidade de se opor ao tratamento de dados pessoais, que pode ser à indexação, quando o agente de tratamento de dados não demonstrar nenhuma hipótese legal para o tratamento de dados pessoais, fato que demonstraria um descumprimento à LGPD. O outro fundamento legal para o direito à desindexação é a possibilidade de revogação do consentimento pelo titular de dados pessoais prevista no inc. IX do art. 18 da LGPD. Em outras palavras, quando a indexação estiver fundamentada no consentimento expresso ou inequívoco do titular, este poderá exercer o direito à desindexação revogando o consentimento.10 __________ 1 De acordo com Gustavo Tepedino: "Deverá o interprete romper com a ótica tipificadora seguida pelo Código Civil, ampliando a tutela da pessoa não apenas no sentido de admitir um aumento das hipóteses de ressarcimento, mas, de maneira muito ampla, no intuito de promover a tutela da personalidade mesmo fora do rol de direitos subjetivos previstos pelo legislador codificador". TEPEDINO, Gustavo. Cidadania e os direitos da personalidade. In: Revista da Escola Superior da Magistratura de Sergipe. Aracaju, n. 3, 2002, p.4. 2 Introdução ao Direito Civil. 18 ed. Rio de Janeiro: Forense, 2001. p. 150. 3 Manuale di Diritto Civile. 6. ed. Napoli: Edizioni Scientifiche Italiane, 2007. p. 149. 4 Le Autorità Garanti per la Protezione dei Dati Personali e la Sentenza della Corte di Giustizia sul Caso Google Spain: è Tempo di Far Cadere il "Velo di Maya". In: Il Diritto dell'informazione e dell'informatica, 2014, fasc. 4-5, Giuffrè, pp. 805 - 829. p. 808: "[...] il diritto a non vedere facilmente trovata una notizia non più attuale. L'effetto principale della indicizzazione e diffusione delle notizie attraverso il motore di ricerca è infatti quello di concorrere in modo contino a riattualizzare tutte le informazioni, facendole diventare tutte elementi del profilo in atto della persona a cui si riferiscono." 5 Dados pessoais sensíveis são definidos no inc. II do art. 5º da LGPD, a saber: "dado pessoal sobre origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual, dado genético ou biométrico, quando vinculado a uma pessoa natural". 6 Que pode ser expresso ou inequívoco conforme estabelece o inc. XII do art. 5º da LGPD e o caput do art. 8º da LGPD. Cf. LIMA, Cíntia Rosa Pereira de. Consentimento inequívoco versus expresso: o que muda com a LGPD? In: Revista do Advogado, ano XXXIX, n. 144, pp. 60 - 66. São Paulo: AASP, 2019. 7 Entrevista pulicada no Estadao.com.br, Cultura Digital, em 08/06/2014. 8 Opinion In New York Times. Disponível em aqui, Don't Force Google to 'Forget', acesso em 15 de mar. 2021. 9 Art. 220. A manifestação do pensamento, a criação, a expressão e a informação, sob qualquer forma, processo ou veículo não sofrerão qualquer restrição, observado o disposto nesta Constituição. § 1º Nenhuma lei conterá dispositivo que possa constituir embaraço à plena liberdade de informação jornalística em qualquer veículo de comunicação social, observado o disposto no art. 5º, IV, V, X, XIII e XIV. 10 Para o estudo mais aprofundado sobre o tema, vide: LIMA, Cíntia Rosa Pereira de. O direito à desindexação em uma perspectiva civil-constitucional. In: SARLET, Gabrielle Bezerra Sales; TRINDADE, Manoel Gustavo Neubarth; MELGARÉ, Plínio. Proteção de Dados: temas controvertidos. Indaiatuba: Foco, 2021.
Na disciplina da LGPD, o tratamento de dados pessoais só pode ocorrer se estiver fundamentado em uma base legal. Desse modo, para a operacionalização de sistemas de Inteligência Artificial que envolva o tratamento de dados pessoais, a atuação do Poder Público precisará estar respaldada em uma das hipóteses autorizativas previstas nos artigos 7º e 11 da lei 13.709/2018. Deve-se buscar, em cada caso concreto, a base legal mais adequada e segura para a finalidade pretendida, com a apresentação das justificativas pertinentes pela Administração Pública, sendo certo, inclusive, que o consentimento do titular poderá ser dispensado, nos termos analisados na Parte I deste ensaio. Se é exato que a disciplina da Lei Geral de Proteção de Dados Pessoais não pode ser interpretada de forma tão estrita que paralise ou impeça a atuação estatal, também é verdade que não há um "salvo-conduto" para o desrespeito ao direito à proteção dos dados pessoais. A via hermenêutica a ser seguida deve ser, sempre, a de viabilizar a atividade pública, mas com balizamentos jurídicos fundamentais que vão moldar a atuação do agente de tratamento. Na conformação do agir administrativo pela disciplina da LGPD, portanto, destacam-se os princípios contemplados em seu artigo 6º. De acordo com tal dispositivo, o tratamento de dados pessoais deve ser realizado para finalidade legítima, específica, explícita e devidamente informada, sem possibilidade de tratamento posterior de modo conflitante com esse objetivo (princípio da finalidade). Faz-se mister que a operação prevista seja compatível com o propósito aventado e que o procedimento ocorra sem excessos, na exata medida para se alcançar tal fim. Com efeito, o tratamento de dados pessoais deve ocorrer conforme sua razão justificadora e no limite desse escopo, encerrando-se a operação tão logo haja seu cumprimento (princípios da adequação e da necessidade).1 Assegura-se ao titular acesso facilitado e gratuito à forma, à duração do tratamento e à integralidade dos dados pessoais (princípio do livre acesso). Os dados devem estar corretos, claros, atualizados e se afigurarem relevantes para o atendimento do objetivo da operação (princípio da qualidade dos dados). São garantidas ao titular informações claras, precisas e facilmente acessíveis a respeito dos tratamentos realizados e dos agentes que os promovem, respeitados os segredos comercial e industrial (princípio da transparência). A operação deve ser efetuada de acordo com medidas técnicas e administrativas seguras (princípio da segurança). Demanda-se a adoção de providências que evitem a ocorrência de danos, determinando-se aos agentes de tratamento a demonstração do implemento das normas de proteção e da eficácia das medidas cumpridas (princípios da prevenção e da responsabilização e prestação de contas). O tratamento não pode se dar para fins discriminatórios ilícitos ou abusivos (princípio da não discriminação). Além disso, com relação aos dados de crianças e adolescentes, deverá ser observado, pelo Poder Público, o princípio do melhor interesse (art. 14, caput, LGPD), que é consectário da doutrina da proteção integral (art. 227, CRFB). Cuida-se de salvaguardar os direitos fundamentais desses sujeitos vulneráveis, independentemente de qual seja a base legal de tratamento. Outra disposição a ser considerada diz respeito ao artigo 23 da lei 13.709/2018. Isso porque as bases legais elencadas nos artigos 7º e 11 devem ser lidas em conjunto com a previsão do artigo 23 da LGPD. A norma exige que o tratamento de dados pessoais atenda a uma finalidade pública e que sejam observadas as competências legais dos órgãos administrativos. Demanda, ademais, a observância do dever de publicidade por parte do Poder Público, informando, de modo claro e atualizado, em veículo de fácil acesso, preferencialmente por meio de seus sítios eletrônicos, a respeito dos tratamentos realizados. Prevê, ainda, a indicação de encarregado, que atuará como canal de comunicação entre o controlador, os titulares dos dados e a Autoridade Nacional de Proteção de Dados (art. 5º, VIII, LGPD). Também se mostra importante a elaboração de relatórios de impacto à proteção de dados pessoais, descrevendo os processos que podem gerar riscos às liberdades civis e aos direitos fundamentais e as providências que visam a mitigar os riscos envolvidos (art. 5º, XVII, LGPD). Nessa toada, "eventuais riscos à proteção de dados pessoais" devem ser levados em consideração "tanto nos relatórios de impacto de proteção de dados (RIPDs)" previstos na lei 13.709/2018 "quanto nas Avaliações de Impacto Algorítmico (AIA)", de modo a integrar o mapeamento de riscos da contratação pública de Inteligência Artificial.2 A perspectiva deve ser, portanto, a de enfoque na adoção de medidas capazes de antecipar e mitigar riscos, indo além de uma ótica tradicional que trata exclusivamente da reparação pecuniária de eventuais danos já causados. Com efeito, deve ser perseguida a tutela efetiva do direito à proteção dos dados pessoais e, consequentemente, do princípio da dignidade da pessoa humana, alicerce do sistema jurídico. Cabe observar que a LGPD prevê, na Seção "Da Responsabilidade" do Capítulo destinado ao "Tratamento de Dados Pessoais pelo Poder Público" (Seção II do Capítulo IV), contornos próprios para a atuação da Autoridade Nacional de Proteção de Dados nessa seara.3 É atribuída competência à ANPD para sugerir, ao Poder Público, a adoção de padrões e de boas práticas, para solicitar a publicação de relatórios de impacto à proteção de dados pessoais e para enviar informe com providências cabíveis para pôr fim a uma eventual violação (arts. 31 e 32). De outra parte, é certo que devem ser assegurados os direitos do titular previstos na LGPD (Capítulo III). Tratando-se de decisões automatizadas, põe-se em relevo o debate sobre o direito à explicação e o direito à revisão de tais decisões.  O artigo 20, caput, da lei 13.709/2018, prevê que o "titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade". O § 1º do mesmo dispositivo estabelece que "o controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial". No caso de recusa do fornecimento da informação com fundamento nos segredos comercial e industrial, a autoridade nacional poderá, nos termos do § 2º do artigo 20, "realizar auditoria para verificação de aspectos discriminatórios" no "tratamento automatizado de dados pessoais". A questão mais controvertida diz respeito a se haveria exigência de revisão humana ou se a revisão poderia ser feita por outra decisão automatizada. A redação original da LGPD continha a previsão do direito do titular de solicitar a revisão por pessoa natural, o que, todavia, foi excluído pela Medida Provisória 869/2018.  Com a conversão da Medida Provisória nº 869/2018 na lei 13.853/2019, pretendeu-se estipular, no § 3º do artigo 20, que a revisão deveria ser realizada por pessoa natural, conforme previsto em regulamentação da autoridade nacional, que levaria em consideração a natureza e o porte da entidade ou o volume de operações de tratamento de dados. O dispositivo foi, todavia, objeto de veto presidencial. A redação vigente da Lei Geral de Proteção de Dados Pessoais não contempla, portanto, previsão expressa a respeito da revisão humana de decisões automatizadas. A exclusão operada pela Medida Provisória 869/2018, convertida na Lei nº 13.853/2019, tem gerado interpretações distintas na doutrina, havendo quem sustente, por exemplo, que, "mesmo com a Lei 13.853/2019, poder-se-ia inferir, a partir da principiologia da Lei, que a intervenção humana continua a ser uma exigência em alguma fase do processo de contestação da decisão automatizada, ainda que não no primeiro pedido de revisão".4 A esse respeito, foi observado, na Estratégia Brasileira de Inteligência Artificial (EBIA), que, "nos casos em que a avaliação de risco de decisões automatizadas indica um alto risco para os indivíduos, a intervenção humana pode ser um importante fator de mitigação do risco a ser considerado pelas organizações privadas e pelo setor público". Constou, então, como uma das ações estratégicas a serem implementadas, a criação de "parâmetros sobre a intervenção humana em contextos de IA em que o resultado de uma decisão automatizada implica um alto risco de dano para o indivíduo".  Trata-se de tema ainda em construção, que certamente suscitará maiores debates doutrinários e jurisprudenciais, e demandará conformação pela Autoridade Nacional de Proteção de Dados, cabendo ao agente de tratamento acompanhar sua evolução e zelar pela atuação (sempre) em conformidade com a ordem jurídica. Por fim, cabe ressalvar os casos de tratamento de dados pessoais para fins exclusivos de segurança pública, defesa nacional, segurança do Estado e atividades de investigação e repressão de infrações penais. A ANPD afirma, em seu "Guia Orientativo sobre Tratamento de Dados Pessoais pelo Poder Público", que o inciso III do artigo 4º da lei 13.709/2018 "excepciona parcialmente a aplicação da LGPD" a tais operações. O Enunciado nº 678 da IX Jornada de Direito Civil consigna que se aplicam, aos tratamentos de dados pessoais realizados para tais fins exclusivos, "o devido processo legal, os princípios gerais de proteção e os direitos do titular previstos na LGPD, sem prejuízo de edição de legislação específica futura". A Estratégia Brasileira de Inteligência Artificial (EBIA) aduz que, "enquanto uma lei específica sobre o tema não existe, aplica-se a LGPD ainda que de forma limitada". Desse modo, "a criação e o uso de bancos de dados de segurança pública integrados a sistemas de IA devem observar o devido processo legal, os princípios gerais de proteção de dados pessoais e os direitos dos titulares de dados, conforme o art. 4º, §1º, da LGPD". Diante do exposto nas Partes I e II deste trabalho, vê-se que o tratamento de dados pessoais pelo Poder Público no bojo da operacionalização de sistemas de Inteligência Artificial envolve tanto a apreensão da finalidade pública da atividade quanto a consideração da natureza pessoal da informação. Não se pode descurar, assim, da dimensão (não já unilateral, mas) relacional do tema, demandando-se o balanceamento entre os diversos interesses incidentes em cada caso concreto.5 Por um lado, é certo que a interpretação da disciplina da Lei Geral de Proteção de Dados Pessoais não pode ser tão ferrenha a ponto de paralisar ou impedir a aplicação da Inteligência Artificial no setor público. Por outro lado, também é verdade que não se pode descurar do respeito ao direito fundamental à proteção dos dados pessoais. Não há como se conceber um "cheque em branco" ao agente para adotar a qualquer custo e sem qualquer balizamento jurídico tecnologias de Inteligência Artificial. Todavia, também não podem ser construídas amarras excessivas que impeçam a inovação no setor público, sob pena de prejuízo, em última análise, à efetivação dos direitos que assistem aos próprios cidadãos. A inovação, aliás, constitui um dos fundamentos da disciplina de proteção dos dados pessoais, como prevê o artigo 2º, V, da LGPD.  Assim, o caminho hermenêutico a ser trilhado deve ser o de viabilização da atividade pública, ao mesmo tempo em que se impõe uma conformação da atuação administrativa às regras de proteção de dados pessoais. Nesta perspectiva, desponta a superação da fantasiosa dicotomia entre direito público e direito privado, bem como da divisão estanque forjada entre os temas da Inteligência Artificial e da Proteção de Dados Pessoais. Na interseção entre todos esses campos, está o mesmo ponto de chegada: a construção da solução que melhor realize a escala axiológica constitucional. __________ 1 PERLINGIERI, Pietro. La pubblica amministrazione e la tutela della privacy. In: PERLINGIERI, Pietro. La persona e i suoi diritti: problemi del diritto civile. Napoli: Edizioni Scientifiche Italiane, 2005, p. 259. 2 FÓRUM ECONÔMICO MUNDIAL, C4IR Brasil. Guia de Contratações Públicas de Inteligência Artificial, 2022, p. 41. Disponível aqui. 3 Ilustre-se com a recente manifestação da ANPD sobre a divulgação dos microdados do Enem e do Censo Escolar pelo INEP. 4 BIONI, Bruno R.; MENDES, Laura Schertel. Regulamento Europeu de Proteção de Dados Pessoais e a Lei Geral Brasileira de Proteção de Dados: mapeando convergências na direção de um nível de equivalência. In: TEPEDINO, Gustavo; FRAZÃO, Ana; OLIVA, Milena Donato (coords.). Lei Geral de Proteção de Dados Pessoais e suas repercussões no direito brasileiro. 2. ed. São Paulo: Thomson Reuters Brasil, 2020, p. 803, E-book. 5 PERLINGIERI, Pietro, op. cit., p. 259.
Os Direitos da Personalidade são projeções do ser humano que, amparados no valor fundamental deste e no princípio maior da dignidade da pessoa humana, concedem a uma pessoa, por meio do ordenamento jurídico, a possibilidade de fruir e dispor dos atributos essenciais da sua própria personalidade.1 Em outras palavras, tais direitos irradiam do próprio ser humano, para que ele possa ser efetivamente o que é, sobreviver e se adaptar.2 A partir deste enunciado e da noção de atipicidade dos direitos privados de personalidade, cuja caracterização está intrinsicamente ligada ao desenvolvimento humano, deve-se destacar que a acepção do direito ao esquecimento na chamada era digital, ainda que não esteja limitado a esta, tem contornos ainda mais relevantes que sustentam sua caracterização como direito de personalidade autônomo. O primeiro grande desafio é construir um conceito do que vem a ser o direito ao esquecimento, podendo ser compreendido como um direito de personalidade autônomo por meio do qual o indivíduo, a fim de não ser estigmatizado como o ser humano em determinado momento de sua vida, pode pedir para excluir ou deletar as informações a seu respeito, ou mesmo impedir a propagação e divulgação de determinado conteúdo que lhe diga respeito, notadamente quando tenha passado um lapso temporal considerável desde a sua coleta e utilização ou sua ocorrência, e desde que tais informações não tenham mais utilidade ou não interfiram no direito de liberdade de expressão, científica, artística, literária e jornalística.3 Portanto, o conteúdo do direito ao esquecimento resulta de um sopesamento de princípios. Diante dessa perspectiva dinâmica que caracteriza este direito, além de considerar este mesmo pressuposto para a sociedade informacional, por ser necessária uma análise casuística e de ponderação deste com os demais direitos da personalidade e de garantias fundamentais, questiona-se a efetividade de um tema de repercussão geral, como o Tema 786 julgado pelo STF como Recurso Especial 1010606, cujo relator é o Ministro Dias Toffoli, já que fica clara a impossibilidade de estabelecer um precedente que possa ser aplicado universalmente a todos os casos. O que já foi objeto de reflexão desta coluna por Cíntia Rosa Pereira de Lima e Guilherme Magalhães Martins.4 Nota-se que tal observação consta da emenda do recurso citado, in verbis: "É incompatível com a Constituição a ideia de um direito ao esquecimento, assim entendido como o poder de obstar, em razão da passagem do tempo, a divulgação de fatos ou dados verídicos e licitamente obtidos e publicados em meios de comunicação social analógicos ou digitais. Eventuais excessos ou abusos no exercício da liberdade de expressão e de informação devem ser analisados caso a caso, a partir dos parâmetros constitucionais - especialmente os relativos à proteção da honra, da imagem, da privacidade e da personalidade em geral - e das expressas e específicas previsões legais nos âmbitos penal e cível". (RE 1010606, Relator(a): DIAS TOFFOLI, Tribunal Pleno, julgado em 11/02/2021, PROCESSO ELETRÔNICO REPERCUSSÃO GERAL - MÉRITO DJe-096  DIVULG 19-05-2021  PUBLIC 20-05-2021).5 Entretanto, no próprio julgado ficou evidente que deve ser feita análise casuística para coibir "eventuais abusos". Portanto, diante do dinamismo do direito ao esquecimento, e da sociedade informacional como um todo, a conceitualização do tema, e a maneira pela qual este será regulamentado pelo ordenamento jurídico ainda é uma incógnita, pois este direito necessita de uma vagueza semântica proposital. Nesse sentido, deve-se destacar que o Regulamento Geral Europeu sobre Proteção de Dados Pessoais (GDPR) garante este direito, no art. 17,6 sendo entendido como: "the right of individuals to have their data no longer processed and deleted when they are no longer needed for legitimate purposes".7 Para uma análise aprofundada sobre o tema, sugere-se outro texto já publicado nesta coluna de autoria da professora Maria Cristina De Cicco.8 Embora possua enorme relevância no contexto geral, isso porque não existia até então uma conceitualização legal para o direito ao esquecimento, e também pela necessidade da criação de um consenso entre os Estados sobre o que pode ser reproduzido na internet, para facilitar a tutela desse direito9, o termo ainda é muito discutido e criticado. Dessa forma, mesmo sendo um conceito criado propositalmente de forma vaga, para que pudesse acompanhar o dinamismo do constante desenvolvimento tecnológico, ainda esbarra em outros direitos como a liberdade de expressão e o direito à informação, criando a necessidade de análise caso a caso para sua implementação, além de demonstrar que a discussão desse direito não se enquadra como um tema novo, embora atual. Neste sentido, importantes as reflexões de João Alexandre Silva Alves Guimarães.10 Outra importante distinção, embora ignorada no julgado em questão, é a do direito ao esquecimento e direito à desindexação. Isso porque, mesmo que inicialmente tratado como um direito integrado a outros direitos, como a indexação, o direito à privacidade e a intimidade, o Direito ao Esquecimento é um direito autônomo, embora possa ser instrumentalizado pelos demais. Dessa forma, um dos casos mais importantes sobre o tema da desindexação, que trouxe notoriedade a discussão do tema no contexto online, é o caso González vs. Google Spain, que se originou na Espanha, em 24 de maio de 2007, quando um cidadão espanhol solicitou a desindexação de informações relativas ao fato de ter sido processado por débitos devidos à Seguridade Social. Durante a execução fiscal, o espanhol teve alguns imóveis vendidos publicamente, o que culminou na publicação da notícia por um grande veículo de comunicação na Espanha. Ademais, embora o fato tivesse ocorrido há mais de dez anos, o espanhol foi surpreendido com a indexação desta notícia pelo crawler da ferramenta de busca Google. Sendo assim, foi solicitada a desindexação da informação do site de busca, mesmo que a informação veiculada seja verdadeira, isso porque o tempo transcorrido à tornava irrelevante. Por conseguinte, esse caso deve ser considerado um marco no processo de reconhecimento do direito ao esquecimento, pois, embora tenha tratado do direito à desindexação, este além de ser, por muito tempo, considerado análogo ao direito ao esquecimento, exerce uma função instrumentalizadora do primeiro. Além disso, o Tribunal europeu interpretou, a partir da Diretiva 95/46/CE, que as ferramentas de busca realizam o tratamento de dados pessoais, pois esses dados inseridos na rede mundial de computadores são coletados, armazenados e disponibilizados aos usuários11 segundo uma ordem de classificação imposta pelo crawler. Sendo assim, o direito à desindexação dessa informação decorre do sistema de proteção de dados, já que o titular desses dados deve consentir com o tratamento de informações que lhe corresponda, discussão de alta valia na sociedade informacional, e para a tutela do direito ao esquecimento online. Como já afirmamos em outra ocasião nesta coluna, a "desindexação envolve a possibilidade de se se pleitear a retirada de certos resultados (conteúdos ou páginas) relativos a uma pessoa específica de determinada pesquisa, em razão de o conteúdo apresentado ser prejudicial ao seu convívio em sociedade, expor fato ou característica que não mais se coaduna com a identidade construída com a pessoa ou apresente informação equivocada ou inverídica."12 Consequentemente, embora existam correntes contrárias ao direito ao esquecimento, demonstrado pelos argumentos utilizados pela maioria dos ministros no Recurso Extraordinário 1010606, como por exemplo a fala do Ministro Ricardo Lewandowski, "A humanidade, ainda que queira suprimir o passado, ainda é obrigada a revivê-lo,"13 quando este afirma que o direito ao esquecimento só poderia ser aplicado a partir de uma ponderação de valores, que pese os direitos fundamentais da liberdade de expressão e os direitos da personalidade, acaba por abrir importante brecha ao reconhecimento tanto do direito ao esquecimento quanto ao direito à desindexação. Outrossim, a principal consequência da aplicação do direito ao esquecimento não resulta na supressão da liberdade de expressão e na liberdade jornalística de veicular fatos históricos e de notoriedade social, mas sim na dignidade da pessoa humana e na sua possibilidade de desenvolvimento pessoal, quando dá respaldo a exclusão de fatos que digam respeito a vida privada do indivíduo para que a sociedade não os eternize. Uma decisão contrária a tal argumento se choca com todo o ordenamento jurídico que prioriza o bem-estar do indivíduo em sua esfera privada, além de minimizar sua relevância para a sociedade e para o tratamento de dados, quando resume sua supressão a necessidade de reparação de danos. Sendo assim, o Recurso Extraordinário 1010606 julgado pelo Supremo Tribunal Federal, no qual não foi reconhecido o direito ao esquecimento de forma ampla e irrestrita, pois esse significaria um corte a liberdade de imprensa pela relevância do caso: familiares da vítima de um crime de grande repercussão nos anos 1950 no Rio de Janeiro buscavam reparação pela reconstituição do caso por um programa televisivo, sem a sua autorização, mesmo após um significativo tempo ter transcorrido entre o fato criminoso e o programa televisivo. Entretanto, as opiniões não foram uníssonas e não descartaram a possibilidade de ser reconhecer o direito ao esquecimento em determinado caso concreto. Assim, para o presidente do STF, ministro Luiz Fux, o direito ao esquecimento é uma decorrência lógica do princípio da dignidade da pessoa humana, e "quando há confronto entre valores constitucionais, é preciso eleger a prevalência de um deles."14 Para o ministro, esse direito pode ser aplicado, porém, no caso em questão, por possuir grande notoriedade e por ser de domínio público, não poderia sofrer essa censura simplesmente pelo decorrer do tempo, o que abre diversas lacunas que, mesmo também deixadas pela LGPD, não impedem o reconhecimento do direito ao esquecimento como um direito de personalidade autônomo, aplicado as exceções casuísticas citadas pelos ministros no acórdão, que deverão sempre ter como norte o princípio mor estabelecido pelo art. 1º, inciso III da Constituição Federal e art. 12 do Código Civil. Sendo assim, o Supremo Tribunal Federal fala em exceções para a aplicação do direito ao esquecimento, e não sua total anulação, não sendo essa discrepância uma contradição em si mesma, já que é possível verificar que, na colisão de direitos mencionada, é necessário a análise das peculiaridades de cada caso. Por fim, um ponto não enfrentado nessa questão é como a Lei Geral de Proteção de Dados Pessoais, interpretada à luz dos referidos dispositivos da CF/88 e do CC/02, pode dar guarida seja ao direito à desindexação, além do direito ao esquecimento. Tema que será enfrentado com mais detalhes em outra oportunidade nesta coluna. __________ 1 LIMA, Cíntia Rosa Pereira de. Autoridade Nacional de Proteção de Dados e a Efetividade da Lei Geral de Proteção de Dados. Editora Almedina Brasil, SP abril, 2020, p. 84. 2 DINIZ, Maria Helena. Curso de Direito Civil Brasileiro, 13 ed. São Paulo: Saraiva,1997. P. 99. 3 LIMA, Cíntia Rosa Pereira de. Direito ao esquecimento e internet: o fundamento legal no Direito Comunitário Europeu, no Direito Italiano e no Direito Brasileiro. In: CLÊVE, Clêmerson Merlin; BARROSO, Luis Roberto. Coleção Doutrinas Essenciais em Direito Constitucional: direitos e garantias fundamentais, volume VIII, São Paulo, Revista dos Tribunais, 2015, p. 511 - 544. 4 A figura caleidoscópica do direito ao esquecimento e a (in)utilidade de um tema em repercussão geral. Migalhas de Proteção de Dados. 29 de setembro de 2020. Disponível aqui. Acesso em: 16/08/2022. 5 BRASIL, Supremo Tribunal Federal (Plenário), Recurso extraordinário com repercussão geral 1.010.606/RJ. "Aplicabilidade do direito ao esquecimento na esfera civil quando for invocado pela própria vítima ou pelos seus familiares", Relator Min. Dias Toffoli, julgamento: 11/02/2021. Publicação: 20/05/2021. Jurisprudência do Supremo Tribunal Federal. Brasília, DF: Supremo Tribunal Federal. Disponível aqui. Acesso em: 03/06/2021. 6 LIMA, Cíntia Rosa Pereira de. Direito ao Esquecimento e Marco Civil da Internet: o fundamento legal no Direito brasileiro do direito ao esquecimento. Direito ao Esquecimento e Marco Civil da Internet: O fundamento legal no direito brasileiro do direito ao esquecimento. 2014. Disponível aqui. Acesso em: 02/03/2021. 7 EUROPEAN COMMISSION. General Data Protection Regulation, 2016. On the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC. Disponível aqui. Acesso em: 22/03/2021. 8 Esquecer, contextualizar, desindexar e cancelar. O que resta do direito ao esquecimento. In: Migalhas de Proteção de Dados. 23 de abril de 2021. Disponível aqui. Acesso em: 17/08/2022. 9 LAUPMAN, Clarisse. MENDES, Thiago Alcantara. A Privacidade, o Esquecimento e a Fragmentação do Direito Internacional: Conexões Necessárias. O Direito na Sociedade da Informação V, Editora Almedina Brasil, SP abril, 2020. Pg. 35. 10 O direito ao esquecimento: a última chance de sermos nós mesmos? In: Migalhas de Proteção de Dados. 03 de setembro de 2021. Disponível aqui. Acesso em 17/08/2022. 11 LIMA, Cíntia Rosa Pereira de. Direito ao Esquecimento versus Direito à Desindexação. O Direito na Sociedade da Informação V, Editora Almedina Brasil, SP abril, 2020. Pg. 59. 12 LIMA, Cíntia Rosa Pereira de. MARTINS, Guilherme Magalhães. A figura caleidoscópica do direito ao esquecimento e a (in)utilidade de um tema em repercussão geral.  Migalhas, setembro, 2020. Disponível aqui. Acesso em: 03/06/2021. 13 LEWANDOWSKI, Ricardo. STF conclui que direito ao esquecimento é incompatível com a Constituição Federal. Portal do Supremo Tribunal Federal. Disponível aqui. Acesso em: 17/03/2021. 14 FUX, Luiz. STF conclui que direito ao esquecimento é incompatível com a Constituição Federal. Portal do Supremo Tribunal Federal. Disponível aqui. Acesso em: 17/03/2021.
A Sociedade da Informação O uso e a popularização da internet e das redes sociais influenciam e afetam as mais diversas áreas da vida presentes no nosso dia a dia. Atualmente, o trabalho, a saúde, a política, a educação, o lazer, o jornalismo e tantos outros âmbitos das estruturas sociais se encontram entremeados pela digitalização, sofrendo suas influências e alterando também o ambiente on-line em retorno. Em conjunto com isso, houve também a ascensão da telefonia móvel, que possibilitou o acesso à internet de maneira remota e portátil, facilitando a criação de uma cultura de interconexão e compartilhamento de ideais em tempo real, a todo momento emaranhados em teias coletivas de produção e troca incessantes. Portanto, a forma de conexão que temos atualmente é muito mais dinâmica e dialoga em muitos aspectos com as nossas novas relações sociais, novos padrões de comunicação e interação. Neste sentido, houve uma alteração no paradigma comunicacional, passamos de uma comunicação tradicional, em que poucos falavam em nome da grande mídia, para uma comunicação muitos-para-muitos1, em que o usuário é o principal difusor e produtor de conteúdo, mediado pelas plataformas, havendo, portanto, muitos emissores e muitos receptores de comunicação. Em paralelo a essa tendência de digitalização da vida, há um movimento de mercantilização dos dados, transformando a atenção e interação dos usuários em um modelo de negócios, de modo que quanto mais tempo um indivíduo gasta em uma determinada plataforma, e quanto maior o seu volume de interação neste ambiente, mais dados podem ser coletados a seu respeito. A propósito, o documentário The Social Dilemma (O Dilema das redes - em tradução livre), disponível na Netflix, retrata como é a engrenagem utilizada pelas grandes plataformas que "espia" os passos dos usuários enquanto navegam por horas nas redes sociais e quais são os mecanismos empregados para que os usuários fiquem cada vez mais conectados. O Mercado da Economia da Atenção A transformação de dados brutos disponibilizados pelos indivíduos em um fluxo de negócios altamente rentável é caracterizada por Shoshana Zuboff como "capitalismo de dados" ou até mesmo "capitalismo de vigilância". De acordo com a autora, "o capitalismo de vigilância reivindica de maneira unilateral a experiência humana como matéria-prima gratuita para a tradução em dados comportamentais"2. Sendo, portanto, os dados insumos para inúmeras atividades econômicas, tornando-se objetos de pujante e crescente mercado. Neste sentido, Newton De Lucca, afirma que "no corrente século XXI, tanto a terra, quanto a maquinaria, ficarão irreversivelmente para trás, passando os dados ao lugar de ativo principal do planeta, concentrando-se o esforço político no controle do fluxo desses dados".3 Na atual "sociedade informacional", verificamos que "a produtividade e a competitividade de unidades ou agentes dependem basicamente de sua capacidade de gerar, processar e aplicar de forma eficiente a informação baseada em conhecimentos"4, exprimindo uma nova estrutura social, denominada por Manuel Castells de "capitalismo informacional" em que considera que a atividade econômica e a nova organização social se baseiam, material e tecnologicamente na informação5. Neste novo modelo de capitalismo podemos perceber o "efeito dos jardins murados", conceito em que o usuário é mantido o máximo de tempo possível dentro de uma plataforma específica para que seja facilitado o tratamento de seus dados pessoais. Segundo Salil K. Mehra6: O termo "jardim murado" tem sido usado repetidamente para se referir a restrições de acesso ou habilidades do usuário de alguma forma limitados. As "paredes" não precisam ser absolutas. Em vez disso, podem ser restrições à saída ou entrada, ou restrições "parciais" a certas categorias de atividade. A concepção mais ampla de restrições para incluir restrições parciais ecoa definições usadas em antitruste. O "jardim" em questão geralmente é algum tipo de plataforma que permite a atividade do usuário - uma rede ou dispositivo que permite que os usuários se conectem com uns aos outros."7 Ainda, as redes sociais digitais reforçam a distribuição dos usuários em bolhas ou câmaras de eco, porque esses ambientes reverberam e reforçam a discussão de pontos de vista semelhantes e mantém o usuário mais tempo conectado. Dessa forma, a probabilidade de que diversos usuários tenham acesso a conteúdos totalmente personalizados para as suas opiniões e de que estes usuários acabem sendo alvos de uma percepção distorcida da realidade aumenta consideravelmente. Sobre este ponto, Eli Pariser foi bem claro ao afirmar que: O código básico no seio da nova internet é bastante simples. A nova geração de filtros on-line examina aquilo de que aparentemente gostamos - as coisas que fazemos, ou as coisas das quais as pessoas parecidas conosco gostam - e tenta fazer extrapolações. São mecanismos de previsão que criam e refinam constantemente uma teoria sobre quem somos e sobre o que vamos fazer ou desejar a seguir. Juntos, esses mecanismos criam um universo de informações exclusivo para cada um de nós - o que passei a chamar de bolha dos filtros - que altera fundamentalmente o modo como nos deparamos com ideias e informações.8 Essa nova sistemática de engajamento, disputa de atenção e consequentemente, o novo modal de consumo de conteúdo intelectual, político, educacional, dentre outros, passando pelo filtro mercantilizado do capitalismo de dados pode consciente ou inconscientemente modular e influenciar opiniões, liberdades e ações dos indivíduos imersos nessa realidade murada. Algumas empresas de tecnologia podem conhecer o perfil emocional de um número enorme de usuários, o que os torna vulneráveis as investidas para a manipulação de seus comportamentos. Podendo conduzi-los a apoiar determinada causa, partido político, ou mesmo candidato, ou seja, o ambiente on-line se tornou uma potente arma de manipulação, seja para o consumo, ou ainda para outros interesses, ao que parecem, não tão democráticos9. Também, aliado a esse mapeamento psicológico e comportamental dos indivíduos, vemos nas redes a figura dos "Robôs Sociais", ferramentas automatizadas de publicações, através de contas controladas por softwares e algoritmos, que atuando nas redes sociais como se fossem outros usuários reais, participam ativamente de discussões, e são verdadeiros instrumentos para a disseminação de conteúdo direcionado, com o objetivo de convencimento e com a publicação de conteúdo de maneira extremamente veloz, além de todo aparato relacionado à desinformação e às fake news que inundam o ambiente digital na atualidade. A proteção dos dados pessoais Frente à toda essa atmosfera favorável ao compartilhamento massivo de informações, opiniões, sentimentos e dados, e em face deste novo arcabouço exploratório dos nossos dados houve a necessidade de criação e implementação de novos direitos fundamentais, sob a lente tecnológica da sociedade conectada. É nesta linha de raciocínio que implementamos o tão esperado direito fundamental à Proteção dos Dados Pessoais10 na Constituição Federal (EC 115), como um direito individual e autônomo, que não se confunde com o direito fundamental à privacidade e vem para tutelar e fornecer salvaguardas para estes novos ativos digitais, que certamente se configuram como extensões de nossa personalidade. Para além, a lei 13.709 de 14 de agosto de 2018, Lei Geral de Proteção de Dados (LGPD), que tem forte influência do Regulamento Geral de Proteção de Dados 2016/679 do Parlamento Europeu, consagra, em nosso ordenamento jurídico, o microssistema de proteção de dados, que deve ser interpretada à luz da Carta Magna. A LGPD disciplina o tratamento de dados pessoais, inclusive nos meios digitais, por pessoa natural ou por pessoa jurídica de direito público ou privado. O seu objetivo é "proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da pessoa natural", conforme preceitua seu art. 1°. Os fundamentos da proteção de dados pessoais estão relacionados no art. 2° da LGPD, dentre os quais, damos especial destaque à autodeterminação informativa (inciso II), que busca conceder ao indivíduo o poder para que ele possa decidir acerca da divulgação e utilização de seus dados pessoais. Há, portanto, algumas frentes em que a proteção de dados pessoais pode ser efetiva quando se trata de modulação comportamental no meio digital. Uma delas é o investimento em medidas de transparência, responsabilização e prestação de contas, no sentido de instrumentalizar os cidadãos nesta relação com as plataformas. Estas medidas correspondem a princípios que estão traduzidos em diversas legislações no Brasil e no mundo, tendo especial destaque na Lei Geral de Proteção de Dados, em seu art. 6º, VI, que prevê que o direito à transparência consiste na "garantia, aos titulares, de informações claras, precisas e facilmente acessíveis sobre a realização do tratamento e os respectivos agentes de tratamento, observados os segredos comercial e industrial", além do inciso X, que trata a responsabilização e prestação de contas como a "demonstração, pelo agente, da adoção de medidas eficazes e capazes de comprovar a observância e o cumprimento das normas de proteção de dados pessoais e, inclusive, da eficácia dessas medidas." Uma medida possível para facilitar as atividades de controle e proteção de dados pessoais no ambiente digital é a implementação de relatórios de transparência e accountability por parte dos provedores de aplicação. Há ainda que se falar no que a Lei Geral de Proteção de Dados chamou, em seu artigo 20, de "direito à explicação". Este possui especial relação com o princípio da transparência e preceitua que o titular de dados deve ter direito à revisão das decisões tomadas exclusivamente com base na análise de dados, por mecanismos automatizados. Este direito reverbera consequências principalmente naquilo que se refere às decisões ligadas a mecanismos de inteligência artificial e ainda aos fluxos algorítmicos, que muitas vezes são repletos de vieses e possuem uma opacidade característica. Com isso, a legislação resguarda o direito a uma análise humanizada, que leve em conta fatores menos inteligíveis e claros para um mecanismo que não é dotado de inteligência emocional, social e muito menos de raciocínio crítico que demande a compreensão e a interpretação de outros fatores que não sejam dados brutos.11 Neste sentido, é possível implementar um canal de atendimento ao usuário com a finalidade específica de contestação desse tipo de decisão, contando com pessoas especializadas e preparadas para atender a demanda. Essas medidas, com destaque aos relatórios de transparência, são fundamentais para guarnecer os cidadãos na relação com as plataformas e possibilitar um acompanhamento mais efetivo da atuação das plataformas por parte da sociedade e por instituições públicas na fiscalização desses entes privados, para que suas atividades não interfiram em liberdades e direitos individuais e coletivos. Neste cenário, buscando uma saída para mirar horizontes de transparência e proteção de dados de fato, o princípio da responsabilização e prestação de contas é muito importante em uma futura regulação destas plataformas, buscando não uma transparência literal e sem propósito, apenas por expor seus mecanismos e lógicas, mas uma transparência qualificada, por intermédio dos relatórios de transparência, direito à explicação e a instrumentalização do titular de dados nesta relação em que está em clara posição de hipossuficiência. Considerações Finais Por fim, é necessário entender que um processo de regulação prematuro e que não leve em consideração os princípios da proteção de dados, livre concorrência, não discriminação, respeito aos direitos humanos, explicabilidade, segurança e desenvolvimento tecnológico pode trazer mais riscos aos direitos fundamentais e frear a evolução de um ecossistema digital, sendo importante que caso necessário, esse processo de regulação e aplicação de regras conte com a participação de todas as partes interessadas, criando uma câmara multissetorial de discussão com representantes do estado, dos provedores de aplicação e principalmente da sociedade civil. A integração entre estas três figuras é imprescindível para a construção de um arcabouço regulatório equilibrado e sólido para todas as partes, sendo certo que, atualmente, a regulamentação existente no Brasil sobre proteção de dados pessoais já fornece ferramentas para combater movimentos coordenados e movimentos aleatórios que podem influenciar decisões, opiniões e convicções. __________ 1 BRITO CRUZ, Francisco (coord.); MASSARO, Heloisa; OLIVA, Thiago; BORGES, Ester. Internet e eleições no Brasil: diagnósticos e recomendações. InternetLab, São Paulo, 2019, pp. 10-11.  2 ZUBOFF, Shoshana. A Era do Capitalismo de Vigilância: A Luta por um Futuro Humano na Nova Fronteira do Poder. Tradução George Schleisinger - 1.ed - Rio de Janeiro: Editora Intrínseca, p.18.  3 DE LUCCA, Newton. Coluna Migalhas de Proteção de Dados. Yuval Noah Harari e sua visão dos dados pessoais de cada um de nós. Disponível aqui. Acesso em: 20/07/2022.  4 CASTELLS, Manuel. A sociedade em rede: economia, sociedade e cultura. V. 1 São Paulo: Paz e Terra, 2013, p. 119.  5 LIMA, Marilia Ostini Ayello Alves e FLAUZINO, Ana Clara Gonçalves. Coluna Migalhas de Proteção de Dados. Aplicabilidade da teoria do desvio produtivo a partir da LGPD - "O tempo vital do titular de dados como bem juridicamente tutelado". Disponível aqui. Acesso: 30/07/2022.  6 MEHRA, Salil K., Paradise is a Walled Garden? Trust, Antitrust and User Dynamism. 2011. George Mason Law Review, Forthcoming. Disponível aqui. Acesso em: 09 de Agosto de 2022. P.08.  7 Citação Original: The term "walled garden" has been deployed repeatedly to refer to restrictions on user access or abilities are in some way limited. The "walls" need not be absolute. Instead, they can be restrictions on exit or entry, or "partial" restrictions on certain categories of activity. The broader conception of restraints to include partial restrictions echoes definitions used in antitrust. The "garden" in question is generally some kind of platform enabling user activity - a network or device that allows users to connect with each other.  8 PARISER, Eli. O filtro invisível: o que a internet está escondendo de você. Editora Schwarcz-Companhia das Letras, 2012, p.12.  9 LIMA, Marilia Ostini Ayello Alves e GUEDES, Tathiane Módolo Martins. Perspectivas sobre o comportamento humano nas redes sociais e os mecanismos de manipulação dos usuários. In LIMA, Cíntia Rosa Pereira de (Coord.) ANPD e LGPD: desafios e perspectivas 1° Ed. São Paulo: Almedina, 2021.  10Cf LIMA, Cíntia Rosa Pereira de. Políticas de proteção de dados e privacidade e o mito do consentimento. Migalhas de Proteção de Dados. Disponível aqui. Acesso em: 10/07/2022.  11 MULHOLLAND, Caitlin; FRAJHOF, Z. Isabella. Inteligência Artificial e a Lei geral de Proteção de Dados Pessoais: Breves Anotações sobre o Direito à Explicação Perante a Tomada de Decisões por meio de Machine Learning. In FRAZÃO, Ana; MULHOLLAND, Caitlin. Inteligência Artificial e Direito: ética, regulação e responsabilidade. 1ª ed. São Paulo: Thomson Reuters Brasil, 2019. p. 265 e 266.
Introdução Em junho de 2022, o Future of Privacy Forum (FPF)1, em conjunto com a LGBT Tech, apresentaram o relatório intitulado The Role of Data Protection in Safeguarding Sexual Orientation and Gender Identity Information discutindo os novos riscos criados privacidade pessoal de membros da comunidade LGBT. É evidente que o uso de tecnologias digitais fornece mais poder aos indivíduos desta comunidade, permitindo uma melhor interconexão comunitária e um acesso a serviços diversos. Para membros desta comunidade, a Internet é o único espaço onde se sentem seguros para expressar sua sexualidade e se conectar com seus iguais. Todavia, o processamento de dados dessas populações tradicionalmente marginalizadas deve também fornecer proteção contra possíveis danos que podem ser potencializados pelo contexto presente e passado de perseguição deles. Isto ocorre, pois a despeito da maior aceitação social desta comunidade, a proteção de direitos, incluindo o direito à privacidade e à proteção de dados pessoais, é constantemente violada com instrumentos protetivos atrasados e insuficientes para a efetiva proteção destes indivíduos. Indivíduos LGBTQ+ são mais impactados por violações de privacidade online; enfrentando barreiras e preconceitos significativos, violência e discriminação, prejudicando seu direito à igualdade e dignidade. Saltam aos olhos as violações aos direitos fundamentais a partir da publicação de conteúdos online descritos como homofóbicos, bifóbicos ou transfóbicos, além de danos à privacidade na forma de exposições públicas não desejadas e assédios. Ainda que o relatório tome por pressuposto fatos históricos, normas e julgados que conformam o direito á privacidade a estas pessoas, é nítido seu viés crítico em relação à onda conservadora que vem minando direitos de minorias, incluindo aí o direito à privacidade e o direito à proteção de dados pessoais. Cabe ainda observar a ausência de uma regulamentação federal unificada nos EUA em relação aos dados pessoais sensíveis de orientação sexual e identificação de gênero. A partir do relatório publicado, cabe-nos questionar o que ocorre no Brasil, se os principais tópicos indicados no relatório referentes à proteção de dados pessoais e o uso dessas informações sensíveis da população LGBTIA+ encontra guarida ante aos problemas sociais enfrentados. Além disso, cumpre-nos questionar se as proteções existentes são suficientes e se há outras medidas cabíveis para reforçar a proteção a este grupo social. O questionamento trazido no relatório, que será analisado, desenvolveu-se ante a ausência de lei federal nos EUA que regule compreensivelmente a proteção de dados pessoais de forma geral, a despeito de diversas normatizações setoriais existentes, as quais são insuficientes para oferecer a proteção adequada. Ainda que haja proteção a dados pessoais relativos à crédito, saúde, finanças e dados coletados de crianças2, faz-se ausente uma disciplina jurídica específica para coleta e para o uso de dados relativos à orientação sexual e a identificação de gênero que podem colocar pessoas LGBTIA+ em posições que podem sujeitar-lhes a prejuízos e riscos vinculados a perda de oportunidades sociais e profissionais, perdas econômicas, exclusão de círculos sociais e em alguns casos perda de liberdade. Dados e Informações Sensíveis sobre Orientação Sexual e Identidade de Gênero. Antes de continuarmos cabe definirmos exatamente o que seria Orientação Sexual e Identidade de Gênero, para tanto faremos uso de definições provenientes dos Princípios de Yogyakarta sobre a aplicação da legislação internacional de direitos humanos em relação a orientação sexual e a identidade de gênero. Vejamos, segundo este documento internacional: (1) Orientação Sexual como referência à capacidade de cada pessoa de ter uma profunda atração emocional, afetiva ou sexual por indivíduos de gênero diferente, do mesmo gênero ou de mais de um gênero, assim como ter relações íntimas e sexuais com essas pessoas. (2) Identidade de Gênero como a profundamente sentida experiência interna e individual do gênero de cada pessoa, que pode ou não corresponder ao sexo atribuído no nascimento, incluindo o senso pessoal do corpo (que pode envolver, por livre escolha, modificação da aparência ou função corporal por meios médicos, cirúrgicos ou outros) e outras expressões de gênero, inclusive vestimenta, modo de falar e maneirismos. Isto é a base interpretativa de direitos humanos; mais além disto devemos compreender seus usos a partir da política de proteção de dados e como isto pode afetar diretamente a população LGBTQIA+. A coleta e o processamento de dados individuais por uma vasta gama de atividades e empresas podem ou não aludir diretamente a estas questões relativas à intimidade pessoal e sexual, podendo ser obtidas de três formas diversas: a auto-apresentação, a inferência direta e a inferência indireta. (1) As informações auto-reportadas dizem respeito a informações e dados diretamente coletados a partir de informações prestadas ou de ações advindas do próprio indivíduo, como as autodeclarações em redes sociais e aplicativos de relacionamentos. (2) As informações diretamente inferidas são extraídas de ações e comportamentos afirmativas dos indivíduos como assinaturas e cadastros em listas e redes exclusivos para membros de comunidades determinadas. (3) Já as informações indiretamente inferidas não dependem de ações afirmativas advindas do indivíduo, são extraídas da análise de dados e metadados que permitem identificar hábitos e preferências como hábitos de compras, históricos de navegação e de lugares frequentados. Está coleta e uso de dados relacionados a populações minoritárias e vulneráveis podem identificar desigualdades sociais e evidenciar situações de exclusão e discriminação.  Estamos diante de informações e dados pessoais sensíveis que se de um lado podem, positivamente, ser utilizados para providenciar acesso a produtos e serviços especializados e personalizados; promover a saúde pública integral, física e mental, da população LGBTQIA+, fortalecendo estas comunidades por meio da mitigação dos efeitos da divisão e exclusão social e da identificação de vácuos na garantia de direitos fundamentais e, consequentemente, combatendo de forma efetiva a discriminação. Por outro, o uso destes dados e informações pessoais dependem do seu uso ético, visto que podem reforçar relações tóxicas e desiguais, assim como potencializar a violência pelo uso da tecnologia. O crescimento do uso de algoritmos potencializa perigos e novas formas de discriminação para os indivíduos LGBTs. São os algoritmos essenciais no desenvolvimento de ferramentas, serviços e comerciais personalizados; todavia, podem refletir conceitos e pré-conceitos sociais enraizados na estrutura social, escalando a discriminação e impossibilitando seu combate. Esses algoritmos podem moderar, limitar ou mesmo mudar os conteúdos e informações que as pessoas de determinada comunidade têm acesso. Limita-se habilidades e competências em relação a difusão e a monetização de temas vinculados a comunidades específicas, impedindo seu crescimento, permitindo que comportamentos odiosos advindos do desconhecimento e da ignorância assumam papel de destaque no mainstream. Dessa forma, experiências injustas e discriminatórias podem ser amplificadas quando do uso de ferramentas automatizadas de tomada de decisões utilizando os dados pessoais sensíveis relativos à orientação sexual e a identidade de gênero, implicando em limitações relativas à moradia, emprego, oportunidades financeiras entre outras limitações de acesso a serviços e direitos. Riscos e Perigos Implicados no Uso de Dados e Informações Sensíveis da População LGBTQIA+  Compreendido os elementos, os conceitos técnicos e as implicações tecnológicas do uso dos dados e informações pessoais sensíveis vinculadas à orientação sexual e identificação de gênero, devemos agora analisar os elementos reais, os riscos e prejuízos sentidos por estes indivíduos em seu dia a dia, para no tópico seguinte, conformar estas conclusões embasadas na realidade estadunidense com a legislação brasileira. A coleta, o uso e o armazenamento de dados pessoais dos indivíduos LGBTs trás consigo riscos potenciais e inerentes a esta comunidade, lidando com diferenças de tratamento que levam a impactos e prejuízos no pleno desenvolvimento destas pessoas. A exposição e o mal uso destes dados podem levar a situações desconfortáveis, de violência tanto em nível familiar, como social e profissional. A partir do relatório de mesma autoria publicado no ano de 2017, podemos categorizar estes danos em 4 categorias tipológicas: perda de oportunidades, perdas econômicas, exclusão social e perda de liberdade, apresentando tanto aspectos coletivos como individuais, com consequências tanto injustas, como até mesmo ilegais. Vejamos um a um exclusivamente. (1) Perda de Oportunidades: materializa-se socialmente na diferença de acesso a oportunidades de trabalho, a seguros e benefícios, moradia e educação. Ocorrendo por meio de filtragem indevidas e exclusão de minorias, limitando acesso a direitos chegando à negação a direitos de moradia e educação. (2) Perdas Econômicas: são uma consequência lógica da perda de oportunidades, ainda que não negados em sua totalidade, é evidente a diferença de acesso e custos, em outros termos, evidencia-se a discriminação creditícia e a diferença em preços de produtos e serviços. (3) Exclusão Social: implica-se, portanto, na formação de bolhas sociais, com prejuízos evidentes à dignidade inerente a cada ser humano, constrangendo e limitando o exercício de direitos. (4) Perda de Liberdade: é o caso mais extremo, e com origem nas diversas discriminações e preconceitos que a comunidade LGBT sofre/sofreu no decorrer da história. Há um elemento higienista de exclusão do diferente, de não aceitação do ser humano, que podem em último caso representar a perda da própria vida. E no Brasil, este contexto se aplica? Quais as conclusões que podemos chegar? Diferentemente dos EUA, onde o relatório foi desenvolvido, no Brasil, desde o ano de 2018, há a lei 13.709, a Lei Geral de Proteção de Dados (LGPD), com o objetivo de proteger os direitos fundamentais de liberdade e de privacidade e o livre desenvolvimento da personalidade da pessoa natural. Referida norma fundamenta-se no respeito à privacidade, na autodeterminação informativa, na inviolabilidade da intimidade, da honra e da imagem, nos direitos humanos individuais e sociais entre outros. O fundamento último de validade, como em todo sistema jurídico é a Constituição Federal, está prega a igualdade entre todos os indivíduos independentemente de qualquer condicionante3. Ainda que o Poder Judiciário tenha, por meio de decisões e resoluções em sede de controle de constitucionalidade, garantido e expandido o direito à igualdade de acesso a serviços e direitos públicos a população LGBTQIA+, estas decisões são precárias. A precariedade das decisões que garantem direitos está vinculada à manutenção de posições jurisprudenciais que dependem, a despeito do princípio de não regressão dos Direitos Humanos, da composição dos Tribunais Superiores, notadamente, o STF. Há, de fato, uma violação de direitos por omissão consciente e querida do Poder Legislativo de fazer as adequações normativas necessárias a incluir e garantir de forma positiva e comissiva esses direitos. Desta sorte, ainda que tenha havido avanços em relação aos direitos desta população, cabe ainda, grande desenvolvimento para que essa comunidade tenha seus direitos efetivamente garantidos. Ainda que a LGPD proteja de forma geral esta população a partir de seus princípios e fundamentos norteadores, os preconceitos e prejuízos sociais e discriminatórios advêm da estrutura de desenvolvimento e evolução social, e a sua proteção extrapola os limites normativos dependendo da atuação ética e consciente dos operadores destes dados pessoais sensíveis. Referencial Bibliográfico  AMATO, Andre L. V. ; CASTRO, C. D. . A legalização dos casamentos entre pessoas do mesmo sexo no Brasil como forma de efetivação dos Objetivos de Desenvolvimento Sustentável das Nações Unidas. In: Guilherme Vítor de Gonzaga Camilo, Vivianne Wanderley Araújo Tenório e Wanda Helena Mendes Muniz Falcão. (Org.). Ensaios Direito Internacional e Relações Internacionais: Reflexões a partir de estudos transnacionais. 1ed.Erechim/RS: Editora Deviant, 2017, v. 1, p. 150. BRASIL. Constituição (1988). Constituição (da) República Federativa do Brasil. Brasília: Senado Federal, 1988. Disponível aqui. Acesso em 02 de agosto de 2022.  BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República. Disponível aqui. Acesso em 02 de agosto de 2022. BRASIL. Supremo Tribunal Federal. Acesso em 02 de agosto de 2022.  FPF (Future Privacy Forum); LGBT Tech. THE ROLE OF DATA PROTECTION in Safeguarding Sexual Orientation and Gender Identity Information. Disponível aqui. Acesso em 02 de agosto de 2022. DENSA, Roberta; DANTAS, Cecília. Proteção de dados de criança em meio digital: análise dos riscos conforme a Organização para a Cooperação e Desenvolvimento (OCDE). In Migalhas de Proteção de Dados [online], 10 jun. 2922. Disponível aqui. Acesso em: 03 ago. 2022. QUINTILIANO, Leonardo. Contexto histórico e finalidade da Lei Geral de Proteção de Dados (LGPD). In Instituto Avançado de Proteção de Dados (IAPD) [online], Ribeirão Preto, 15 mar. 2021. Disponível aqui. Acesso em: 03 ago. 2022.  PRINCÍPIOS DE YOGYAKARTA. Disponível aqui. Acesso em 02 de Agosto de 2022. __________ 1Trata-se de uma importante Think Tank integrada por advogados, empresários, acadêmicos e consumidores, situanda em Washington DC, nos EUA. O objetivo principal é enfrentar os desafios impostos pela inovação tecnológica para o desenvolvimento de proteções à privacidade, de normas éticas e de boas práticas corporativas. 2 Vd., DENSA, Roberta; DANTAS, Cecília. Proteção de dados de criança em meio digital: análise dos riscos conforme a Organização para a Cooperação e Desenvolvimento (OCDE). In Migalhas de Proteção de Dados [online], 10 jun. 2922. Disponível aqui. Acesso em: 03 ago. 2022. 3 Vd., QUINTILIANO, Leonardo. Contexto histórico e finalidade da Lei Geral de Proteção de Dados (LGPD). In Instituto Avançado de Proteção de Dados (IAPD) [online], Ribeirão Preto, 15 mar. 2021. Disponível aqui. Acesso em: 03 ago. 2022.
sexta-feira, 29 de julho de 2022

Twitter e a desvalorização dos robôs

Preliminares Tudo começou em abril deste ano quando o magnata dos negócios Elon Musk, então a pessoa mais rica do planeta1, ofereceu US$ 43 bilhões para adquirir a empresa de mídia social Twitter, Inc. Recordo que Musk já era seu maior acionista individual possuindo 9,1% das ações da empresa. Ainda em abril, Musk recusa o convite para participar do Conselho de Administração. No dia 25 do mesmo mês, esse mesmo Conselho aceitou a oferta de compra de Musk de US$ 44 bilhões, vinculando o valor a privatização da empresa. Tudo parecia ir bem até que em 8 de julho Musk anunciou que pretendia desmanchar o negócio afirmando que o Twitter violou parte do acordo de compra ao se recusar a reprimir contas de spambot. spambot é tipo de software, um robô, projetado para auxiliar no envio de mensagens de spam. Os spambots criam contas fictícias e enviam mensagens de spam usando essas contas. A empresa entrou com uma ação contra Musk no Tribunal da Chancelaria do estado de Delaware em 12 de julho. Negócio congelado, por enquanto. Mas será que, de fato, essa manifestada ingerência dos spambots sobre a empresa pode ter sido a causa do bloqueio dessa negociação bilionária? Veremos. About Twitter Twitter é uma rede social focada em microblog, ou seja, textos curtos voltados para interações rápidas do usuário com o público via web. A empresa foi criada em 2006 e liderada pelo empresário norte-americano Jack Dorsey. No ano passado o Twitter gerou uma receita de US$ 5 bilhões, sendo que 92% desta receita foi proveniente de anúncios publicitários. Essa plataforma conta ainda com 206 milhões de usuários ativos diariamente, sendo que 38 milhões estão nos Estados Unidos2. Em janeiro deste ano, 19,05 milhões de brasileiros acessaram o Twitter3. Twitter é só mais uma mídia social? Como outros serviços web aparentemente grátis, o valor pago para se utilizar uma mídia social for free são os dados dos usuários. Os meus, os seus, os nossos dados são a moeda. Neste sentido, cabe dizer que nem todas as mídias sociais são iguais. Facebook, Twitter e Instagram são as plataformas de mídia social mais populares e usadas mundialmente. No entanto, cada uma atrai tipos ligeiramente distintos de usuários e também oferecem serviços e recursos exclusivos. O Facebook, por exemplo, tem um amplo apelo: das 7,6 bilhões de pessoas no planeta, 2,5 bi usam essa plataforma ao menos uma vez ao mês. Ainda, 68% dos americanos adultos relatam usar essa plataforma, sendo que aproximadamente 80% dos usuários está na faixa etária entre 18 a 49 anos de idade.  Os usuários do Instagram tendem a ser jovens. A rede social para compartilhamento de fotos e vídeos é mais popular entre os jovens de 18 a 24 anos. Nessa faixa etária, 71% dos norte-americanos dizem ter uma conta no Instagram. Cerca de 1 bilhão de usuários fazem check-in mensalmente nesta plataforma4. Já pelo Twitter, seus usuários são mais propensos a serem graduados, ricos e terem uma vida urbana. Aparentemente o Twitter é um "partidão". Twitter bots Outra diferença importante entre essas mídias é que o Twitter é a única destas mídias sociais que tem uma API aberta, ou seja, uma Interface de Programação de Aplicação aberta. Uma API é uma forma de ligação entre dois sistemas computacionais. Neste caso, o Twitter disponibiliza uma API para seus usuários que os possibilita usar recursos do Twitter por um software que eles tenham criado. Em outras palavras, um programador pode, tendo uma conta no Twitter, escrever um código próprio que envia e recebe tweets a partir do seu programa particular de computador. Ou seja, um programador pode programar as funções do Twitter sem necessariamente usar a interface do Twitter no computador ou no aplicativo. Essa possibilidade permite, por exemplo, que muitos acadêmicos (como eu) criem bots (robots) que captam mensagens do Twitter constantemente para fazer análises. Análises essas das mais variadas. Por exemplo, analisar quem posta, o que posta, sobre o que escreve, quem são seus seguidores e quem eles seguem; além de, por exemplo, responder ou criar e enviar tweets. E qual seria o real valor destas mensagens? Explico: uma mensagem enviada por esta plataforma pode ter, além dos 280 caracteres, ou seja, o conteúdo da mensagem em si, 150 outros atributos vinculados a ela5. Esses atributos vão desde o codinome do usuário, até a sua localização geográfica quando enviou a mensagem, o dia, o horário, seus seguidores e até a cor e a imagem que você pode usar no seu perfil. São todas informações valiosíssimas que certamente diferenciam e deixam únicos cada usuário do serviço. Todas essas informações poderiam ser usadas para criar um perfil de cada usuário, mesmo que essa tarefa não seja ética e permitida, por exemplo, pela LGPD. Poderia, mas não pode. O valor dos bots Essa preocupação do Elon Musk em conhecer exatamente quantas são as contas fakes do Twitter e quantos são os eventuais spambots que as criaram e as manipulam é antiga. Nos idos de 2009 já se afirmava, por meio de um estudo da famosa Harvard Business Review, que 10% dos usuários do Twitter eram responsáveis por 90% de sua atividade6,7. Nesta época, nas demais redes sociais 10% dos usuários respondiam por 30% do conteúdo. Ou seja, a relação 10% para 90% é uma clara indicação de postagens mecanizadas, programadas. Por outro lado, neste mesmo ano, o valor de mercado desta empresa estava estimado em US$ 250 milhões. Percebam a diferença de valor de mercado em 2009 para os atuais US$ 44 bilhões8. Recentemente o Twitter afirmou que menos de 5% de suas contas são fakes ou spambots. Sabemos também que o próprio Twitter oferece a possibilidade de compra de seu "firehose", ou seja, o fluxo massivo total dos aproximados 500 milhões de tweets enviados diariamente pela plataforma. Dezenas de empresas têm acesso a esses "firehose" para diversas análises destes microblogs trocados. Este fluxo de dados está disponível há anos para empresas que pagam ao Twitter pela capacidade de analisá-lo para encontrar padrões e insights nas conversas diárias. É estranho o fato de se desejar gastar essa fortuna de US$ 44 bilhões, praticamente o mesmo valor de mercado da Ambev hoje9, sem antes fazer uma avaliação independente usando esses dados de terceiros, mesmo tendo condições para tal. Alguns analistas dizem que Musk está usando seu argumento como pretexto para sair do acordo ou negociar um preço mais baixo. Existe também a alegação que essa eventual atividade de spam deve ser quantificada exatamente pela equipe de Musk pois, se o Twitter estiver subestimando o spam em seu serviço, as estimativas da empresa sobre quantos usuários poderiam de fato ver anúncios seriam menores, afetando a receita. Os bots e as "leis" humanas Em 1942 o aclamado escritor de ficção científica Isaac Asimov publica seu livro intitulado Runaround o qual influenciou muitas outras obras do mesmo gênero. Neste livro, Asimov descreve explicitamente as três leis da robótica10, que são: Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum dano; Um robô deve obedecer às ordens dadas por seres humanos, exceto quando tais ordens entrarem em conflito com a Primeira Lei; Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Lei. Mais tarde, Asimov acrescentou outra lei, conhecida como quarta ou lei zero, que substituiu as outras. Ele afirmou que "um robô não pode prejudicar a humanidade ou, por inação, permitir que a humanidade sofra algum mal". Percebam que, do ponto de vista computacional, os bots, como uma criação humana, são meios modernos de mecanização de tarefas, entre elas, destaca-se neste caso a panfletagem midiática moderna, ou seja, a distribuição de material digital de merchandising aqui com o codinome de spam. Pode-se até alegar que esta atividade está entre os custos a serem absorvidos pelos usuários por utilizam um serviço aparentemente gratuito. Considerando-se ainda a possibilidade (reforço, apenas a possibilidade) destes mesmos bots usarem mecanismos de inteligência artificial (IA) nas suas tarefas de criação de textos, escolhas de destinatários e até eventuais respostas automatizadas aos tweets recebidos, cabe aqui a mea culpa de que esses métodos de IA hoje empregados pertencem a classe das weak IA, ou seja, métodos ainda nos níveis mais elementares de IA e que, mesmo que aprimorados, talvez nunca cheguem a se aproximar das características da inteligência humana11. Sob esta ótica, muito embora os bots do Twitter, façam todo um trabalho intenso de panfletagem para garantir os sucessivos lucros da empresa e sua valorização impressionante ao longo dos anos, o que realmente tem valor de mercado ao final do dia são quantos seres humanos pensantes e potenciais consumidores leram e se atentaram para esses anúncios. Robôs são bons trabalhadores, mas infelizmente não colocam a mão no bolso. Referências bibliográficas 1 Bloomberg Billionaires Index. Disponível aqui. Último acesso em 25 de julho de 2022. 2 Twitter Revenue and Usage Statistics (2022). Disponível aqui. Último acesso em 25 de julho de 2022. 3 Brasil tem a quarta maior base de usuários do Twitter no mundo. Disponível aqui. Último acesso em 25 de julho de 2022. 4 Twitter vs. Facebook vs. Instagram: What's the Difference? Disponível aqui. Último acesso em 25 de julho de 2022. 5 Data dictionary: Premium v1.1. Disponível aqui. Último acesso em 25 de julho de 2022. 6 Twitter bots are hard to track, and focusing on the amount misses the point. Here's what matters more, according to 2 researchers. Disponível aqui. Último acesso em 25 de julho de 2022. 7 10% Of Twitter Users Account For 90% Of Twitter Activity. Disponível aqui. Último acesso em 25 de julho de 2022. 8 Fall 2008, Facebook tries to acquire Twitter. Disponível aqui. Último acesso em 25 de julho de 2022. 9 Quais são as maiores empresas do Brasil em receita, lucro e valor de mercado? Disponível aqui. Último acesso em 25 de julho de 2022. 10 Three laws of robotics: concept by Asimov. Disponível aqui. Último acesso em 25 de julho de 2022. 11 FJELLAND, Ragnar. Why general artificial intelligence will not be realized. Humanities and Social Sciences Communications, v. 7, n. 1, p. 1-9, 2020.
"Este prefácio, apesar de interessante, inútil. Alguns dados. Nem todos. Sem conclusões. Para quem me aceita são inúteis ambos. Os curiosos terão prazer em descobrir minhas conclusões, confrontando obra e dados. Para quem me rejeita trabalho perdido explicar o que, antes de ler, já não aceitou."Mário de Andrade. Pauliceia Desvairada. São Paulo: Casa Mayença, 1922, p. 07. Introdução Municípios, uma brasilidade federativa, são entes com contextos muito variados: entre Serra da Saudade, Minas Gerais, o menos habitado do Brasil, e São Paulo, a "Pauliceia Desvairada", de Mário de Andrade, não há como serem as políticas públicas tratadas como blocos de construção HTML, já pré-fabricadas e prontas a serem implementadas pelos agentes públicos. A proteção de dados pessoais, como direito fundamental1 a ser efetivado por todos os entes, está nesse âmbito. Sem a estruturação de ações conectadas com a realidade ou, como diria a jusfilósofa Helen Nissenbaum2, com os distintos contextos3, o que restaria seria, sem dúvidas, dados e resultados à maneira como escreveu Mário de Andrade, há 100 anos, em seu "Prefácio Interessantíssimo", de "Pauliceia Desvairada": "Alguns dados. Nem todos. Sem conclusões." São Paulo, 22/7/22 Em "Pauliceia", a Prefeitura do Município de São Paulo, por meio do decreto municipal 59.767/204, regulamentou a aplicação da LGPD no âmbito do administração pública municipal, designando ao seu controlador geral do município a atribuição de encarregado pela proteção de dados pessoais5. Entre as atribuições dispostas à figura do encarregado, está a de emissão de diretrizes, cogentes para os órgãos e orientativas às entidades da administração pública, que disponham sobre a elaboração de seus planos de adequação à efetividade da proteção de dados pessoais no âmbito do Poder Executivo do município6. Em 22/7/22, a 100 metros do Theatro Municipal de São Paulo, no também centenário cruzamento entre Viaduto do Chá e Rua Líbero Badaró, o Poder Executivo do município publicou, por meio de sua controladoria geral do município, a sua instrução normativa CGM/SP 01/227, que estabelece disposições referentes ao tratamento de dados pessoais no âmbito da administração pública municipal. A instrução normativa delimita, como um primeiro passo rumo à sua padronização do plano de adequação da prefeitura do município à efetividade da proteção de dados pessoais, a  implementação de registros de operações de tratamento de dados pessoais, relatórios de impactos à proteção de dados pessoais e mapeamentos de fluxos de dados pessoais por todos os seus órgãos e entidades, o que, por sua eficácia horizontal, ou seja, por sua aplicação a todos os órgãos e entidades, otimiza, ao controle interno do município e aos seus controles externo e social, a análise de conformidade de suas políticas públicas quanto à proteção de dados pessoais. Conforme dispõe o seu art. 14, os órgãos da administração pública municipal deverão e suas entidades poderão realizar registros de operações de tratamento de dados pessoais que contenham, materialmente: (i) a identificação dos processos ou atividades da prefeitura do municípios nos quais há o tratamento de dados pessoais; (ii) a identificação dos agentes de tratamento e do encarregado; (iii) as fases do ciclo de vida do tratamento de dados pessoais; (iv) a natureza e o escopo do tratamento de dados pessoais; (v) a finalidade do tratamento de dados pessoais; (vi) as categorias de dados pessoais tratados, inclusive com a descrição das subcategorias de dados pessoais sensíveis; (vii) o volume das operações de tratamento e das categorias de dados pessoais tratados; (viii) categorias de titulares de dados pessoais envolvidos nos tratamentos; (ix) o compartilhamento e uso compartilhado de dados pessoais, inclusive com a descrição dos agentes de tratamento com os quais os dados pessoais são compartilhados; (x) os contratos de serviços e soluções de tecnologia da informação que tratam os dados pessoais dos processos mapeados; (xi) descrições sobre eventuais transferências internacionais de dados pessoais; e (xii) medidas de segurança e de proteção de dados pessoais já adotadas a fim de mitigar os riscos à segurança da informação e aos dados pessoais tratados. O seu art. 15, por sua vez, ao tratar da elaboração de relatórios de impacto à proteção de dados pessoais, que servirão de subsídio à elaboração de único relatório de impacto à proteção de dados pessoais dos órgãos da administração pública municipal, estabelece, materialmente, como requisitos: (i) a identificação dos agentes de tratamento e do Encarregado; (ii) a necessidade de sua elaboração ou atualização; (iii) a descrição do tratamento de dados pessoais, com base no mapeamento de dados pessoais; (iv) a  natureza e o escopo do tratamento de dados pessoais; (v) o contexto e a necessidade do tratamento de dados pessoais; (vi) a finalidade do tratamento de dados pessoais; e (vii) a identificação, análise e gestão de riscos praticadas pela Prefeitura do Município com relação à segurança da informação e à proteção de dados pessoais. Também foi estabelecida a necessidade da elaboração de programas de capacitação dos servidores da administração pública municipal que objetive a conscientização sobre os processos que se utilizam do tratamento de dados pessoais e das medidas de segurança, técnicas e administrativas aptas a proteger os dados pessoais de acessos não autorizados e de situações acidentais ou ilícitas de destruição, perda, alteração, comunicação ou qualquer outra forma de tratamento inadequado ou ilícito. Por fim, destaca-se o texto de seu art. 108, que dispõe a necessidade da aposição, em sites e em lugares visíveis ao público, como prédios públicos e praças de atendimento, das hipóteses de tratamento de dados pessoais contidas nos arts. 7º e 11 da LGPD. As disposições da instrução normativa se inspiram, com as adaptações necessárias à realidade do município de São Paulo, em metodologia de registro das operações de tratamento de dados pessoais já utilizada pela administração pública Federal e que foi desenvolvida, principalmente, pela autoridade nacional de proteção de dados pessoais da França, a "Commission Nationale de l'Informatique et des Libertés" - CNIL9, no âmbito de sua implementação do RGPD - regulamento geral sobre proteção de dados pessoais da União Europeia, cuja sistemática está em harmonia com o que propõe, no Brasil, a LGPD. Conclusão Apesar de não prevista na obra de Mário de Andrade, "Pauliceia Desvairada", a conclusão é que, por ora, está o Poder Público paulistano munido de instrumentos que, consolidados, serão aptos a elevar o seu nível de adequação à proteção de dados pessoais. Aos leitores munícipes do entorno do Vale do Anhangabaú, os próximos passos rumo à proteção de sua vida privada, intimidade e dados pessoais poderão ser acompanhados no curso da história que se desenvolve no edifício Matarazzo, Viaduto do Chá, 15. _____ 1 BRASIL. EC 115/22. Altera a Constituição Federal para incluir a proteção de dados pessoais entre os direitos e garantias fundamentais e para fixar a competência privativa da União para legislar sobre proteção e tratamento de dados pessoais. Brasília, Diário Oficial da União, 11/2/22. Disponível aqui. 2 NISSENBAUM, Helen. Privacy in Context. Technology, Policy, and the Integrity of Social Life. Stanford, EUA: Stanford University Press, 2010, passim. 3 FALCÃO, Daniel; PEROLI, Kelvin. As novas abordagens da privacidade: contextos, tipos e dimensões. Migalhas, 30/12/21. Disponível aqui. 4 SÃO PAULO (Município). Prefeitura do município de São Paulo. Decreto municipal 59.767/20. Regulamenta a aplicação da lei Federal 13.709/18 - LGPD - no âmbito da Administração Municipal direta e indireta. São Paulo, Diário Oficial da Cidade de São Paulo, 16/9/22. Disponível aqui. 5 Art. 5º, caput, do decreto municipal 59.767/20: "Art. 5º Fica designado o Controlador Geral do Município como o encarregado da proteção de dados pessoais, para os fins do art. 41 da lei Federal 13.709/18." 6 Art. 6º, inc. IV, do decreto municipal 59.767/20: "Art. 6º São atribuições do encarregado da proteção de dados pessoais: [...] IV - editar diretrizes para a elaboração dos planos de adequação, conforme art. 4º, inciso III deste decreto". 7 SÃO PAULO (município). Prefeitura do município de São Paulo. Controladoria Geral do Município. Instrução Normativa CGM/SP 01/22. São Paulo, Diário Oficial da Cidade de São Paulo, 22 jul. 2022. 8 Art. 10 da instrução normativa CGM/SP 01/22: "Art. 10. As Secretarias e Subprefeituras deverão disponibilizar, em seus sítios eletrônicos e em lugares visíveis das respectivas instalações físicas, as hipóteses de tratamento de dados pessoais, nos termos do art. 11, inciso II, do Decreto Municipal 59.767/20, e do art. 2° desta Instrução Normativa, bem como fornecer instrumentos adequados para que o titular de dados pessoais manifeste o seu consentimento, quando necessário, de forma livre, informada e inequívoca, conforme o art. 5º, inciso XII, da lei Federal 13.709/18." 9 FRANÇA. Commission Nationale de l'Informatique et des Libertés. La CNIL publie un nouveau modèle de registre simplifié. Paris, Commission Nationale de l'Informatique et des Libertés, 25/7/19. Disponível aqui. Referências bibliográficas 1 ANDRADE, Mário de. Pauliceia Desvairada. São Paulo: Casa Mayença, 1922, p. 07. 2 BRASIL. Emenda Constitucional 115/22. Altera a Constituição Federal para incluir a proteção de dados pessoais entre os direitos e garantias fundamentais e para fixar a competência privativa da União para legislar sobre proteção e tratamento de dados pessoais. Brasília, Diário Oficial da União, 11/2/22. Disponível aqui. 3 FALCÃO, Daniel; PEROLI, Kelvin. As novas abordagens da privacidade: contextos, tipos e dimensões. Migalhas, 30/12/21. Disponível aqui. 4 FRANÇA. Commission Nationale de l'Informatique et des Libertés. La CNIL publie un nouveau modèle de registre simplifié. Paris, Commission Nationale de l'Informatique et des Libertés, 25/7/19. Disponível aqui. 5 NISSENBAUM, Helen. Privacy in Context. Technology, Policy, and the Integrity of Social Life. Stanford, EUA: Stanford University Press, 2010, passim. 6 SÃO PAULO (município). Prefeitura do município de São Paulo. Decreto municipal  59.767/20. Regulamenta a aplicação da lei Federal 13.709/18 - LGPD - no âmbito da Administração Municipal direta e indireta. São Paulo, Diário Oficial da Cidade de São Paulo, 16 set. 2022. Disponível aqui. 7 SÃO PAULO (município). Prefeitura do Município de São Paulo. Controladoria Geral do Município. Instrução Normativa CGM/SP 01/22. São Paulo, Diário Oficial da Cidade de São Paulo, 22/7/22.
Não se desconsidera a dificuldade de fiscalização de abusos que geram lesões a direitos em uma lógica estritamente baseada em custo e benefício. Todavia, o incremento de atividades econômicas na internet conduziu ao amadurecimento do conceito de 'perfilização', que, para o recorte proposto, se desdobra em duas práticas distintas: precificação personalizada e precificação dinâmica. O termo "perfilização" - extraído do vocábulo inglês profiling - é mais complexo do que parece. Segundo Rafael Zanatta, "profiling (expressão inglesa de perfilização) significa 'o ato ou processo de extrapolar informação sobre uma pessoa baseado em traços ou tendências conhecidas'".1 A intenção, em essência, é prever cenários e traçar perfis2, que, nas relações de consumo, viabilizam a predição comportamental a partir de parâmetros heurísticos. Em pleno século XXI, vivencia-se o apogeu da era marcada pela ampla conectividade estudada por Schwab3. Os debates jurídicos decorrentes desse fenômeno já se elasteceram para além das regras contidas no Código de Defesa do Consumidor (Lei nº 8.078/1990), uma vez que o ritmo galopante da inovação impõe reformulações aos modelos tradicionais de regulação pela lei e de engessamento das estruturas econômicas. Nesse contexto, abriu-se largo campo à exploração de modelos de negócio baseados em algoritmos capazes de processar grandes acervos de dados, trazendo sofisticação ao tradicional comércio eletrônico e viabilizando a implementação de estruturas negociais baseadas em dados e na identificação de perfis e tendências para a potencialização de lucros a partir da oferta de produtos e serviços mais personalizados ao consumidor final. A "precificação personalizada" é usualmente identificada pelas expressões geo-pricing e geo-blocking. Entretanto, o conceito é mais abrangente e engloba essas duas práticas como espécies que, quando implementadas, levam em conta a localização geográfica para propiciar a precificação algorítmica, mas com nuances próprias. O tema ganhou muita relevância, no Brasil, após atuação pioneira do Ministério Público do Estado do Rio de Janeiro, em razão de denúncia formalizada, à época dos Jogos Olímpicos do Rio de Janeiro, em 2016, por uma empresa que explora atividades de reservas de quartos de hotel e compra e venda de passagens aéreas. Na denúncia formalizada, a denunciante narrou ter identificado que uma concorrente exibia preços diversos em seu sítio eletrônico, a depender da localização de onde o potencial consumidor acessava a plataforma. Houve grande repercussão midiática, com veementes reações e sancionamento administrativo levado a efeito pelo Departamento de Proteção e Defesa do Consumidor (DPDC), órgão do Ministério da Justiça4, além de imediata investigação, pelo Ministério Público, que culminou na instauração de inquérito civil e na subsequente propositura de ação judicial5, levando a discussões sobre os limites da captura de metadados de navegação para fins de exibição de preços e de sua utilização.6 Sabe-se que a captura dos dados de navegação é robustecida por metadados (a partir dos chamados cookies7), em conjugação, ainda, com dados pessoais usualmente cadastrais, coletados para o fim de, traçando o perfil do potencial consumidor, viabilizar a elevação ou redução do preço final do produto ou serviço que lhe é apresentado, maximizando lucros.8 O potencial de discriminação de preços, condições negociais, qualidade e quantidade, além de outras informações relevantes, nessas práticas, depende de variáveis complexas e dos substratos valorados (com maior ou menor 'peso') pelos algoritmos que operacionalizam a coleta e o processamento de dados. E, além da violação flagrante às relações de consumo e à boa-fé que deve reger as contratações eletrônicas, tem-se em pauta uma questão fundamentalmente ética9, pois seria possível programar o algoritmo para indicar preços mais elevados para usuários perfilados como 'pessoas com maior poder aquisitivo'. O principal traço distintivo da prática em questão diz respeito ao objeto da precificação personalizada: um quarto de hotel é um espaço físico específico e dotado de características bem delimitadas; da mesma forma, um assento em uma aeronave que realiza o transporte aéreo entre pontos de partida e destino previamente escolhidos terá por objeto o mesmo voo, na mesma aeronave, na data e no horário definidos. O cumprimento obrigacional, portanto, tem contornos totalmente previsíveis, bem delimitados e contempla um único objeto. Desse modo, ainda que se possa discutir a precificação diferenciada para quartos de maiores dimensões ou com comodidades adicionais, ou mesmo para passagens aéreas de "classes" melhores e que ofereçam maior conforto, é certo que o objeto será diverso e, por consequência, será justa a diferenciação de preço em razão do objeto que, mesmo possuindo múltiplas categorias, continuará sendo lícito, possível e determinado (art. 104, II, do Código Civil). O que se repudia - e que se tornou objeto da veemente reação no Brasil - é a discriminação de preços de caráter subjetivo, isto é, que leva em conta elementos que permitam traçar o perfil pessoal, profissional ou de consumo do potencial consumidor. Na hipótese, o mesmo objeto (seja um quarto de hotel ou um assento em aeronave) será comercializado para consumidores diferentes, por preços diferentes e em função de decisão automatizada (art. 20, caput, LGPD), gerando um vício de forma, porquanto defesa, em lei, a perfilização discriminatória nesse contexto específico (art. 20, §2º, LGPD). Contornos diversos são os da chamada precificação dinâmica, há tempos utilizada para regionalizar preços em mercados digitais, sem gerar, necessariamente, discriminação ou até mesmo a perfilização. Quando se emprega o adjetivo 'dinâmica' para categorizá-la, tem-se em vista traços distintivos circunstanciais, mas não necessariamente relacionados ao conceito desenvolvido anteriormente, qual seja, a predição do perfil pessoal, profissional, de consumo, de crédito ou aspectos relacionados à personalidade. Não se 'personaliza' o produto ou o serviço para moldá-lo ao perfil que se traçou do consumidor em potencial; o que se faz, em singela descrição, é adaptar preços a realidades regionais que possam sofrer os impactos de circunstâncias de cariz tributário, inflacionário ou de conversão de moeda. No comércio eletrônico, trata-se de prática habitual de empresas que comercializam software para download imediato (sem mídia física, caracterizável como produto). No mercado digital de jogos eletrônicos, já se tornou regra. Grandes empresas se valem da prática designada como regional pricing support para equacionar disparidades de conversão de moeda e regionalização de acordo com a localização geográfica do consumidor. O objetivo, naturalmente, é potencializar vendas, pois, a partir de tal prática, um consumidor norte-americano, por exemplo, paga proporcionalmente mais por um mesmo jogo eletrônico vendido digitalmente do que um consumidor residente no Brasil, se considerada apenas a precificação comparada pela conversão da moeda (do dólar americano para o real, neste exemplo).10 Noutros termos, se o software fosse vendido ao comprador brasileiro em dólares, este teria que suportar os ônus da conversão de moeda (além de tributos, como o Imposto sobre Operações Financeiras). O consumidor brasileiro, por sua vez, pagaria proporcionalmente menos do que um consumidor argentino (se considerada a conversão do dólar, aqui tomado como paradigma, para pesos), em razão da desvalorização mais acentuada da moeda argentina em relação ao real brasileiro. Há imperfeições, no contexto da precificação dinâmica levada a efeito no comércio de licenças de software, pois a utilização de Virtual Private Networks - VPNs permite alterar o Internet Protocol - IP e "ludibriar" a plataforma para que determinado consumidor pareça estar noutro país. Com isso, medidas de limitação à alteração do país de residência nessas plataformas de comércio de jogos eletrônicos têm sido implementadas.11 Mesmo imperfeita, apesar de parecer muito clara a diferença conceitual, tal prática gerou a aplicação de vultosa multa, de ? 7.8 milhões, pela Comissão Europeia, às empresas Valve, Capcom, Bandai Namco, Focus Home, Koch Media e ZeniMax.12 A própria notícia sinaliza a discriminação por localização georreferencial como fundamento para a sanção, em confusão com o já analisado geo-blocking. Contudo, não se faz referência ao regional pricing support. Para que se possa compreender melhor a diferença, é importante que se elucide que o objeto da relação de consumo, nesta segunda hipótese, é a licença de uso do software, cuja natureza é replicável, porquanto acessado mediante pagamento para que se viabilize o download, a instalação em dispositivo informático e, feitas algumas verificações de idoneidade dos arquivos, sua fruição. Caso o episódio tivesse ocorrido no Brasil, o tema produziria polêmica, pois a extensão da proteção jurídica conferida ao software é debatida, pela doutrina, há décadas13, mas foi legislada de forma específica somente com a Lei nº 7.646/1987, posteriormente revogada pela Lei nº 9.609, de 19 de fevereiro de 1998.14 Não há dúvidas de que se trata do resultado do complexo e altamente técnico trabalho de programadores e desenvolvedores, que só é possível pelo emprego de conhecimentos específicos, além de experiências e competências pessoais ligadas, essencialmente, à parametrização de funções "in abstracto".15 Significa dizer que, pelo conceito, para estruturar um conjunto de funções direcionadas à realização de tarefa específica, cria-se um código-fonte que obedecerá aos comandos previamente estabelecidos e matematicamente inseridos na build respectiva. O produto final, portanto, tem contornos de produção intelectual prototipada e usualmente sujeita a pivotagem e testagem. Porém, consolidado o código, este se torna um produto acabado e idêntico, que será acessado de forma ubíqua por todos aqueles que o adquirirem via download. Eis o traço distintivo mais interessante: a relação de consumo relativa à comercialização de passagens aéreas ou reservas de quartos de hotel cuida de objetos estáticos; por outro lado, a comercialização do software considera objeto ubíquo. Logo, não faz sentido que a precificação, no primeiro caso, leve a distinções entre consumidores; já no segundo, faz todo sentido. Como visto, a diferença primordial que se identifica entre os exemplos da geodiscriminação realizada para a comercialização de passagens aéreas ou para a reserva de quartos de hotel, em comparação com as plataformas de comercialização de jogos eletrônicos, é o objeto da precificação e não o uso de algoritmos para isso. Pela análise empreendida, está claro que a reserva de quartos de hotel ou a compra de passagens aéreas deve representar prestação de serviços idêntica para todo consumidor, sem distinção subjetiva, embora se admita a definição de categorias de produtos ou serviços conforme seus aspectos qualitativos (v.g., quartos maiores ou assentos mais confortáveis). É totalmente diferente do download de software que está hospedado em um mesmo servidor, mas que é realizado por consumidor residente num ou noutro país. O hotel ou o voo são os mesmos, são objetos estáticos; o jogo eletrônico, licenciado para venda, varia, é ubíquo.16 O art. 20, §2º, in fine, da LGPD faz referência aos 'aspectos discriminatórios' do tratamento automatizado de dados pessoais. De fato, a perfilização discriminatória é vedada, mas o ponto central da norma está no objeto da relação jurídica estabelecida, e não na prática algorítmica em si. Realizando-se o cotejo analítico dessa forma, evitar-se-á disparidade de entendimentos e a solução aplicada a cada caso refletirá, com maior exatidão, suas particularidades, evitando distorções, interpretações equivocadas ou soluções sem efeito prático. ____________ 1 ZANATTA, Rafael. Perfilização, Discriminação e Direitos: do Código de Defesa do Consumidor à Lei Geral de Proteção de Dados. ResearchGate. fev. 2019. Disponível em: https://bit.ly/3hQe5wM. Acesso em: 12 jul. 2022.  2 Segundo Danilo Doneda, os "dados, estruturados de forma a significarem para determinado sujeito uma nossa representação virtual - ou um avatar - podem ser examinados no julgamento de uma linha de crédito, de um plano de saúde, a obtenção de um emprego, a passagem livre pela alfândega de um país, além de tantas outras hipóteses". DONEDA, Danilo. Da privacidade à proteção de dados pessoais. Rio de Janeiro: Renovar, 2006, p. 2.   3 SCHWAB, Klaus. A quarta revolução industrial. Tradução de Daniel Moreira Miranda. São Paulo: Edipro, 2016, p. 115. 4 De fato, logo que o caso veio a público, em decisão inédita no Brasil, o Departamento de Proteção e Defesa do Consumidor (DPDC) condenou a fornecedora supracitada, na esfera administrativa, ao pagamento de multa no valor de R$ 7.500.000,00 (sete milhões e quinhentos mil reais) por diferenciação de preço de acomodações e negativa de oferta de vagas em hotéis, quando existentes, de acordo com a localização geográfica do consumidor. 5 O caso específico teve início a partir da atuação ministerial do Promotor de Justiça Dr. Guilherme Magalhães Martins, à época da 5ª Promotoria de Tutela Coletiva do Consumidor da Capital, do Ministério Público do Estado do Rio de Janeiro, e seguiu, com a instauração de inquérito civil (nº 347/2016) e a propositura de ação civil pública (nº 0111117- 27.2019.8.19.0001) - que também contou com a atuação do Promotor de Justiça Dr. Pedro Rubim Borges Fortes - em face da empresa "Decolar.com". Mais detalhes sobre o caso e sobre a emblemática atuação ministerial podem ser obtidos em: FORTES, Pedro Rubim Borges; MARTINS, Guilherme Magalhães; OLIVEIRA, Pedro Farias. O consumidor contemporâneo no Show de Truman: a geodiscriminação digital como prática ilícita no direito brasileiro. Revista de Direito do Consumidor, São Paulo, n. 124, p. 235-260, jul./ago. 2019; MARTINS, Guilherme Magalhães. O geo-pricing e geo-blocking e seus efeitos nas relações de consumo. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (Coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2019, p. 633-650. 6 EDER, Niklas. Privacy, non-discrimination and equal treatment: developing a fundamental rights response to behavioural profiling. In: EBERS, Martin; GAMITO, Marta Cantero (Ed.). Algorithmic governance and governance of algorithms: Legal and ethical challenges. Cham: Springer, 2021, p. 44-47. 7 Sobre os cookies e seus impactos quanto ao direito à privacidade, conferir: ZIMMERMAN, Rachel K. The way "cookies" crumble: Internet privacy and data protection in the Twenty-First Century. NYU Journal on Legislation and Public Policy, Nova York, v. 4, p. 439-464, 2000. 8 CUMMINGS, Rachel; DEVANUR, Nikhil R.; HUANG, Zhiyi; WANG, Xiangning. Algorithmic Price Discrimination. Proceedings of the Thirty-First Annual ACM-SIAM Symposium on Discrete Algorithms, Nova York, p. 2432-2451, jan. 2020. 9 SCHOLZ, Lauren H. Algorithmic contracts. Stanford Technology Law Review, Stanford, v. 20, n. 2, p. 128-168, set./dez. 2017, p. 144. 10 Sobre isso, cf. JANSKÝ, Petr; KOLCUNOVA, Dominika. Regional differences in price levels across the European Union and their implications for its regional policy. The Annals of Regional Science, Cham, v. 58, p. 641-660, 2017. 11 PARKER, Jason. Steam Region Change Now Limited to Enforce Regional Pricing. E-sportsTalk, 24 jun. 2021. Disponível em: https://www.esportstalk.com/news/steam-region-change-now-limited-to-enforce-regional-pricing/. Acesso em: 12 jul. 2022. 12 EUROPEAN COMMISSION. Antitrust: Commission fines Valve and five publishers of PC video games ? 7.8 million for "geo-blocking" practices. 20 jan. 2021. Disponível em: https://ec.europa.eu/commission/presscorner/ detail/en/ip_21_170 Acesso em: 12 jul. 2022. 13 Em 1985, Orlando Gomes escreveu: "Entendo que o 'software' é uma expressão criativa do trabalho intelectual e pessoal de quem o prepara. Essa criação da inteligência, materializando-se num corpus mechanicum que torna comunicável sua expressão, adquire individualidade definitiva, tal como se fosse um romance, um filme cinematográfico ou uma composição musical. Para ser protegido como tal basta a criatividade subjetiva, entendida como trabalho pessoal do programador - como se admite quando na obra protegida o elemento da criatividade consiste na idealização do seu plano." GOMES, Orlando. A proteção jurídica dos programas de computador. In: GOMES, Orlando; WALD, Arnoldo; ASCENSÃO, José de Oliveira; LOBO, C.A. da Silveira; ULMER, Eugen; KOLLE, Gert. A proteção jurídica do software. Rio de Janeiro: Forense, 1985, p. 15. Nessa época, a doutrina se baseava em parco repertório normativo para estruturar uma base compreensiva sobre o tema, a exemplo do Decreto-Lei nº 239/1967 e do Decreto nº 75.225/1975, relativos à política nacional de desenvolvimento científico e tecnológico; do decreto-lei 1.418/1975, relativo à tributação de contratos de software no exterior; do Decreto-Lei nº 1.996/1976, que incentivava a exportação de software; da Lei nº 5.772/1971, que instituiu o Código de Propriedade Industrial da época; da Lei nº 5.988/1973, que regulava os direitos autorais. Foi somente em 1987, com a Lei nº 7.646, que se definiu um marco normativo "quanto à proteção da propriedade intelectual sobre programas de computador e sua comercialização no País". 14 O conceito de software (programa de computador, como se convencionou designá-lo a partir de então) é apresentado logo no artigo 1º: "Art. 1º Programa de computador é a expressão de um conjunto organizado de instruções em linguagem natural ou codificada, contida em suporte físico de qualquer natureza, de emprego necessário em máquinas automáticas de tratamento da informação, dispositivos, instrumentos ou equipamentos periféricos, baseados em técnica digital ou análoga, para fazê-los funcionar de modo e para fins determinados." 15 FALEIROS JÚNIOR, José Luiz de Moura. A responsabilidade civil de programadores e desenvolvedores de software: uma análise compreensiva a partir do conceito jurídico de 'operador de dados'. In: FRAZÃO, Ana; CUEVA, Ricardo Villas Bôas (Coord.). Compliance e políticas de proteção de dados. São Paulo: Thomson Reuters Brasil, 2021, p. 815-818. 16 Segundo Maria Luiza Kurban Jobim: "O traço distintivo, portanto, entre o preço dinâmico e o preço personalizado, por mais difícil, na prática, que estes possam se demonstrar, é a relação direta entre a disponibilidade para pagamento inferida pelo fornecedor - a partir de dados pessoais e comportamentais do consumidor - com a fixação do preço. A DAP [disposição a pagar] reflete o valor atribuído pelo indivíduo às mercadorias e serviços que deseja adquirir e se refere ao maior valor monetário que as pessoas estão dispostas a pagar. (...) A lógica adjacente à implementação do preço personalizado tal como concebido no presente é relativamente recente, sendo viabilizada sobretudo pela coleta maciça de dados hoje possível no ambiente virtual." JOBIM, Maria Luiza Kurban. Precificação personalizada (personalised pricing): progresso ou retrocesso? Definições e reflexões preliminares a partir da Lei Geral de Proteção de Dados (LGPD) e da Análise Econômica do Direito (AED). In: SARLET, Gabrielle Bezerra Sales; TRINDADE, Manoel Gustavo Neubarth; MELGARÉ, Plínio (Coord.). Proteção de dados: temas controvertidos. Indaiatuba: Foco, 2021, p. 257.