MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Considerações sobre a utilização dos dados pessoais pela inteligência artificial à luz das normas estabelecidas pela lei 13.709/18

Considerações sobre a utilização dos dados pessoais pela inteligência artificial à luz das normas estabelecidas pela lei 13.709/18

A inteligência artificial é um fator chave no desenvolvimento progressivo de qualquer país. A ciência jurídica em geral não pode ficar alheia a este processo de inovação, devendo antecipar as implicações éticas desse fenômeno.

terça-feira, 1 de junho de 2021

Atualizado às 13:37

 (Imagem: Arte Migalhas)

(Imagem: Arte Migalhas)

Inteligência artificial é a habilidade de um computador digital ou robô controlado por computador de realizar tarefas comumente associadas a seres inteligentes, esse é o entendimento de B.J. Copeland, autor de Artificial Intelligence1. Em seu livro, o autor ressalta que ao longo dos anos a área obteve grande sucesso em processos automatizados de imagem, interpretação de som, serviços personalizados como a  Amazon e Google, motores de busca, mapeamento online, análise de dados médicos e muitos outros usos. Atualmente, com a disponibilidade de enormes bancos de dados e melhorias recentes na metodologia de aprendizado dessas máquinas, é inconteste que o desempenho da IA está alcançando ou até mesmo excedendo o nível humano em um número crescente de tarefas complexas.

Esses sistemas afetam cada vez mais áreas da vida cotidiana e, na medida em que isso ocorre, os aspectos legais e jurídicos sobre o tema também se desenvolvem. Um exemplo disso é a questão jurídica quanto a atribuição de responsabilidade na tomada de alguma decisão. A Inteligência Artificial realiza o chamado profiling ou perfilamento que consiste no estabelecimento de um perfil dos aspectos pessoais do titular, ocorre que por meio desse fenômeno algumas decisões podem causar distinções depreciativas.

Com o intuito de sanar essa questão, a União Europeia buscou adaptar novos regulamentos que implementam o chamado "direito à explicação", pelo qual o usuário pode pedir explicação sobre determinada decisão algorítmica que foi tomada sobre ele.2

No Brasil, a Lei Geral de Proteção de Dados Pessoais (lei 13.709, de 14 de agosto de 18), que tem inspiração no Regulamento Geral sobre a Proteção de Dados (GDPR), define banco de dados como conjunto estruturado de dados pessoais estabelecido em um ou vários locais, em suporte eletrônico ou físico. A mesma também adverte sobre como devemos proceder com o uso desses dados no treinamento de inteligências artificiais, tendo em vista que o algoritmo pode tomar decisões sobre temas sensíveis e gerar possíveis constrangimentos, exposição indevida dos titulares e até mesmo discriminações. O Brasil adota mecanismo semelhante ao da GDPR, pois nos termos da lei o titular dos dados tem direito a solicitar a revisão de decisões que foram tomadas com base em seus dados por sistemas automatizados.

Conforme os artigos 1º e 2° da lei, o controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial. Em caso de não oferecimento de informações baseado na observância de segredo comercial e industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em tratamento automatizado de dados pessoais.

Apesar dos conjuntos de dados se tornarem cada vez maiores e as correlações cada vez mais complexas de detectar, a LGPD visa harmonizar os requisitos burocráticos e o empoderamento individual ou coletivo quanto ao tratamento dos dados, já que viabiliza três formas de fiscalização: Pelo próprio titular através do exercício do direito de amplo acesso e de obtenção de informações (previsto no art. 18), pela Autoridade Nacional de Proteção de Dados e pelos agentes de tratamento.

Entretanto, é preciso ressaltar que não há uma observância quanto ao processo decisório realizado exclusivamente por algoritmos. A lei prevê que o titular do dado possui o direito de solicitar uma revisão humana da decisão automatizada. Esse fator é preocupante já que a utilização de Big Data, pela inteligência artificial, é independente e pode apresentar importantes problemas jurídicos, especialmente em termos de proteção.

Para os autores  Barocas e Selbs: "O Big data não é neutro"3, o que pode se afirmar é que os dados  foram coletados da sociedade e, em lógica decorrência dos fatos, na medida em que a sociedade contenha desigualdade, exclusão ou outros traços de discriminação, os dados também terão. Isso pode influenciar no processo decisório e como resultado, o tratamento irrefletido dos dados pode negar aos membros de grupos vulneráveis ??a plena participação na sociedade.

Para o uso do Big Data, uma estratégia abrangente e global se faz necessária. Cabe ressaltar que os dados por si mesmos são inúteis, isso significa que para terem uma função eles devem ser tratados. A inteligência artificial atua buscando encontrar padrões, associações e tendências ocultas que possam existir nos dados. Indústrias e grandes corporações possuem interesse neste tratamento para melhorar sua eficiência, prestando melhores serviços ao cliente e desenvolvendo novos produtos.

Ao longo do tempo, a ideia propagada era de excluir os indivíduos do direito de controlar seus próprios dados, justamente pelo interesse industrial. Atualmente, ao repensar o direito à identidade digital, a recolha e agregação de dados em Big Data não está sujeita a normas de protecção de dados, o quê nos resulta em perspectivas de confidencialidade, com possibilidade de formas específicas de discriminação.

Por essa razão, quando os algoritmos são implantados na sociedade, poucas ou nenhuma decisão é puramente técnica ou exata. O que deve ocorrer, por consequência disso, é a implementação de um projeto ético de algoritmos que requer coordenação entre recursos jurídicos e filosóficos do mais alto calibre. Um começo foi feito, com a implementação da LGPD e, posteriormente,  com a ANPD poderemos entender melhor como ficarão os limites da utilização dos dados a partir da análise dos resultados das fiscalizações.

A utilização do Big Data implica em pelo menos um paradoxo: por um lado, o Big Data garante a máxima transparência e, ao mesmo tempo, não existe uma transparência adequada quanto à sua utilização. Como a transparência é uma questão fundamental, ela influencia a capacidade de um usuário de permitir ou não a divulgação de suas informações.

Esse paradigma pode ser problemático no contexto legal. Em primeiro lugar, a lei e os dados têm múltiplas compreensões, interpretações ou significados possíveis que não podem ser interpretados pela inteligência artificial. Em segundo lugar, essas compressões ou significados são indefinidos e evoluem continuamente, de maneira que não podem ser previstos pelas máquinas. Assim, a maior disponibilidade de dados, em vez de eliminar a necessidade de teoria, aumentam a demanda por regulamentações.

Desse modo, a inteligência artificial pode levar o sistema jurídico a aceitar tomadas de decisões obscuras e não democráticas, muito distantes dos debates carregados de valores que devem guiar uma sociedade livre. Infelizmente, até o momento não há nenhuma evidência convincente de que essas deficiências estruturais, como o resultado discriminatório, possam ser superadas por tecnologia superior. Então, a solução satisfatória e momentânea deve ocorrer mediante o reconhecimento e aderência ao valor do julgamento humano no sistema jurídico, que pode ser complementado pela inteligência artificial, mas nunca substituído pelo algoritmo.

Conclui-se, portanto, que a inteligência artificial tornou-se um fator chave no desenvolvimento progressivo de qualquer país. Atualmente, pode ser observada a introdução de meios eletrônicos únicos de comunicação, como smartphones, para um desenvolvimento integrado de sistemas digitais em escala governamental e privada, em forma de aplicativos e websites. A ciência jurídica em geral não pode ficar alheia a este processo de inovação, ao mesmo tempo que a proteção dos indivíduos, na forma dos direitos tradicionais conhecidos há séculos, devem permanecer inquebráveis.

_______________

1 Professor of Philosophy and Director of the Turing Archive for the History of Computing, University of Canterbury, Christchurch, New Zealand.

2 B. Goodman and S. Flaxman. European union regulations on algorithmic decision-making and a "right to explanation". arXiv preprint arXiv:1606.08813, 2016.

3 Barocas, S. and Selbst, A. D. (2016). Big data's disparate impact. California Law Review, 104. Barocas and Selbst sum the problem up succinctly: "Big data claims to be neutral. It isn't"

Daniela Souza Gomes

Daniela Souza Gomes

Estudante de Direito IBMEC.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca