Migalhas de IA e Proteção de Dados

Vieses algorítmicos e o imperativo de enfrentar o racismo estrutural no Brasil

Um princípio comum às leis em matéria de proteção de dados e Inteligência Artificial é o princípio da não discriminação. Todavia, o desafio está em adequar todo o aprendizado de máquinas a partir de dados coletados a partir do que está disponível nas aplicações de Internet.

12/7/2024

Quando no verão de 1955, John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon compartilharam com o mundo a ideia de que qualquer aspecto da aprendizagem ou atividade humana poderiam ser descritos de forma precisa, permitindo que uma máquina fosse construída para simulá-la1, cunhando-lhe o termo “inteligência artificial” (“IA”), despertou-se na sociedade uma legítima expectativa - tão promissora quanto incerta.

E, embora o termo continue a chamar atenção mais de meio século depois de seu primeiro uso, há controvérsias quanto a sua proposição. Isso porque além de não ser consistente fazer uma analogia entre a autonomia de robôs e a racionalidade humana - dotado de ética, moral e valores que refletem não apenas a personalidade individual, mas a compreensão coletiva da sociedade -, a própria intenção de associar o termo autonomia (lato sensu) à máquina pode não ser ideal, tendo em vista que, muitas vezes, o que se chama autonomia na verdade representa uma “variedade de combinações algorítmicas viabilizadas por um software”2. Portanto, trata-se muito mais de uma reprodução de certos tipos de comando do que, de fato, uma escolha, realizada de forma livre e consciente.

As divergências terminológicas e conceituais quanto à IA refletem o fato de se tratar de um campo em aberto, com significativos avanços nas últimas décadas - especialmente em função do advento do deep learning3 -, mas que ainda está longe de suas potencialidades. Nesse sentido, Kai-Fu Lee4 defende que é possível explicar a evolução da IA a partir de “quatro ondas”:

(i) da internet, por exemplo, por meio do uso de algoritmos de IA que aprendem nossas preferências e passam a nos recomendar conteúdos;

(ii) de negócios, como utilizado por bancos e seguradoras que realizam mineração de dados5;

(iii) de percepção, por exemplo, o aumento do uso de sensores inteligentes; e

(iv) de autonomia, referindo-se à união das três ondas anteriores, permitindo a fusão das capacidades otimização quanto aos grandes conjuntos de dados complexos e percepção sensorial do ambiente externo, por exemplo, os carros autônomos.

Entretanto, o regulador precisa estar atento aos riscos que a IA apresenta. Um caso emblemático, julgado em julho de 2022, após o Departamento de Justiça dos Estados Unidos ter reconhecido o uso de critérios raciais, étnicos, religiosos, sexuais e de renda para definir anúncios de moradia para usuários do Facebook, atentando contra o Fair Housing Act (Lei de Habitação Justa).6

Outro caso que vale a pena ser mencionado é o escândalo envolvendo a Amazon após o preterimento de candidaturas de mulheres em detrimento a de homens por um sistema de IA para recrutamento, implicando em discriminação de gênero.7

Nota-se, ainda, o fato de influenciadores negros terem menor “entrega” e, portanto, engajamento de seus conteúdos em redes sociais8, diminuindo a possibilidade deles se tornarem influenciadores competitivos no mercado digital.

Isso ocorre porque existem “vieses algorítmicos”,9 termo cunhado para descrever as distorções e/ou injustiças resultantes das decisões automatizadas feitas por algoritmos de inteligência artificial10.  A evolução do conceito de viés algorítmico para o direito internacional tem sido gradual, mas significativa. Organizações internacionais, como a União Europeia e as Nações Unidas, têm reconhecido a importância de abordar vieses algorítmicos em suas políticas e diretrizes. Por exemplo, o Regulamento Geral de Proteção de Dados (“GDPR”) da UE inclui disposições que abordam a transparência e responsabilidade no uso de algoritmos de IA que impactam os direitos e liberdades das pessoas11.

Além disso, iniciativas globais, como a “Declaração de Montreal pelo Desenvolvimento Responsável da Inteligência Artificial” (2018)12, destacam a necessidade de garantir a equidade e a não discriminação em sistemas automatizados. No entanto, apesar do reconhecimento crescente, desafios persistem na aplicação efetiva do direito internacional para mitigar vieses algorítmicos, pois sua complexidade técnica e a falta de transparência em sua implementação continuam a ser obstáculos importantes.

Coordenação

Cintia Rosa Pereira de Lima , professora de Direito Civil da Faculdade de Direito da USP Ribeirão Preto – FDRP. Doutora em Direito Civil pela Faculdade de Direito da USP com estágio na Ottawa University (Canadá) com bolsa CAPES - PDEE - Doutorado Sanduíche e livre-docente em Direito Civil Existencial e Patrimonial pela Faculdade de Direito de Ribeirão Preto (USP). Pó-doutora em Direito Civil na Università degli Studi di Camerino (Itália) com fomento FAPESP e CAPES. Líder e Coordenadora dos Grupos de Pesquisa "Tutela Jurídica dos Dados Pessoais dos Usuários da Internet" e "Observatório do Marco Civil da Internet", cadastrados no Diretório de Grupos de Pesquisa do CNPq e do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Presidente do Instituto Avançado de Proteção de Dados – IAPD - www.iapd.org.br. Associada Titular do IBERC - Instituto Brasileiro de Responsabilidade Civil. Membro fundador do IBDCONT - Instituto Brasileiro de Direito Contratual. Advogada.

Cristina Godoy Bernardo de Oliveira , professora doutora da Faculdade de Direito de Ribeirão Preto – Universidade de São Paulo desde 2011. Academic Visitor da Faculty of Law of the University of Oxford (2015-2016). Pós-doutora pela Université Paris I Panthéon-Sorbonne (2014-2015). Doutora em Filosofia do Direito pela Faculdade de Direito da USP (2011). Graduada pela Faculdade de Direito da USP (2006). Líder do Grupo de Pesquisa Direito, Ética e Inteligência Artificial da USP – CNPq. Coordenadora do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD. Coordenadora do MBA em Direito e Tecnologia, oferecido pelo Centro de Inteligência Artificial e Aprendizado de Máquina (CIAAM+) da USP. https://ciaamplus.com.

Evandro Eduardo Seron Ruiz , professor Associado do Departamento de Computação e Matemática, FFCLRP - USP, onde é docente em dedicação exclusiva. Atua também como orientador no Programa de Pós-graduação em Computação Aplicada do DCM-USP. Bacharel em Ciências de Computação pela USP, mestre pela Faculdade de Engenharia Elétrica da UNICAMP, Ph.D. em Electronic Engineering pela University of Kent at Canterbury, Grã-Bretanha, professor lLivre-docente pela USP e pós-Doc pela Columbia University, NYC. Coordenador do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Nelson Rosenvald é advogado e parecerista. Professor do corpo permanente do Doutorado e Mestrado do IDP/DF. Pós-Doutor em Direito Civil na Università Roma Tre. Pós-Doutor em Direito Societário na Universidade de Coimbra. Visiting Academic na Oxford University. Professor Visitante na Universidade Carlos III, Madrid. Doutor e Mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUC/SP. Presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Foi Procurador de Justiça do Ministério Público de Minas Gerais.

Newton De Lucca , professor Titular da Faculdade de Direito da USP. Desembargador Federal, presidente do Tribunal Regional Federal da 3ª Região (biênio 2012/2014). Membro da Academia Paulista de Direito. Membro da Academia Paulista de Letras Jurídicas. Membro da Academia Paulista dos Magistrados. Vice-presidente do Instituto Avançado de Proteção de Dados.

Veja mais no portal
cadastre-se, comente, saiba mais