COLUNAS

  1. Home >
  2. Colunas >
  3. Migalhas de IA e Proteção de Dados >
  4. O impacto social causado pelo uso de algoritmos discriminatórios e a superveniência da LGPD

O impacto social causado pelo uso de algoritmos discriminatórios e a superveniência da LGPD

sexta-feira, 4 de novembro de 2022

Atualizado às 07:50

Algoritmos de inteligência artificial: um breve panorama

Algoritmos, de maneira simplificada, é uma sequência de passos para executar uma tarefa ou resolver um problema. "[...] uma sequência de raciocínios, instruções ou operações para alcançar um objetivo, sendo necessário que os passos sejam finitos e operados sistematicamente." (ROCKCONTENT, 2019, online). Assim, os algoritmos são desenvolvidos por seres humanos visando à realização de tarefas.

Atualmente, é possível afirmar que ferramentas de machine learning conseguem induzir premissas, ou seja, construir hipóteses com base em um determinado conjunto de dados (SCHIPPERS, 2018). Esses algoritmos, alimentados com dados, podem aprender a se aprimorar de forma supervisionada ou não. Um dos grandes problemas é que esse processo de aprendizagem, de maneira não supervisionada, ocorre de forma que nem os desenvolvedores e programadores conseguem entender como o algoritmo chegou a determinados resultados, esses são chamados de "caixa-preta".

Portanto, no tocante a essas decisões autônomas e aos algoritmos "caixas-pretas", nota-se um aspecto bastante problemático à medida que, contemporaneamente, eles são utilizados para definir perfis pessoais, profissionais, de consumo e de crédito ou dos aspectos da personalidade da pessoa natural, aliás, expressões essas que constam na Lei Geral de Proteção de Dados (lei 13.709/2018).

Porque alguns algoritmos possuem vieses discriminatórios

Em primeiro lugar, é válido comentar a compreensão acerca do fenômeno do enviesamento, que se entende pela discriminação baseada no tratamento automatizado de dados pessoais, em outros dizeres, o processo de tomada de decisão por algoritmos que resulta em tratamento injusto para os afetados. Em sentido semelhante, Alex Winetzki, diretor de pesquisa e desenvolvimento (P&D) da Stefanini pontua que "A inteligência artificial é reflexo da visão de mundo do homem, o algoritmo não conhece o argumento moral. [...] Se os dados são de baixa qualidade, o resultado também será ruim." (NOOMIS, 2020, online).

A partir disso, o aprendizado de máquina (machine learning) é um ramo da inteligência artificial que envolve o aprendizado a partir de dados, a captação de padrões e a automatização de decisões (SILVA, 2021). Ao invés de elaboradores desenvolverem códigos enormes e rotinas com instruções específicas para que a máquina realize determinadas tarefas e consiga resultados, no aprendizado de máquina, treina-se o algoritmo para que ele possa aprender por conta própria, e até mesmo conseguir resultados que os desenvolvedores nem poderiam imaginar.

Nesse treinamento, há a necessidade de quantidades exacerbadas de dados que precisam ser fornecidos aos algoritmos permitindo que eles se ajustem e melhorem cada vez mais seus resultados. Nessa linha, nasce o conceito de discriminação algorítmica, esse fenômeno entende-se pelo enviesamento baseado no tratamento e na tomada de decisões a partir de dados pessoais. Ou seja, o processo de tomada de decisão por algoritmos que resulta em um tratamento injusto para os afetados.

Outrossim, de acordo com Gustavo Babo (2020, online): "A intenção dos algoritmos é, na maioria das vezes, tomar decisões sobre o futuro baseados em estatísticas do passado, realizando a predição de uma situação." Esse comportamento é problemático à medida que utilizar dados antigos faz com que os algoritmos reproduzam cenários que podem não condizer com a realidade vivenciada no momento do desenvolvimento e da utilização do sistema. Podendo assim, reproduzir preconceitos institucionalizados historicamente pela sociedade.

Essa é a forma de viés mais comum nos algoritmos de inteligência artificial. (BABO, 2020). Dados históricos utilizados pelo sistema ampliam os vieses existentes na sociedade reproduzindo preconceitos nas decisões autônomas realizadas por um algoritmo teoricamente neutro. E isso ocorre porque as aplicações de inteligência artificial, mediante as técnicas de machine learning e de deep learning, utilizam padrões estatísticos na vasta quantidade de dados que recebem para sua tomada de decisão. Karen Hao (2019, online) em uma publicação no blog MIT Technology Review, afirma que:

Como vimos antes, os algoritmos de aprendizado de máquina usam estatísticas para encontrar padrões nos dados. Portanto, se você fornecer dados históricos de crimes, ele selecionará os padrões associados a crime. Mas esses padrões são correlações estatísticas - nem de longe o mesmo que as causas. Se um algoritmo descobriu, por exemplo, que a baixa renda está correlacionada com a alta reincidência, não ficaria claro se a baixa renda realmente causou o crime. Mas é exatamente isso que 39 as ferramentas de avaliação de risco fazem: transformam percepções correlativas em mecanismos de pontuação causal.

Panorama jurídico em matéria de inteligência artificial

A criação de normas jurídicas e a aplicação e interpretação do direito demandam do legislador tempos próprios de modo que não cedam a pulsões intempestivas e populistas, em certas vezes, que se façam sentir. Por essa razão, o espaço jurídico entra em desconserto com fenômenos de alta volatilidade. A tecnologia, e em particular a inteligência artificial, é exatamente um desses casos. A rapidez do processo de surgimento e esquecimento de certos eventos leva o Direito a vários níveis de dificuldade.

A primeira dificuldade reconhecida é a descrição da matéria  a ser regulada ao passo que o intérprete entenda genuinamente do que se trata aquele instrumento legislativo. Surge a questão de como  normatizar uma realidade que é, ontologicamente, extrajurídica. Ou seja, como colocar em letra de lei o que é polimórfico, volátil e, muitas vezes, passageiro. De nada serve uma definição que não consegue expressar de modo adequado e transparente o que está a ser definido a seu público. É por isso importante a concreção de um equilíbrio entre a determinabilidade e a intemporalidade.

Em segundo lugar, a hiperespecialização acadêmica leva a que os operadores judiciários, preparados quase exclusivamente para a tarefa de leitura de instrumentos normativos, não disponham da capacidade técnica de compreensão do horizonte material que cada um dos termos técnicos relacionados a essas tecnologias demandam. Esta circunstância, fomentada pela falta de aposta na multidisciplinaridade da formação profissional culmina na impossibilidade de apreciação autónoma do caso que necessite de ser qualificado juridicamente.

Definições que, visando a resistir à temporalidade de algumas tecnologias, se resumem em redações terminológicas de um elevado grau de abstração, tal que, embora logrando o objetivo visado, falham no que é essencial: fornecer ao intérprete do direito um apoio hermenêutico útil. Com isso, a inteligência artificial e a robótica continuam a ser tópicos que não tem merecido a atenção devida, sendo descortinados apenas pequenos afloramentos normativos em textos legais dispersos.

Impacto social causado por algoritmos enviesados

Para iniciarmos essa conversa, é válido trazer o exemplo do caso Apple Card que elucida exatamente os problemas do uso de algoritmos de inteligência artificial treinados a partir de dados enviesados. O impasse aconteceu porque o sistema estabeleceu uma pontuação dos usuários (score) para a concessão de crédito no cartão, sendo que homens receberam um crédito maior do que mulheres. Portanto, o algoritmo apresentou um viés discriminatório quanto ao gênero. Em razão da da Lei chamada ECOA (Equal Credit Opportunity Act) dos EUA, publicada em 1976, tornou-se proibido solicitar informações quanto ao gênero nos formulários de abertura de pedido de crédito bancário, no entanto, tal fato fez com que o treinamento de máquina não soubesse distinguir o gênero dos usuários, logo, não foi possível corrigir discriminações existentes na sociedade. Esse exemplo é muito importante para compreendermos que na inteligência artificial, é necessário introduzir a discriminação para corrigí-la.

O caso ilustrado demonstra como o fenômeno de discriminação algorítimica pode impactar a sociedade. O fato da tomada de decisão do algoritmo ter feito com que mulheres alcançassem um limite mais baixo de crédito pode afastá-las, por exemplo, de empreenderem para obter sua liberdade e independência financeira. Isso pode reafirmar a violência que mulheres sofrem diariamente na sociedade brasileira e impedi-las de alcançar os direitos garantidos pela Constituição Federal de 1988.

Uma mulher, que não obtém acesso à concessão de crédito bancário, possui dificuldades para abrir o seu negócio. No caso de uma vítima de violência doméstica, por exemplo, a independência financeira seria crucial para que ela conseguisse encerrar o ciclo de violência. O artigo 3º da Lei 11.340/2006, também conhecida como Lei Maria da Penha dispõe que:

Art. 3º Serão asseguradas às mulheres as condições para o exercício efetivo dos direitos à vida, à segurança, à saúde, à alimentação, à educação, à cultura, à moradia, ao acesso à justiça, ao esporte, ao lazer, ao trabalho, à cidadania, à liberdade, à dignidade, ao respeito e à convivência familiar e comunitária.

§ 1º O poder público desenvolverá políticas que visem garantir os direitos humanos das mulheres no âmbito das relações domésticas e familiares no sentido de resguardá-las de toda forma de negligência, discriminação, exploração, violência, crueldade e opressão.

§ 2º Cabe à família, à sociedade e ao poder público criar as condições necessárias para o efetivo exercício dos direitos enunciados no caput.

Com isso, reflete-se, portanto, o status normativo para abraçar a manifestação de práticas discriminatórias e como atinge diversas situações existenciais quando envolve o princípio da dignidade da pessoa humana. O Poder Legislativo concordou que essas situações são um reflexo da sociedade, não se pode permitir que fenômenos emergentes, como a inteligência artificial, tenham um início discriminatório e sejam considerados, em certas situações, um firmador de discriminações, embora este seja apenas um reflexo social treinado a partir de dados enviesados com a realidade cotidiana.

A superveniência da Lei Geral de Proteção de Dados (LGPD)

A superveniência da LGPD ocorreu após o caso da Cambridge Analytica. A coleta de dados de usuários para traçar perfis psicográficos sem autorização devida foram influenciadoras de debates políticos no mundo. A LGPD disciplinou sobre a operação realizada com dados pessoais no que se refere à coleta, à utilização, ao processamento e ao armazenamento e seus consequentes efeitos externos. A amplitude da lei inseriu a percepção de dados pessoais, incluindo registros sobre raça, opiniões políticas, crenças, dados de saúde, etc.

Dentro desse contexto, foi fomentado no âmbito brasileiro a proteção de dados pessoais em direito positivado de fato a partir de legislação infraconstitucional em sua máxima eficácia. A esfera da articulação em consonância com a estrutura constitucional vigente estabelece parâmetros sobre a utilização de dados pessoais, tanto para os diversos segmentos sociais e econômicos como para entes governamentais. (MAGRINI, 2019, p.94)

A consolidação em legislações, padrões, normas e boas práticas na estrutura evolutiva das tecnologias de informação acompanham o desenvolvimento da inovação que a princípio não deve ser restringido para não afetar o desempenho, coexistindo com o campo jurídico para correlacionar soluções para a convivência e conveniência lícita das novas ferramentas (FERNANDES; GOLDIM, 2022).

Conclusão

Diante do que fora exposto, pode-se afirmar que a discriminação algoritmica necessita de regulamentação jurídica, sendo encessário disciplinar os fenômenos emergentes das novas tecnologias. O enviesamento é decorrente das desigualdades sociais, no entanto, deve-se evitar o fortalecimento e a reprodução das mesmas. Assim, é preciso verificar qual é a melhor forma de legislar sobre o assunto e é relevante notar que é preciso saber identificar as diferenças na sociedade para introduzi-las no aprendizado de máquinas destinadas à automatização das decisões. Consequentemente, o desafio para os próximos anos é elevado, mas é necessário para que não sejam perpetuadas as discriminações existentes no País.

Referências

BABO, Gustavo Schainberg S.. Discriminação Algorítmica: Origens, Conceitos e Perspectivas Regulatórias. 2020. Disponível aqui. Acesso em: 10 out. 2022.

FERNANDES, Márcia Santana; GOLDIM, José Roberto. Brasil e a Inteligência Artificial na área da saúde - Parte I. Migalhas de Proteção de dados, 2022. Disponível aqui. Acesso em: 01 nov. 2022.

HAO, Karen. MIT Technology Review. AI is sending people to jail-and getting it wrong. 2019. Disponível aqui. Acesso em: 18 out. 2022.

MAGRANI, Eduardo. Entre dados e robôs: ética e privacidade na era da hiperconectividade. 2. ed. Porto Alegre. Arquipélago Editorial, 2019.

NOOMIS. Treine bem seus algoritmos para evitar decisões tendenciosas. 2020. Disponível aqui. Acesso em: 18 out. 2022.

NOVAIS, Paulo; FREITAS, Pedro Miguel. Inteligência artificial e regulação de algoritmos. Diálogos, 2018. Disponível aqui. Acesso em 14 de out. de 2022.

SETO, Kenzo Soares. Algoritmos da Opressão: a crítica de Safiya Umoja Noble aos efeitos sociais dos vieses algorítmicos. Lugar Comum-Estudos de mídia, cultura e democracia, n. 63, p. 217-221.

SHIPPERS, Laurianne-Marie. Algoritmos que discriminam: uma análise jurídica da discriminação no âmbito das decisões automatizadas e seus mitigadores. Monografia - Escola de Direito de São Paulo, Fundação Getúlio Vargas. São Paulo, 57 p. 2018. Disponível aqui. Acesso em: 18 out 2022.

SILVA, Júlia Leal. Tomada de decisão automatizada e controle pela LGPD. Instituto Avançado de Proteção de Dados (IAPD), 2021. Disponível aqui. Acesso em: 01 nov. 2022.