Migalhas de Peso

Quando a inteligência artificial reproduz discriminação

Artigo aborda os avanços e desafios da IA, destacando vieses em algoritmos, como reconhecimento facial, e questões jurídicas. Defende dados diversificados e regulamentação para garantir equidade.

27/5/2025

Introdução

Como é notório, vivemos em uma era cada vez mais permeada pela IA - Inteligência Artificial. Desde recomendações de produtos e filtros de spam até diagnósticos médicos e carros autônomos, a IA está remodelando profundamente a nossa sociedade. Essa tecnologia, que busca emular capacidades cognitivas humanas como aprendizado, raciocínio e percepção, promete avanços extraordinários, mas também carrega consigo desafios complexos, especialmente quando seus mecanismos de aprendizado falham ou, pior, perpetuam vieses preexistentes1.

Conceito e fundamentos de inteligência artificial 

Em sua essência, a IA refere-se a sistemas computacionais capazes de realizar tarefas que normalmente exigiriam inteligência humana. Diferente de programas tradicionais que seguem instruções fixas e predeterminadas, muitos sistemas de IA, particularmente aqueles baseados em Aprendizado de Máquina (Machine Learning - ML), têm a capacidade de aprender e se adaptar a partir de dados, melhorando seu desempenho ao longo do tempo sem serem explicitamente reprogramados para cada nova nuance2.

Os algoritmos são a espinha dorsal de qualquer sistema de IA. Eles podem ser entendidos como um conjunto finito e bem definido de regras, operações e instruções passo a passo que um computador segue para resolver um problema ou executar uma tarefa3. No contexto da IA e do ML, esses algoritmos são projetados não apenas para processar dados, mas para identificar padrões, fazer previsões e tomar decisões com base nesses padrões.

O aprendizado de máquina é um subcampo da IA focado no desenvolvimento de algoritmos que permitem aos computadores aprender com os dados. Em vez de codificar regras explícitas, os desenvolvedores criam modelos que podem extrair conhecimento de grandes volumes de informação. Existem diferentes paradigmas de aprendizado, sendo o aprendizado supervisionado, o não supervisionado e o por reforço os mais comuns4.

Muitos dos avanços recentes em IA, especialmente em áreas como reconhecimento de imagem e processamento de linguagem natural, são impulsionados pelas RNAs - Redes Neurais Artificiais. Inspiradas na estrutura e funcionamento do cérebro humano, as RNAs consistem em camadas interconectadas de “neurônios” artificiais (nós computacionais). Cada conexão entre neurônios possui um “peso” associado, que determina a força da influência de um neurônio sobre o outro5.

O Deep Learning - Aprendizado Profundo é uma classe específica de algoritmos de ML que utiliza RNAs com múltiplas camadas (daí o termo “profundo”)6. Essas camadas permitem que o modelo aprenda representações de dados em diferentes níveis de abstração, começando com características simples nas camadas iniciais e combinando-as para formar conceitos mais complexos nas camadas mais profundas. Isso é particularmente eficaz para tarefas complexas como o reconhecimento facial7.

Um algoritmo de IA, especialmente uma rede neural, não nasce “sabendo”. Ele precisa ser treinado. O treinamento é o processo de ajustar os parâmetros internos do modelo (como os pesos das conexões entre neurônios) para que ele possa realizar a tarefa desejada com precisão. Esse ajuste é feito expondo o modelo a um grande conjunto de dados de treinamento8.

No aprendizado supervisionado, que é comum em tarefas de reconhecimento, o conjunto de dados de treinamento consiste em exemplos de entrada (por exemplo, imagens de rostos) e seus respectivos rótulos de saída corretos (por exemplo, a identidade da pessoa ou a presença ou ausência de um rosto). O objetivo do treinamento é fazer com que o modelo aprenda a mapear corretamente as entradas para as saídas desejadas.

Durante o treinamento, o modelo faz previsões com base nas entradas fornecidas. Para saber o quão “errada” está a previsão, utiliza-se uma “função de perda” (ou função de custo). Essa função matemática quantifica a discrepância entre a saída prevista pelo modelo e a saída real (o rótulo correto) para um determinado exemplo de treinamento9. O objetivo do treinamento é minimizar o valor dessa função de perda.

A retropropagação é o algoritmo fundamental usado para treinar redes neurais profundas no contexto do aprendizado supervisionado10. Ele funciona em duas fases principais: a)  forward pass (passagem direta): o dado de entrada é alimentado na rede, camada por camada, até que uma saída seja produzida na camada final; b) backward pass (passagem inversa): o erro (calculado pela função de perda) é propagado de volta através da rede, da camada de saída para a camada de entrada. Durante essa propagação reversa, o algoritmo calcula como cada peso na rede contribuiu para o erro total. Isso é feito usando cálculo diferencial, especificamente a regra da cadeia, para encontrar os gradientes da função de perda em relação a cada peso11.

Os gradientes calculados pela retropropagação indicam a direção e a magnitude do ajuste necessário para cada peso a fim de reduzir o erro. O algoritmo de otimização mais comum usado em conjunto com a retropropagação é o gradiente descendente (e suas variantes como Adam, RMSprop)12. Ele ajusta iterativamente os pesos na direção oposta ao gradiente (descendo a “colina” do erro), dando pequenos passos definidos por uma “taxa de aprendizado”.

Esse processo de passagem direta, cálculo do erro, retropropagação e ajuste de pesos é repetido muitas vezes para todos os exemplos no conjunto de dados de treinamento. Uma passagem completa por todo o conjunto de dados é chamada de “época”. O treinamento geralmente envolve múltiplas épocas, permitindo que o modelo refine progressivamente seus pesos e melhore seu desempenho13.

Embora a retropropagação seja dominante no aprendizado profundo supervisionado, existem outros métodos. O aprendizado por reforço, por exemplo, treina agentes para tomar sequências de decisões em um ambiente, aprendendo através de tentativa e erro e recebendo recompensas ou penalidades. O aprendizado não supervisionado busca encontrar estruturas e padrões em dados não rotulados, usando técnicas como clusterização ou redução de dimensionalidade, que também envolvem processos iterativos de ajuste de parâmetros para otimizar um objetivo específico (como agrupar dados similares)14.

Treinamento inadequado e dados enviesados

A eficácia e a precisão de um algoritmo de IA dependem crucialmente da qualidade e representatividade dos dados usados em seu treinamento. Se o conjunto de dados de treinamento for inadequado, incompleto ou, crucialmente, enviesado, o algoritmo aprenderá esses vieses e os replicará ou até amplificará em suas decisões. A falta de treinamento adequado não se refere apenas a poucas épocas, mas também, e principalmente, ao uso de dados que não refletem a diversidade do mundo real.

Um dos exemplos mais alarmantes de viés algorítmico ocorre nos sistemas de reconhecimento facial. Diversos estudos demonstraram que muitas tecnologias de reconhecimento facial comercialmente disponíveis exibem taxas de erro significativamente mais altas para indivíduos não brancos, especialmente mulheres negras, em comparação com homens brancos15. A principal causa técnica para isso é o desequilíbrio nos dados de treinamento: muitos desses sistemas foram treinados predominantemente com imagens de rostos de homens brancos.

Quando um algoritmo de reconhecimento facial é treinado com dados desbalanceados, ele se torna muito bom em identificar as características predominantes no conjunto de treinamento (por exemplo, tons de pele mais claros, características faciais associadas a etnias específicas). Consequentemente, ele não desenvolve a capacidade de distinguir com a mesma precisão as nuances e características de grupos sub-representados. Os pesos da rede neural são otimizados para minimizar o erro no conjunto de treinamento enviesado, levando a um desempenho pobre e potencialmente discriminatório quando aplicado a populações diversas no mundo real16.

Os erros de reconhecimento facial enviesados podem ter consequências graves. Em aplicações de baixa criticidade, pode ser uma inconveniência (falha ao desbloquear um smartphone). No entanto, em contextos de segurança pública ou justiça criminal, um erro de identificação pode levar a acusações falsas, detenções indevidas e condenações injustas, afetando desproporcionalmente grupos minoritários já vulneráveis. O algoritmo, treinado inadequadamente, torna-se um vetor de injustiça sistêmica.

A responsabilidade pelo erro algorítmico: um desafio jurídico

Quando um erro algorítmico, especialmente um decorrente de viés, causa dano, surge a complexa questão da responsabilidade. Quem é o responsável? O desenvolvedor que criou o algoritmo? A empresa que forneceu os dados de treinamento enviesados? A organização que implementou o sistema sem a devida validação? Ou seria o próprio algoritmo, uma entidade não humana? O direito tradicional luta para encaixar essa nova realidade em seus moldes.

Do ponto de vista jurídico-penal, a atribuição de responsabilidade a um indivíduo ou entidade por um erro algorítmico é desafiadora. A demonstração de dolo (consciência e vontade de causar o dano) é improvável na maioria dos casos de viés não intencional. Contudo, a negligência pode ser um caminho. Se for comprovado que os desenvolvedores ou implementadores falharam em seguir as melhores práticas, em auditar os dados de treinamento quanto a vieses conhecidos, ou em testar adequadamente o sistema em populações diversas antes da implantação, pode-se argumentar que houve uma violação do dever de cuidado.

Em casos em que os riscos de viés e erro eram conhecidos ou altamente previsíveis (dada a literatura científica sobre o tema, por exemplo), e mesmo assim a tecnologia foi desenvolvida ou implantada sem as devidas salvaguardas, poder-se-ia discutir figuras como a culpa consciente (o agente prevê o resultado danoso, mas acredita sinceramente que ele não ocorrerá) ou até mesmo o dolo eventual (o agente prevê o resultado, não o deseja diretamente, mas assume o risco de produzi-lo). Provar isso em relação a um sistema complexo como a IA, no entanto, é extremamente difícil.

A “caixa preta” e a dificuldade de prova

A natureza de “caixa preta” de muitas redes neurais profundas complica ainda mais a atribuição de responsabilidade17. Pode ser muito difícil entender exatamente por que um modelo específico tomou uma decisão errada ou enviesada, dificultando a demonstração da causalidade e da falha específica que levou ao dano. A falta de transparência e explicabilidade é um obstáculo técnico e jurídico significativo.

Diante desses desafios, cresce a necessidade de quadros regulatórios específicos para a IA. Isso pode incluir requisitos de transparência nos processos de treinamento, auditorias obrigatórias de dados e algoritmos para detecção de vieses, testes rigorosos em cenários diversos antes da implantação em larga escala, e mecanismos claros de responsabilização e reparação para as vítimas de erros algorítmicos.

Paralelamente à esfera penal, a responsabilidade civil oferece um caminho para a reparação dos danos causados por erros algorítmicos. Conceitos como responsabilidade pelo fato do produto (considerando o software como um produto defeituoso) ou responsabilidade objetiva (independentemente de culpa, baseada no risco da atividade) podem ser explorados para garantir que aqueles prejudicados por sistemas de IA falhos ou enviesados recebam a devida compensação.

A inteligência artificial, impulsionada por algoritmos complexos treinados através de métodos como a retropropagação, oferece um potencial imenso. No entanto, a falta de cuidado no treinamento, especialmente o uso de dados não representativos, pode incutir vieses perigosos, como o racial, com consequências devastadoras no mundo real. O erro algorítmico não é apenas uma falha técnica; é uma questão ética e, cada vez mais, jurídica18.

Conclusão

A mitigação do viés e a prevenção de erros em sistemas de IA exigem uma abordagem multidisciplinar. Engenheiros e cientistas de dados devem priorizar a coleta de dados diversos e representativos, desenvolver técnicas para detectar e corrigir vieses, e buscar maior transparência nos modelos. Juristas e legisladores precisam criar marcos legais adaptados à realidade da IA, que garantam accountability e justiça. Acima de tudo, a sociedade como um todo deve manter uma vigilância constante sobre o desenvolvimento e a aplicação dessas tecnologias poderosas, garantindo que elas sirvam ao progresso humano de forma equitativa e justa.

_________

1 BROSSI, L.; RIVIERI, E.; CASTILLO, A. Artificial Intelligence and society: some reflections from communication studies. Disponível em: .

2 BLOCH, Daniel Alexandre, Machine Learning: Models And Algorithms. Machine Learning: Models And Algorithms, Quantitative Analytics, 2018. Disponível em: .

3 BLOCH, Daniel Alexandre. op. cit. 

4 BLOCH, Daniel Alexandre. op. cit.

5 Disponível em: < https://sites.icmc.usp.br/andre/research/neural/>. Acesso em: 20.04.2025.

6 KNEUSEL, Ronald T. Como a inteligência artificial funciona. São Paulo: Novatec, 2024, p. 61-62.

7 JASSERAND, Catherine. Experiments with facial recognition technologies in public spaces: in search of an EU governance framework. In: Handbook on the Politics and Governance of Big Data and Artificial Intelligence - Elgar Handbooks in Political Science series. Coord. Andrej Zwitter e Oskar J. Gstrein, 2023, Disponível em: .

8 KNEUSEL, Ronald T. op. cit., p. 97 e ss.

9 Disponível em: . Acesso em: 02.05.2025.

10 Ibidem.

11 VON ZUBEN, Fernando J. Aspectos Adicionais de Otimização em Treinamento Supervisionado. Disponível em: . Acesso em: 14.04.2025.

12 Disponível em: < https://machinelearningmastery.com/difference-between-backpropagation-and-stochastic-gradient-descent/>. Acesso em: 01.05.2025.

13 Disponível em: . Acesso em: 02.05.2025.

14 TRINDADE, Alessandra Stefane Cândido Elias da; OLIVEIRA, Henry Poncio Cruz de. Inteligência artificial (IA) generativa e competência em informação: habilidades informacionais necessárias ao uso de ferramentas de IA generativa em demandas informacionais de natureza acadêmica-científica. Perspectivas em Ciência da Informação, Belo Horizonte, v. 29, Fluxo Contínuo, 2024: e-47485. Disponivel em: .

15 Inteligência artificial: por que as tecnologias de reconhecimento facial são tão contestadas. Disponível em: . Acesso em: 30.04.2025,

16 TAHERDOOST, Hamed, Enhancing Social Media Platforms with Machine Learning Algorithms and Neural Networks. Enhancing Social Media Platforms with Machine Learning Algorithms and Neural Networks, 2023. Disponível em: .

17 ARBIX, Glauco. A transparência no centro da construção de uma IA ética. Novos estudos CEBRAP, vol. 39, n. 02, Mai-Ago, 2020. Disponível em: .

18 HEGGLER, João Marcos; SZMOSKI, Romeu Miqueias; MIQUELIN, Awdry Feisser. As dualidades entre o uso da inteligência artificial na educação e os riscos de vieses algorítmicos. Revista Educação Social, Campinas, v. 46, 2025, Disponível em: .

João Paulo Orsini Martinelli
Advogado Criminalista, Consultor Jurídico e Parecerista; Mestre e Doutor em Direito Penal pela USP, com pós-doutoramento pela Universidade de Coimbra; Autor de livros e artigos jurídicos; Professor.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos

Abertura de empresas e a assinatura do contador: Blindagem ou burocracia?

3/12/2025

Como tornar o ambiente digital mais seguro para crianças?

3/12/2025

Recuperações judiciais em alta em 2025: Quando o mercado nos lembra que agir cedo é um ato de sabedoria

3/12/2025

Seguros de danos, responsabilidade civil e o papel das cooperativas no Brasil

3/12/2025

ADPF do aborto - O poder de legislar é exclusivamente do Congresso Nacional

2/12/2025