Migalhas de Peso

IA em RH: O risco invisível do viés algorítmico na seleção

IA em RH promete eficiência, mas pode ocultar vieses que reforçam desigualdades. O artigo mostra os riscos das decisões automatizadas e destaca a auditoria de equidade como essencial.

30/4/2026
Publicidade
Expandir publicidade

O uso de sistemas de IA em processos de recrutamento e seleção deixou de ser tendência para se tornar prática consolidada no ambiente corporativo. Ferramentas automatizadas já são amplamente utilizadas para triagem de currículos, ranqueamento de candidatos, análise de perfis comportamentais e, em alguns casos, condução de entrevistas iniciais. A promessa é clara: Maior eficiência, redução de custos e decisões supostamente mais objetivas.

Entretanto, à medida que essas tecnologias ganham espaço, emerge um risco igualmente relevante: A reprodução e amplificação de vieses discriminatórios. A experiência prática e a literatura especializada demonstram que algoritmos não são neutros. Ao contrário, refletem os dados históricos com os quais foram treinados e as escolhas humanas embutidas em sua concepção, desde a seleção de variáveis até a definição dos critérios de sucesso do modelo.

No contexto de recursos humanos, esse fenômeno assume contornos particularmente sensíveis. Decisões automatizadas podem influenciar diretamente o acesso ao emprego, promoções e oportunidades profissionais, produzindo impactos concretos sobre direitos fundamentais, diversidade e equidade no ambiente de trabalho. Por essa razão, ganha centralidade a discussão sobre fairness, ou equidade algorítmica, especialmente diante da crescente incorporação de sistemas de IA em processos decisórios de alto impacto.

Esse debate é reforçado por frameworks normativos recentes, como a ISO/IEC 42001:2023, que introduz requisitos específicos relacionados à governança de sistemas de inteligência artificial, incluindo a necessidade de identificação, avaliação e mitigação de vieses. Mais do que uma preocupação ética abstrata, a auditoria de equidade passa a integrar o campo da conformidade, da gestão de riscos e da responsabilidade corporativa.

A compreensão do fenômeno do viés algorítmico exige, inicialmente, a identificação de suas principais origens. O chamado viés histórico decorre do uso de dados passados que refletem desigualdades estruturais. Um caso emblemático ocorreu com o sistema de recrutamento da Amazon, que passou a penalizar candidatas mulheres após ser treinado com dados predominantemente masculinos. O sistema chegou a rebaixar automaticamente currículos que continham termos associados ao gênero feminino, evidenciando como a IA pode internalizar padrões discriminatórios sem qualquer intenção explícita.

Já o viés de amostragem surge quando o conjunto de dados não representa adequadamente a diversidade da população. Em processos seletivos, isso pode ocorrer, por exemplo, quando um algoritmo é treinado majoritariamente com dados de profissionais de determinadas regiões ou formações acadêmicas específicas. Nesse cenário, candidatos fora desse padrão tendem a ser sistematicamente subavaliados, não por falta de qualificação, mas por ausência de representatividade nos dados.

Por sua vez, o viés de medição decorre da utilização de variáveis que, embora aparentemente neutras, funcionam como proxies de atributos sensíveis. Um exemplo recorrente no contexto de RH é o uso de histórico salarial como critério de avaliação. Considerando que mulheres e minorias historicamente recebem salários menores, essa variável pode perpetuar desigualdades. De forma semelhante, a utilização de localização geográfica pode atuar como proxy de raça ou classe social. Esse tipo de problema foi amplamente discutido no caso COMPAS, sistema utilizado no sistema judicial norte-americano, no qual análises independentes demonstraram maior taxa de falsos positivos para pessoas negras.

Diante desses riscos, a auditoria de fairness demanda a aplicação de métricas específicas que permitam mensurar o grau de equidade das decisões automatizadas. Uma das mais conhecidas é o disparate impact, que avalia a razão entre as taxas de aprovação de diferentes grupos. A chamada "regra dos 80%", utilizada pela EEOC (Equal Employment Opportunity Commission) nos Estados Unidos, considera que valores inferiores a esse limiar podem indicar discriminação indireta.

Outra métrica relevante é a demographic parity, que verifica se grupos distintos possuem probabilidades semelhantes de resultados positivos. Embora útil, essa métrica pode não capturar diferenças legítimas entre perfis, razão pela qual deve ser utilizada em conjunto com outras abordagens. Já o conceito de equal opportunity busca assegurar que indivíduos com o mesmo nível de qualificação tenham chances equivalentes de aprovação, sendo particularmente relevante em contextos de recrutamento e promoção.

Do ponto de vista prático, a auditoria pode ser operacionalizada por meio da análise dos dados efetivamente utilizados pelos sistemas de IA. Ao comparar, por exemplo, as taxas de aprovação de candidatos de diferentes gêneros em um processo seletivo automatizado, é possível calcular indicadores de disparate impact e identificar padrões discriminatórios. Em um cenário hipotético, se a taxa de aprovação de homens for de 60% e a de mulheres de 30%, o índice resultante indicaria forte assimetria, demandando revisão do modelo. Esse tipo de análise deve ser repetido para outros atributos relevantes, como raça, idade e origem socioeconômica, e incorporado a um processo contínuo de monitoramento.

A ISO/IEC 42001:2023, ao tratar de fairness em seus controles, reforça a necessidade de uma abordagem estruturada, abrangendo governança clara sobre o uso de IA, avaliação da qualidade e representatividade dos dados, aplicação sistemática de métricas de equidade, realização de testes periódicos, monitoramento contínuo e mecanismos de transparência. Nesse contexto, ganham destaque a documentação das decisões algorítmicas, as trilhas de auditoria e os mecanismos de explicabilidade.

A exigência de explicabilidade e a possibilidade de revisão humana das decisões automatizadas dialogam diretamente com o art. 20 da LGPD, que assegura ao titular o direito de solicitar revisão de decisões baseadas exclusivamente em tratamento automatizado. No cenário europeu, o GDPR reforça esse direito, especialmente nos artigos 13, 14 e 22, que tratam da transparência e da tomada de decisão automatizada.

Casos concretos reforçam a relevância do tema. Além do episódio envolvendo a Amazon, diversas empresas têm enfrentado questionamentos sobre o uso de IA em recrutamento. Em 2023, a FTC (Federal Trade Commission) dos Estados Unidos alertou para os riscos de discriminação em sistemas automatizados de contratação, destacando a responsabilidade das organizações em garantir que seus algoritmos não produzam efeitos discriminatórios.

Mais recentemente, iniciativas regulatórias vêm intensificando o controle sobre esses sistemas. A União Europeia, por meio do AI Act, classifica sistemas de recrutamento automatizado como de alto risco, exigindo avaliações rigorosas de impacto e medidas específicas de mitigação de vieses.

A análise do viés algorítmico também se insere no contexto mais amplo das práticas ESG, especialmente na dimensão social. Investidores e stakeholders têm pressionado empresas a adotarem práticas responsáveis no uso de tecnologia, incluindo mecanismos de auditoria, governança e transparência. A utilização de IA sem controles adequados pode resultar não apenas em riscos jurídicos, mas também em danos reputacionais significativos.

A auditoria de equidade em sistemas de inteligência artificial aplicados a recursos humanos não pode ser tratada como um elemento opcional ou meramente reputacional. Trata-se de um requisito essencial de conformidade, governança e responsabilidade corporativa, especialmente em contextos nos quais decisões automatizadas impactam diretamente o acesso ao trabalho e às oportunidades profissionais.

A integração entre métricas técnicas de fairness, estruturas de governança, requisitos normativos e fundamentos legais é o que permite diferenciar sistemas confiáveis daqueles que apenas reproduzem desigualdades históricas sob uma aparência de neutralidade tecnológica. Nesse cenário, o papel do auditor assume centralidade, não apenas como verificador de conformidade, mas como agente ativo de mitigação de riscos e promoção da justiça algorítmica.

A inteligência artificial não cria preconceitos por si só, ela aprende com os padrões existentes. Cabe às organizações, e especialmente aos profissionais responsáveis pela auditoria e governança desses sistemas, identificar, mensurar e corrigir esses desvios. Somente assim será possível assegurar que a inovação tecnológica avance em consonância com os princípios de equidade, transparência e proteção de direitos fundamentais.

Autor

Mariana Sbaite Gonçalves Mestra em direito, avogada especialista em privacidade, CIPM, CDPO, DPO, autora do livro "IA e Privacidade: O Papel do Encarregado pelo Tratamento de Dados Pessoais na Nova Era Digital".

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos