Migalhas de Peso

Algoritmos decidem seu emprego: Por que precisamos de auditoria já

A opacidade algorítmica nas relações de trabalho exige resposta jurídica urgente. Um modelo brasileiro de auditoria é essencial para garantir transparência e justiça nas decisões automatizadas.

18/7/2025

Sua jornada de trabalho, seus movimentos, suas pausas, suas interações, enfim, tudo é capturado, processado e transformado em predições sobre seu futuro laboral. Não é ficção distópica. É o capitalismo de vigilância colonizando as relações de trabalho brasileiras. Enquanto você lê este texto, algoritmos decidem quem será contratado, promovido ou demitido, operando como verdadeiras “armas de destruição matemática”: opacas, escaláveis e incontestáveis. O Direito do Trabalho brasileiro assiste passivamente a essa revolução que subverte princípios fundamentais do processo justo e da dignidade humana.

O conceito de “capitalismo de vigilância” revela a arquitetura profunda dessa transformação. Não se trata apenas de monitoramento, é a extração sistemática de dados comportamentais dos trabalhadores para alimentar sistemas preditivos que moldam e controlam o futuro laboral. O aplicativo que rastreia cada entrega, o software que monitora cada tecla digitada, o sistema que analisa expressões faciais em videoconferências, todos extraem “mais-valia comportamental” que será processada por algoritmos para prever, influenciar e determinar destinos profissionais.

As “armas de destruição matemática” no ambiente de trabalho brasileiro são especialmente perversas. Um algoritmo de recrutamento que penaliza candidatos por CEPs periféricos. Um sistema de avaliação que rebaixa trabalhadoras após licença-maternidade. Um modelo preditivo que marca como “alto risco de turnover” funcionários que acessam sites de sindicatos. Essas armas compartilham três características letais: são opacas (ninguém sabe como funcionam), são escaláveis (atingem milhões simultaneamente) e criam ciclos de retroalimentação perversos (suas previsões se tornam profecias autorrealizáveis).

A dimensão processual é crítica. Quando transportamos para o mundo do trabalho as garantias fundamentais do processo judicial, a violação é flagrante. Imagine um juiz que condena sem fundamentar, que usa critérios secretos, que não permite defesa. Seria aberração jurídica intolerável. Mas é exatamente isso que algoritmos fazem diariamente com trabalhadores brasileiros. A decisão algorítmica sobre emprego, remuneração ou demissão é ato de poder que exige as mesmas garantias processuais de qualquer decisão que afete direitos fundamentais.

O contraditório algorítmico é ficção quando o trabalhador sequer sabe que foi avaliado por máquina. A ampla defesa é impossível contra critérios ocultos por “segredo de negócio”. A fundamentação das decisões, exigência básica de qualquer ato de poder em democracia, é substituída por “outputs” numéricos sem explicação. O direito ao recurso esbarra em sistemas sem instância revisora humana com poder real. São violações processuais que, no Judiciário, anulariam qualquer decisão, mas que no mundo do trabalho algorítmico são “inovação”.

A realidade trabalhista brasileira agrava exponencialmente esses problemas. Nossa profunda desigualdade social alimenta algoritmos com dados enviesados desde a origem. Um sistema treinado com históricos de contratação de empresas brasileiras aprenderá que mulheres negras “estatisticamente” ocupam menos cargos de liderança, e perpetuará essa discriminação com eficiência matemática. A informalidade massiva cria zona cinzenta onde trabalhadores de plataforma são submetidos a controle algorítmico total sem qualquer proteção legal.

O caso dos entregadores por aplicativo exemplifica a brutalidade do sistema. Algoritmos determinam rotas que ignoram segurança, estabelecem tempos que exigem infrações de trânsito, distribuem corridas por critérios opacos que podem significar a diferença entre subsistência e fome. Quando o entregador é “deslogado” por baixa avaliação, enfrenta sentença de morte profissional sem processo, sem defesa, sem explicação. É subordinação algorítmica em sua forma mais crua: poder absoluto sem responsabilidade.

A captura de dados comportamentais no ambiente laboral brasileiro alcança níveis orwellianos. Sistemas de “people analytics” processam desde frequência no banheiro até tom de voz em reuniões. Softwares de “engajamento” analisam expressões faciais em videochamadas. Plataformas de “produtividade” contabilizam cada clique, cada pausa, cada desvio de padrão. Esses dados alimentam modelos preditivos que determinam quem é “talento” e quem é “descartável”, categorias algorítmicas que se tornam destinos profissionais.

O argumento da eficiência esconde a transferência massiva de riscos e custos para trabalhadores. Quando algoritmo “otimiza” escala de trabalho, trabalhador perde previsibilidade de renda. Quando sistema “dinamiza” preços de corridas, entregador assume volatilidade do mercado. Quando modelo “personaliza” metas, funcionário carrega pressão individualizada e cientificamente calibrada para extrair máximo rendimento. É taylorismo digital com esteroides, ou seja, a gestão científica do trabalho elevada a níveis de controle inimagináveis no século XX.

A proposta de auditoria algorítmica deve enfrentar essa complexidade. Não basta exigir transparência genérica. Precisamos de transparência qualificada que revele não apenas que decisões são tomadas por máquinas, mas como dados comportamentais são capturados, processados e monetizados. A auditabilidade técnica deve incluir testes de discriminação com recortes interseccionais de raça, gênero e classe. A contestabilidade deve garantir revisão humana substantiva, não apenas protocolar.

O modelo brasileiro precisa contemplar especificidades nacionais. Proteção reforçada para trabalhadores informais submetidos a plataformas. Vedação expressa a sistemas que perpetuem discriminações históricas. Obrigatoriedade de estudos de impacto algorítmico para sistemas que afetem mais de cem trabalhadores. Responsabilidade solidária de empresas por discriminações algorítmicas de sistemas terceirizados. São adaptações necessárias para que a auditoria não seja apenas formalidade importada, mas instrumento efetivo de justiça.

A questão sindical é crucial e negligenciada. Algoritmos de gestão fragmentam e individualizam relações de trabalho, dificultando organização coletiva. Sistemas que identificam “lideranças informais” ou “influenciadores negativos” são armas antissindicais sofisticadas. A auditoria deve garantir que algoritmos não sejam usados para discriminar atividade sindical, incluindo vedação a sistemas que monitorem, classifiquem ou penalizem engajamento em organização coletiva.

O paralelo com garantias processuais judiciais ilumina o caminho. Se exigimos que juízes fundamentem decisões, algoritmos devem explicar suas escolhas. Se vedamos julgamentos secretos, processos algorítmicos devem ser auditáveis. Se garantimos duplo grau de jurisdição, decisões automatizadas significativas devem ter instância revisora humana. Se proibimos tribunais de exceção, sistemas algorítmicos devem respeitar competências e limites legais. São transposições necessárias de conquistas civilizatórias para nova arena de poder.

A captura regulatória é risco real. Empresas de tecnologia mobilizam recursos massivos para moldar legislações a seu favor. O discurso da “inovação” e da “competitividade” é weaponizado contra direitos trabalhistas. Mas não há inovação genuína em reproduzir digitalmente opressões analógicas. Não há competitividade sustentável em corrida para o fundo do poço da precarização. A verdadeira inovação seria construir sistemas justos, transparentes e auditáveis desde a concepção.

O tempo é fator crítico. Cada dia sem regulação, práticas abusivas se consolidam. Cada momento de inércia, mais trabalhadores são submetidos a decisões opacas e potencialmente discriminatórias. Cada hesitação regulatória é aproveitada para criar fatos consumados que depois serão defendidos como “direitos adquiridos” das plataformas. A história da regulação trabalhista ensina: direitos não conquistados no momento de transformação tecnológica levam décadas para ser recuperados.

A auditoria algorítmica no mundo do trabalho não é questão técnica: é imperativo de justiça. Não é luxo regulatório: é necessidade democrática. Não é entrave à inovação: é condição para desenvolvimento tecnológico socialmente responsável. É escolha fundamental entre permitir que “armas de destruição matemática” devastem direitos trabalhistas ou construir arcabouço jurídico que garanta que a inteligência artificial sirva à dignidade humana, não à sua negação.

O futuro do trabalho será decidido por algoritmos e cabe ao Direito garantir que essas decisões respeitem nossa humanidade.

Marco Aurélio Valle Barbosa dos Anjos
Advogado trabalhista. Sócio no Valfran dos Anjos Advogados. MBA em Direito Empresarial. Pós-graduação em Trabalho e Esporte. Curso em Cambridge. Atuação destacada em contencioso, gestão e Tribunais.

Veja mais no portal
cadastre-se, comente, saiba mais

Artigos Mais Lidos

Abertura de empresas e a assinatura do contador: Blindagem ou burocracia?

3/12/2025

Como tornar o ambiente digital mais seguro para crianças?

3/12/2025

Recuperações judiciais em alta em 2025: Quando o mercado nos lembra que agir cedo é um ato de sabedoria

3/12/2025

Seguros de danos, responsabilidade civil e o papel das cooperativas no Brasil

3/12/2025

ADPF do aborto - O poder de legislar é exclusivamente do Congresso Nacional

2/12/2025