IA em Movimento

IA no ambiente de trabalho: Governança, compliance e o alerta do Legislativo

Projeto de lei no Brasil regula o uso de IA no trabalho, altera a CLT e prevê regras contra discriminação algorítmica, transparência, proteção à saúde mental e reforço do compliance, explica Fabio Rivelli.

30/4/2026

O debate sobre a regulação da IA - Inteligência Artificial no Brasil saiu do campo doutrinário e ganhou forma legislativa concreta. A Comissão de Ciência, Tecnologia e Inovação da Câmara dos Deputados aprovou proposta que altera a CLT - Consolidação das Leis do Trabalho para regulamentar o uso da inteligência artificial no ambiente corporativo, criando salvaguardas contra a discriminação algorítmica e protegendo a saúde mental dos empregados submetidos ao controle automatizado.

Para o advogado corporativo e para os gestores responsáveis por programas de governança e compliance, esse movimento legislativo não é uma surpresa - é a concretização de um risco normativo que empresas bem assessoradas já deveriam ter mapeado. A pergunta relevante, neste momento, não é se a regulação virá. Ela já está em curso. A pergunta é se a organização está preparada para absorvê-la sem disrupção operacional, passivo trabalhista ou dano reputacional. O que o projeto efetivamente impõe e por que isso importa para o compliance?

Projeto e relação como compliance

Certamente, o PL 3.088/24, de autoria do deputado Júnior Mano (PSB-CE) e relatado pelo deputado Lucas Ramos (PSB-PE), foi aprovado com ajustes que conferem maior segurança jurídica ao texto, flexibilizam a aplicação de multas - retirando o valor fixo - e inserem a negociação coletiva como instrumento de defesa do emprego frente à automação.

Esses ajustes são tecnicamente relevantes: a remissão à regulamentação do Poder Executivo para a fixação das sanções pecuniárias é uma escolha legislativa que permite calibragem futura, o que, do ponto de vista do risco corporativo, significa que o passivo potencial ainda não está inteiramente precificável - razão adicional para antecipar a adequação.

O texto estabelece que empregadores devem adotar medidas razoáveis para prevenir impactos à saúde física e mental - incluindo ansiedade e estresse - decorrentes do controle por IA.

Para o compliance trabalhista, isso representa a criação de duas novas frentes de exposição: a primeira, de natureza individual, vinculada ao dever de prevenção de danos psicossociais já previsto no art. 157 da CLT; a segunda, de natureza coletiva, que merece análise apartada pela sua especificidade.

O texto aprovado prevê que a adoção de IA que impacte a estrutura ocupacional poderá ser objeto de negociação coletiva para preservar empregos ou reduzir jornadas.

É importante registrar com precisão: isso não é recomendação doutrinária nem decorrência técnica do direito do trabalho - é uma escolha política do legislador, incorporada ao projeto como previsão de normativa expressa.

Do ponto de vista estritamente jurídico, o mesmo objetivo de proteção ao emprego poderia ter sido atingido por outros instrumentos, como obrigações de comunicação prévia ao Ministério do Trabalho, planos de requalificação compulsória ou critérios objetivos de avaliação de impacto.

A opção pela negociação coletiva como mecanismo central reflete uma decisão de natureza política sobre a distribuição de poder nas relações entre capital, tecnologia e trabalho - e é como tal que o assessor jurídico deve apresentá-la ao cliente, sem qualificação de mérito, mas com clareza sobre o que ela representa na prática: uma variável nova, de natureza extrajurídica, dentro do processo decisório corporativo sobre automação.

Transparência algorítmica: Da abstração ética à obrigação jurídica

Um dos eixos centrais do projeto é a transparência algorítmica aplicada às relações de trabalho. O projeto define regras para a transparência algorítmica em processos de seleção e promoção, exigindo que os critérios sejam auditáveis e livres de discriminação, além de prever a criação de um selo de boas práticas para empresas responsáveis.

A expressão “auditáveis” merece atenção técnica: ela implica que os modelos de IA utilizados em triagem de candidatos, avaliação de desempenho ou decisões de promoção devem ser documentados, explicáveis e submetidos a verificação por terceiros.

Sistemas do tipo caixa-preta - aqueles cujo processo decisório interno não é interpretável nem documentável - passam a representar risco jurídico direto, independentemente de sua acurácia técnica.

A previsão de um selo de boas práticas introduz, adicionalmente, uma lógica de governança reputacional: empresas que voluntariamente demonstrarem conformidade antecipada terão diferencial competitivo tangível em mercados de talentos, licitações e relações com investidores atentos a critérios ESG.

Do ponto de vista do advogado corporativo, a adesão proativa a esse tipo de certificação deve ser considerada como elemento de gestão de risco, e não como custo administrativo.

Fiscalização escalonada e janela de adequação

O Poder Executivo fiscalizará as normas, aplicando sanções de forma escalonada - notificação, advertência e multa - e o texto cria um processo administrativo prévio, garantindo que haja primeiro uma etapa de orientação e adequação antes da punição financeira.

Esse modelo é funcionalmente semelhante ao enforcement adotado pela Autoridade Nacional de Proteção de Dados no âmbito da lei 13.709/18, e sua adoção aqui não é casual: reflete a percepção do legislador de que a conformidade, em ambientes de inovação tecnológica, depende de aprendizado institucional tanto por parte das empresas quanto do próprio Estado.

Para o compliance, esse escalonamento representa uma janela estratégica. A empresa que iniciar hoje o mapeamento de seus sistemas automatizados de gestão de pessoas, a revisão de contratos com fornecedores de tecnologia, a adequação de políticas internas de uso de IA e o diálogo preventivo com as partes interessadas chegará ao enforcement com maturidade processual suficiente para demonstrar boa-fé e minimizar o risco de sanções.

O que o projeto ainda não é - e o que isso exige do assessor jurídico

A proposta, que tramita em caráter conclusivo, ainda será analisada pelas Comissões de Trabalho e de Constituição e Justiça e de Cidadania. O texto não é lei. Pode sofrer novas alterações antes de sua eventual promulgação.

Isso, contudo, não diminui a relevância do alerta: o processo legislativo já sinalizou com clareza o vetor regulatório, e a incerteza sobre a forma final da norma não é argumento para inação. É, ao contrário, argumento para uma arquitetura de compliance flexível, capaz de absorver variações normativas sem necessidade de reformulação completa.

Empresas que aguardam a promulgação para agir confundem o momento da obrigação formal com o momento da gestão do risco. São conceitos distintos, e essa distinção costuma ser aprendida de forma custosa. O papel do advogado corporativo é precisamente evitar que isso aconteça.

________________________

BRASIL. Câmara dos Deputados. Projeto de Lei nº 3.088, de 2024. Altera a Consolidação das Leis do Trabalho para regulamentar o uso de inteligência artificial no ambiente de trabalho. Autoria: Dep. Júnior Mano (PSB-CE). Disponível aqui. Acesso em: 26 mar. 2026.

BRASIL. Câmara dos Deputados. Agência Câmara de Notícias. Comissão aprova regras para uso de IA no ambiente de trabalho. Reportagem: Emanuelle Brasil. Edição: Geórgia Moraes. 25 mar. 2026. Disponível aqui. Acesso em: 26 mar. 2026.

BRASIL. Consolidação das Leis do Trabalho. Decreto-Lei nº 5.452, de 1º de maio de 1943. Art. 157.

BRASIL. Lei Geral de Proteção de Dados Pessoais. Lei nº 13.709, de 14 de agosto de 2018.

ORGANIZAÇÃO PARA A COOPERAÇÃO E DESENVOLVIMENTO ECONÔMICO (OCDE). Recommendation of the Council on Artificial Intelligence. Paris: OECD, 2019. Disponível aqui. Acesso em: 26 mar. 2026.

PARLAMENTO EUROPEU. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act).

Colunistas

Fabio Rivelli é advogado, sócio do escritório Lee, Brock, Camargo Advogados (LBCA); Doutorando em Direito pela PUC-SP, Mestre em Direito PUC-SP; MBA pelo INSPER, Pesquisador efetivo registrado no CNPq pela PUC-SP no grupo de Pesquisa do Capitalismo Humanista e ESG à Luz da Consciência Quântica, Palestrante da Sorbonne de Paris pelo terceiro ano consecutivo; Secretário-adjunto do Instituto do Capitalismo Humanista; DPO Setorial da Subseção Guarulhos da OAB/SP, Presidente da Comissão de Gestão Inovação e Tecnologia da OAB/SP - Subseção de Guarulhos (gestão até 2024); Coordenador adjunto em bioética e governança corporativa da Comissão de Privacidade de Dados e IA da OAB-SP; professor e autor de livros.

Ricardo Freitas Silveira é sócio da Lee, Brock, Camargo Advogados. Doutor e Mestre em Direito pelo IDP – Instituto Brasileiro de Ensino,Desenvolvimento e Pesquisa.Especialista em gestão de contencioso de volume pela FGV e gestão de departamentos jurídicos pelo Insper.Especialista em Negócios Sustentáveis pela Cambridge University.Autor do livro "Análise Preditiva e o Consumidor Litigante".Professor convidado da Saint Paul, FIA, EDP, EBRADI e PUC-PR para cursos de pós-graduação.Coordenador da pós-graduação LEGALE em Gestão de Escritórios e Departamentos Jurídicos.Coordenador do núcleo de privacidade, proteção de dados e inteligência artificial da ESA SP.Membro consultor da Comissão de Acesso à Justiça da OAB Federal.Eleito pela Revista Análise nos anos de 2020, 2021 e 2023 como um dos Advogados Mais Admirados do Brasil em Direito Digital.

Veja mais no portal
cadastre-se, comente, saiba mais