COLUNAS

  1. Home >
  2. Colunas >
  3. IA em Movimento >
  4. A ordem executiva da Califórnia sobre IA: Mecanismos jurídicos e implicações regulatórias

A ordem executiva da Califórnia sobre IA: Mecanismos jurídicos e implicações regulatórias

terça-feira, 7 de abril de 2026

Atualizado em 6 de abril de 2026 14:19

A ordem executiva assinada pelo governador Gavin Newsom em 30 de março de 2026 introduz um conjunto de exigências jurídicas aplicáveis às empresas de inteligência artificial que pretendem contratar com o Estado da Califórnia. Do ponto de vista da técnica regulatória, o ato é relevante não apenas pelo seu conteúdo imediato, mas pelo modelo de governança que inaugura: o uso do poder de compra estatal como instrumento de indução normativa em setores tecnológicos ainda carentes de regulação legislativa consolidada.

O primeiro mecanismo estabelecido pela ordem é a exigência de due diligence prévia à contratação. Antes de firmar qualquer contrato com o estado, as empresas de IA deverão apresentar e justificar suas políticas internas de segurança e privacidade. O escopo dessa análise é amplo e abrange temas de elevada sensibilidade jurídica: prevenção à disseminação de material de abuso sexual infantil, proteção contra vigilância algorítmica de indivíduos e mitigação de vieses sistêmicos nos modelos utilizados. Trata-se, em essência, de uma condicionalidade administrativa incorporada ao ciclo de contratação pública como condição de habilitação — o que Julie Cohen, em Between Truth and Power: The Legal Constructions of Informational Capitalism (2019), identificaria como uma das formas pelas quais o direito reconstrói ativamente as condições estruturais do capitalismo informacional, impondo ao mercado os limites que ele não se autorregula. A ordem executiva californiana opera precisamente nessa fratura: usa o contrato público para juridicizar escolhas arquitetônicas que, de outro modo, permaneceriam invisíveis à regulação formal.

Esse modelo tem precedentes no direito comparado. O AI Act da União Europeia, em vigor desde agosto de 2024, adota lógica semelhante ao classificar sistemas de IA por níveis de risco e impor obrigações proporcionais de transparência, documentação técnica e avaliação de conformidade antes da colocação no mercado. A Califórnia replica essa estrutura no ambiente das contratações públicas, operando como filtro de acesso ao mercado governamental sem precisar legislar de forma abrangente.

O segundo mecanismo é a cláusula de avaliação autônoma em relação às classificações federais de risco. Caso uma empresa seja considerada um risco à cadeia de suprimentos pelo governo federal, a Califórnia reserva-se o direito de realizar avaliação independente e, se concluir de forma distinta, manter o vínculo contratual. Essa previsão tem relevância técnica considerável: ela posiciona o estado como árbitro próprio de critérios de confiabilidade tecnológica, o que impõe às empresas contratadas o desafio de demonstrar conformidade em múltiplos níveis institucionais simultaneamente.

O episódio que evidenciou a pertinência dessa cláusula foi o rompimento contratual entre o Departamento de Defesa dos Estados Unidos e a Anthropic, empresa de IA que recusou que seus modelos fossem utilizados para vigilância doméstica em massa e desenvolvimento de sistemas armamentistas autônomos. O caso expôs a tensão entre os usos que organismos governamentais podem pretender fazer da IA e os limites éticos que os próprios desenvolvedores se impõem — uma discussão que vai muito além do episódio específico e que tende a se intensificar à medida que a tecnologia penetra em áreas sensíveis da administração pública.

O terceiro elemento da ordem é a exigência de marcas d'água em vídeos gerados ou manipulados por inteligência artificial no âmbito da comunicação estatal. A medida insere-se em um movimento regulatório global orientado à autenticidade do conteúdo digital. A C2PA — Coalition for Content Provenance and Authenticity —, iniciativa de padrões técnicos apoiada por empresas como Adobe, Microsoft e Google, já desenvolve protocolos de rastreabilidade de origem de conteúdo digital que convergem com essa exigência. No campo normativo, o próprio AI Act europeu contempla obrigações de transparência para conteúdos sintéticos, especialmente os denominados deepfakes. A Califórnia, ao estender essa lógica à produção do próprio estado, assume papel exemplar e cria precedente para que outros entes governamentais adotem conduta equivalente.

Do ponto de vista da teoria regulatória, a ordem executiva de Newsom representa o que a doutrina norte-americana identifica como market-leveraging regulation — ou, em vernáculo com igual rigor conceitual, regulação por indução contratual. A ideia central é a utilização do poder econômico do estado como contratante para induzir comportamentos que, por via legislativa direta, seriam mais difíceis ou demorados de alcançar. Essa lógica encontra fundamento teórico preciso na obra de Lawrence Lessig, especialmente em Code and Other Laws of Cyberspace (1999), na qual o autor demonstra que o código — a arquitetura técnica dos sistemas digitais — funciona como lei, regulando condutas com eficácia equivalente ou superior à norma jurídica formal. Ao exigir que as empresas de IA demonstrem, como condição de contratação, que seus modelos não operam como instrumentos de vigilância ou de discriminação, a Califórnia passa a regular o código através do mercado: não proíbe diretamente determinadas arquiteturas algorítmicas, mas torna sua adoção incompatível com o acesso ao mercado público. Cass Sunstein e Adrian Vermeule, em sua análise sobre o papel das agências reguladoras no direito administrativo americano, já identificavam essa tensão entre instrumentos formais de regulação e mecanismos de influência normativa exercidos pelo próprio governo como agente econômico — tensão que a ordem californiana resolve de forma pragmática e juridicamente sofisticada.

Para o Brasil, a iniciativa californiana encontra eco em um debate normativo ainda em construção. O ordenamento jurídico brasileiro já conta com marcos que tangenciam a regulação de IA: a Lei Geral de Proteção de Dados Pessoais (lei 13.709/18), que estabelece princípios aplicáveis ao tratamento automatizado de dados; o Marco Civil da Internet (lei 12.965/14), que define responsabilidades de provedores e parâmetros de neutralidade e privacidade em ambiente digital; e o decreto 9.854/2019, que instituiu a Estratégia Nacional de Inteligência Artificial e orientou as primeiras diretrizes governamentais sobre o tema.

O principal instrumento específico em discussão é o PL 2.338/23, de autoria do então presidente do Senado Federal, Rodrigo Pacheco, que dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana. Após aprovação no Senado, o projeto foi encaminhado à revisão da Câmara dos Deputados em março de 2025, nos termos do artigo 65 da Constituição Federal. Dada a necessidade de distribuição a mais de quatro comissões de mérito, a Presidência da Câmara determinou a criação de uma Comissão Especial para analisar a matéria, instalada em abril de 2025, com o Deputado Aguinaldo Ribeiro (PP-PB) designado como relator. A última ação legislativa registrada data de outubro de 2025, com a aprovação de requerimento para realização de audiência pública sobre o uso de inteligência artificial na educação básica brasileira — sinal de que o processo de instrução ainda está em curso, com ampla participação de atores da sociedade civil, academia e setor produtivo, mas sem previsão definida para o parecer do relator ou votação no plenário.

O projeto, caso aprovado, operará sobre esse conjunto normativo existente, introduzindo obrigações específicas voltadas à transparência, à gestão de riscos e à responsabilização no desenvolvimento e uso de sistemas de IA. A experiência californiana demonstra, contudo, que esse arcabouço pode ser complementado de forma criativa e eficaz pelo uso do poder de compra do Estado como vetor de conformidade — um caminho que o Brasil ainda não explorou de maneira sistemática nas suas contratações públicas com fornecedores de tecnologia e que merece atenção dos formuladores de política pública e dos operadores do direito envolvidos nos debates em curso.

Há, contudo, um campo em que o Brasil antecipou esse movimento de forma expressiva: o eleitoral. A dimensão eleitoral da regulação de IA no Brasil merece tratamento apartado, pois é precisamente nesse campo que o país tem produzido sua experiência normativa mais avançada — construída não pelo Congresso, mas pelo próprio Tribunal Superior Eleitoral, por via resolutiva, diante da inércia legislativa.

Em fevereiro de 2024, o TSE regulamentou de forma inédita o uso da inteligência artificial na propaganda eleitoral das Eleições Municipais, proibindo os deepfakes e tornando obrigatório o aviso explícito de uso de IA em todo conteúdo divulgado por partidos, candidatos e coligações. O movimento foi aprofundado para o ciclo eleitoral seguinte. Em 4 de março de 2026, o TSE publicou a Resolução n.º 23.748, que regulamenta o uso de inteligência artificial nas Eleições Gerais de outubro de 2026, proibindo a divulgação ou compartilhamento de conteúdo sintético gerado ou modificado por IA em desacordo com as regras de rotulagem, e vedando expressamente que provedores de aplicação que ofertam sistemas de inteligência artificial forneçam, ainda que solicitado pelo usuário, recomendação de candidaturas — de forma a impedir a interferência algorítmica no processo decisório de definição do voto.

O paralelo com a iniciativa californiana é revelador: enquanto Newsom usa o poder de compra do executivo estadual para condicionar o acesso das empresas de IA ao mercado público, o TSE usa seu poder normativo para condicionar o acesso dessas mesmas empresas ao mercado eleitoral. Em ambos os casos, o Estado impõe conformidade ética e técnica como requisito de operação, o que confirma que a regulação por indução, seja contratual ou resolutiva, está se consolidando como o principal instrumento de governança da IA no mundo.

Referências

BRASIL. Tribunal Superior Eleitoral. TSE proíbe uso de inteligência artificial para criar e propagar conteúdos falsos nas eleições. Brasília: TSE, 27 fev. 2024. Disponível aqui. Acesso em: 31 mar. 2026.

BRASIL. Tribunal Superior Eleitoral. Eleições 2026: TSE publica todas as resoluções que orientarão o pleito. Brasília: TSE, 4 mar. 2026. Disponível aqui. Acesso em: 31 mar. 2026.

BRASIL. Tribunal Superior Eleitoral. Resolução 23.732, de 27 de fevereiro de 2024. Altera a Resolução TSE n.º 23.610/2019 para disciplinar o uso de inteligência artificial na propaganda eleitoral. Brasília: TSE, 2024.

BRASIL. Tribunal Superior Eleitoral. Resolução 23.748, de 4 de março de 2026. Altera a Resolução TSE n.º 23.610/2019 para disciplinar o uso de inteligência artificial nas Eleições Gerais de 2026. Brasília: TSE, 2026.

BRASIL. Lei 12.965, de 23 de abril de 2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Brasília: Presidência da República, 2014.

BRASIL. Lei 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília: Presidência da República, 2018.

BRASIL. Decreto 9.854, de 25 de junho de 2019. Institui a Estratégia Nacional de Inteligência Artificial. Brasília: Presidência da República, 2019.

BRASIL. Câmara dos Deputados. PL 2.338/2023. Dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial com base na centralidade da pessoa humana. Disponível aqui. Acesso em: 31 mar. 2026.

COHEN, Julie E. Between Truth and Power: The Legal Constructions of Informational Capitalism. New York: Oxford University Press, 2019.

KANG, Cecilia. What to Know About California's Executive Order on A.I. The New York Times, Nova York, 30 mar. 2026. Disponível aqui. Acesso em: 31 mar. 2026.

LESSIG, Lawrence. Code and Other Laws of Cyberspace. New York: Basic Books, 1999.

SUNSTEIN, Cass R.; VERMEULE, Adrian. Law and Leviathan: Redeeming the Administrative State. Cambridge: Harvard University Press, 2020.

UNIÃO EUROPEIA. Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024. Estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento IA). Jornal Oficial da União Europeia, Luxemburgo, 12 jul. 2024.