Direito Privado no Common Law

A ordem executiva de inteligência artificial: Um significativo passo dos EUA na governança pública e gestão de riscos

As questões difíceis que precisam ser enfrentadas concernem a quais critérios de decisão e provas devem ser considerados legítimos - ou pelo menos socialmente aceitáveis - para diferentes processos de tomada de decisão públicos e privados.

6/11/2023

Em 2022 foi introduzida nos EUA a Lei de Responsabilidade Algorítmica (Accountability Algorithmic Act). A AAA aborda as crescentes preocupações públicas sobre o uso generalizado de sistemas de decisão automatizados (ADS). Propõe que as organizações que implementam tais sistemas tomem várias medidas concretas para identificar e mitigar os riscos sociais, éticos e legais. Como um esforço legislativo para regular os ADS em todos os setores, a AAA dos EUA é um marco numa tendência mundial para complementar ou substituir a autorregulação neste domínio por legislação. O exemplo mais influente dessa tendência é a Lei de Inteligência Artificial proposta pela Comissão Europeia (2021).

Porém, não ficamos por aqui. Os EUA têm agora a sua política oficial de inteligência artificial mais abrangente. Na semana passada o presidente Biden assinou uma histórica ordem executiva que exige novos padrões federais para segurança, proteção e confiabilidade da IA. O estatuto lida com várias facetas da gestão de riscos e desenvolvimento da IA, estabelecendo novos padrões para tutela da privacidade dos americanos, promovendo direitos civis, defendendo consumidores e trabalhadores e incentivando a inovação e a concorrência.

A ordem ampla, com quase 20.000 palavras, utiliza o termo “inteligência artificial” para se referir a software automatizado preditivo, perceptivo ou gerador que pode imitar certas habilidades humanas.

A rápida ascensão da inteligência artificial – especificamente, sistemas generativos de IA, gerou intensa preocupação e receios existenciais sobre riscos concretos e demonstráveis no presente. Ilustrativamente, os modelos de IA agravam claramente o problema da desinformação através de deepfakes visuais e da produção instantânea de texto. Os algoritmos de aprendizagem automática codificam preconceitos que ampliam e automatizam os padrões de discriminação existentes, podendo influenciar o comportamento humano a longo prazo. Existem ameaças à privacidade nos vastos volumes de dados recolhidos através de sistemas de IA – incluindo software de reconhecimento facial – e utilizados para treinar novos modelos generativos de IA. A inteligência artificial também poderá tornar-se uma grande ameaça à segurança nacional; por exemplo, modelos de IA poderiam ser utilizados para acelerar o desenvolvimento de novas armas químicas.

A nova ordem executiva conduz os EUA a uma governança mais abrangente da IA, pois, diversamente das ações anteriores, transcende princípios e diretrizes, na medida em que algumas seções exigem ações específicas por parte das empresas de tecnologia e agências federais.

A Ordem Executiva orienta as seguintes ações:

a) Novos padrões para segurança e proteção de IA

À medida que as capacidades da IA se intensificam, também aumentam os seus riscos potenciais e as implicações para a segurança e proteção dos indivíduos. Daí a exigência sobre desenvolvedores de sistemas de IA para que compartilhem resultados dos testes de segurança e outras informações críticas com o governo dos EUA. Isto é, a Ordem Executiva exige que empresas que desenvolvam qualquer modelo básico que represente um sério risco à segurança nacional notifiquem o governo federal ao treinar o modelo e compartilhem os resultados de todos testes de segurança. Estas medidas garantem que os sistemas de IA sejam seguros, protegidos e confiáveis antes que as empresas os introduzam no mercado.

Especificamente, o requisito aplica-se a modelos contendo “dezenas de milhares de milhões de parâmetros” que foram treinados em dados abrangentes. Esta regra de transparência provavelmente se aplicará à próxima versão do GPT da OpenAI, o grande modelo de linguagem que alimenta seu chatbot ChatGPT.

b) Desenvolvimento de padrões, ferramentas e testes para garantir que os sistemas de IA sejam seguros, protegidos e confiáveis.

O Instituto Nacional de Padrões e Tecnologia estabelecerá padrões rigorosos para garantir a segurança antes da divulgação pública. O Departamento de Segurança aplicará esses padrões aos setores de infraestrutura crítica e estabelecerá o Conselho de Segurança e Proteção da IA. Além das infraestruturas críticas, serão enfrentados os riscos químicos, biológicos, radiológicos, nucleares e de segurança cibernética.

c) Proteção contra fraudes ensejadas pela IA, estabelecendo padrões e melhores práticas para detectar conteúdo gerado por IA e autenticar conteúdo oficial. O Departamento de Comércio desenvolverá orientações para autenticação de conteúdo e marcas d’água para rotular claramente o conteúdo gerado por IA. As agências federais utilizarão estas ferramentas para que os americanos saibam facilmente que as comunicações que recebem do seu governo são autênticas.

d) Estabelecimento de programa avançado de segurança cibernética para desenvolvimento de ferramentas de IA capazes de detectar e corrigir vulnerabilidades em softwares crítico, inclusive garantindo que a comunidade militar e de inteligência dos Estados Unidos utilize a IA de forma segura, ética e eficaz nas suas missões, direcionando ações para combater o uso militar da IA pelos adversários.

O fato é que, sem salvaguardas, a IA pode colocar ainda mais em risco a privacidade dos americanos. Afinal, a IA não só facilita a extração, identificação e exploração de dados pessoais, mas também aumenta os incentivos para o fazer, porque as empresas utilizam dados para treinar sistemas de IA.

Assim, a Ordem Executiva apela ao Congresso para que aprove uma legislação sobre privacidade de dados para proteger todos os americanos, especialmente as crianças, orientando as seguintes ações:

a) acelerar o desenvolvimento e o uso de técnicas de preservação da privacidade –

Incluindo aqueles que utilizam IA de ponta e que permitem treinar sistemas de IA preservando a privacidade dos dados de treinamento.

b) fortalecer a pesquisa que preserva a privacidade e tecnologias, tais como ferramentas criptográficas que preservam a privacidade dos indivíduos. A National Science Foundation trabalhará com esta rede para promover a adoção de tecnologias de ponta de preservação da privacidade por agências federais. O processo de desenvolvimento envolverá “red-teaming”, ou seja, hackers benevolentes trabalharão com os criadores do modelo para analisar preventivamente as vulnerabilidades.

c) avaliar como as agências federais coletam e utilizam informações comercialmente disponíveis que contenham dados de identificação pessoal, reforçando as orientações de privacidade para que prestem contas dos riscos de IA.

Relativamente à promoção de direitos civis, o uso irresponsável da IA pode aprofundar o preconceito e outros abusos na justiça, na saúde e na habitação. A Ordem Executiva orienta as agências a combater a discriminação algorítmica, ao mesmo tempo que direciona as autoridades a fornecer orientações claras ao mercado para evitar que algoritmos de IA sejam usados para exacerbar a discriminação.

Para garantir a justiça em todo o sistema de justiça criminal, busca-se desenvolver as melhores práticas sobre o uso de IA em sentenças, liberdade condicional e liberdade condicional, libertação e detenção antes do julgamento, avaliações de risco, vigilância, previsão de crimes e policiamento preditivo, e análise forense.

A outro giro, a IA pode trazer benefícios reais aos consumidores –tornando produtos melhores, mais baratos e disponíveis. Contudo, a IA também amplia o risco de lesar, enganar ou prejudicar de outra forma o consumidor.

Para proteger os consumidores e ao mesmo tempo garantir que a IA possa melhorar a situação dos americanos, orienta-se o uso responsável da IA nos cuidados de saúde e no desenvolvimento de medicamentos acessíveis.

Em reforço a Ordem Executiva molda o potencial da IA para transformar a educação, criando recursos para apoiar educadores na implantação de ferramentas educacionais habilitadas para IA.

Lado outro, a IA altera radicalmente o mercado de empregos e locais de trabalho da América, oferecendo a promessa de melhoria da produtividade como também os perigos de uma maior vigilância no local de trabalho, preconceitos e deslocação de empregos.

Para mitigar estes riscos, apoiar a capacidade dos trabalhadores de negociar coletivamente e investir na formação e desenvolvimento da força de trabalho que seja acessível a todos, orienta-se o desenvolvimento de princípios e melhores práticas para mitigação de danos e maximização de benefícios da IA para os trabalhadores, evitando que empregadores subcompensem a força de trabalho, avaliem injustamente as candidaturas a empregos ou interfiram na capacidade de organização dos trabalhadores.

Relativamente à promoção da inovação e da concorrência, a Ordem Executiva garante que os EUA liderem o caminho da inovação e da concorrência, catalisando pesquisas de IA nos Estados Unidos por uma ferramenta que fornecerá aos pesquisadores e estudantes acesso aos principais recursos e dados de IA em áreas vitais como saúde e mudanças climáticas. O objetivo consiste em promover um ecossistema de IA justo, aberto e competitivo, proporcionando aos pequenos desenvolvedores e empreendedores acesso a assistência técnica e recursos, auxiliando as pequenas empresas a comercializar avanços em IA, bem como expandindo a capacidade de imigrantes qualificados para estudar e trabalhar nos Estados Unidos, modernizando e simplificando critérios de vistos, entrevistas e avaliações.

Tendo em consideração que os desafios e oportunidades da IA são globais a Ordem Executiva quer expandir os compromissos bilaterais, multilaterais e multissetoriais para colaboração na IA, gerindo os seus riscos e garantindo que a tecnologia seja segura, confiável e interoperável.

A Administração dos EUA trabalha com aliados e parceiros em um quadro internacional forte de governança sobre o desenvolvimento e a utilização da IA, colaborando com Austrália, Brasil, Canadá, Chile, União Europeia, França, Alemanha, Índia, Israel, Itália, Japão, Quênia, México, Holanda, Nova Zelândia Zelândia, Nigéria, Filipinas, Singapura, Coreia do Sul, Emirados Árabes Unidos e Reino Unido.

Enfim, são muitos primeiros passos em muitas direções. Embora a policy em si não seja propriamente uma regulamentação, é um grande avanço para uma iminente regulamentação porque recolhe uma quantidade vultosa de dados através de todos os grupos de trabalho dedicados à IA e de investigação e desenvolvimento das agências. A coleta dessas informações é fundamental para os próximos passos, a final, para regular, primeiro é preciso entender o que está acontecendo.

Contudo, por mais ampla que seja a nova política, ainda existem lacunas notáveis. A ordem executiva nada diz sobre a proteção específica da privacidade dos dados biométricos, incluindo varreduras faciais e clones de voz. Também existem lacunas quando se trata de abordar o uso de IA pelo governo em aplicações de defesa e inteligência. Mesmo naquilo que a ordem aparenta ser eficiente, pode haver uma desfasagem considerável entre o que os decisores políticos esperam e o que é tecnicamente viável. A “marca d’água” é um exemplo disso. A nova política ordena que o Departamento de Comércio identifique as melhores práticas para rotular o conteúdo gerado por IA nos próximos oito meses – mas não existe um método técnico robusto e estabelecido para fazê-lo.

Portanto, a ordem executiva por si só é insuficiente para resolver todos os problemas colocados pelo avanço da IA, posto inerentemente limitada em seu poder e facilmente revertida. Por isso, a própria ordem pede ao Congresso que aprove legislação sobre privacidade de dados.  Contudo, não se pode negar se tratar de um avanço significativo que preenche uma lacuna política. A União Europeia tem trabalhado publicamente para desenvolver a UE AI Act - que está perto de se tornar lei - sem que os EUA consigam alcançar progressos semelhantes. Com a ordem executiva, há esforços a seguir e mudanças no horizonte.

As questões difíceis que precisam ser enfrentadas concernem a quais critérios de decisão e provas devem ser considerados legítimos - ou pelo menos socialmente aceitáveis - para diferentes processos de tomada de decisão públicos e privados. Responder a estas questões exige uma visão positiva do que devem ser as sociedades futuras. Os decisores políticos devem ir além das tentativas de garantir uma responsabilidade algorítmica “mínima”, concentrando-se, em vez disso, na concepção de mecanismos de governança pública que permitam às organizações atingir compromissos justificáveis dentro dos limites da permissibilidade legal.

Veja mais no portal
cadastre-se, comente, saiba mais

Coordenação

Daniel Dias, professor da FGV Direito Rio. Doutor em Direito Civil pela USP (2013-2016), com períodos de pesquisa na Ludwig-Maximilians-Universität München (LMU) e no Instituto Max-Planck de Direito Comparado e Internacional Privado, na Alemanha (2014-2015). Estágio pós-doutoral na Harvard Law School, nos EUA (2016-2017). Advogado e consultor jurídico.

Nelson Rosenvald é advogado e parecerista. Professor do corpo permanente do Doutorado e Mestrado do IDP/DF. Pós-Doutor em Direito Civil na Università Roma Tre. Pós-Doutor em Direito Societário na Universidade de Coimbra. Visiting Academic na Oxford University. Professor Visitante na Universidade Carlos III, Madrid. Doutor e Mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUC/SP. Presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Foi Procurador de Justiça do Ministério Público de Minas Gerais.

Pedro Fortes é professor adjunto de Direito Constitucional da Universidade do Estado do Rio de Janeiro (UERJ), Professor no Programa de Pós-Graduação em Direito da Universidade Cândido Mendes (UCAM), Diretor Internacional do Instituto Brasileiro de Estudos de Responsabilidade Civil (IBERC) e Promotor de Justiça no Ministério Público do Rio de Janeiro. Graduado em Direito pela UFRJ e em Administração pela PUC-Rio, é DPHIL pela Universidade de Oxford, JSM pela Universidade de Stanford, LLM pela Universidade de Harvard e MBE pela COPPE-UFRJ. É coordenador do CRN Law and Development na LSA, do WG Law and Development no RCSL e do Exploring Legal Borderlands na SLSA. Foi Professor Visitante na National University of Juridical Sciences de Calcutá, Visiting Scholar na Universidade de Frankfurt e Pesquisador Visitante no Instituto Max Planck de Hamburgo e de Frankfurt.

Thaís G. Pascoaloto Venturi, tem estágio de pós-doutoramento na Fordham University - New York (2015). Doutora pela UFPR (2012), com estágio de doutoramento - pesquisadora Capes - na Faculdade de Direito da Universidade de Lisboa/Portugal (2009). Mestre pela UFPR (2006). Professora de Direito Civil da Universidade Tuiuti do Paraná – UTP e de cursos de pós-graduação. Associada fundadora do Instituto Brasileiro de Responsabilidade Civil – IBERC. Mediadora extrajudicial certificada pela Universidade da Califórnia - Berkeley. Mediadora judicial certificada pelo CNJ. Advogada e sócia fundadora do escritório Pascoaloto Venturi Advocacia.