Direito Privado no Common Law

UE e EUA divergem sobre a regulamentação de gestão de riscos da IA: uma comparação transatlântica – Parte 2

Algumas comparações entre as abordagens dos EUA e da UE quanto aos riscos de IA.

19/6/2023

Em minha coluna anterior de nosso Direito privado no common law, reunimos as principais ideias do paper de autoria de Alex Engler, publicado em 25 de abril de 2023,1 no contexto de um Relatório Produzido pelo Governance Studies. Naquela ocasião, tendo como premissa que UE e EUA são fundamentais para o futuro da governança global de IA, avaliamos as abordagens dos dois blocos para o gerenciamento de riscos de IA.

Com base nas premissas lá alinhavadas, é possível traçar algumas comparações entre as abordagens dos EUA e da UE quanto aos riscos de IA. Ambos os governos adotam abordagens amplamente baseadas em risco para a regulamentação da IA e descreveram princípios semelhantes de como a IA confiável deve funcionar. Na verdade, examinando os princípios nos documentos orientadores mais recentes nos EUA (o AIBoR e o NIST AI RMF) e a Lei de IA da EU, há uma sobreposição quase perfeita.2 Todos os três documentos defendem precisão e robustez, não discriminação, segurança, transparência e responsabilidade, explicabilidade, interpretabilidade e privacidade de dados, com apenas pequenas variações. Além disso, tanto a UE quanto os EUA esperam que as organizações de padronização, tanto governamentais quanto organismos internacionais, desempenhem um papel significativo na definição de barreiras à IA.

Apesar desse amplo alinhamento conceitual, há muito mais áreas de divergência do que convergência no gerenciamento de riscos de IA. A abordagem da EU possui uma cobertura regulatória muito mais centralizada e abrangente do que a dos EUA, tanto em termos de inclusão de mais aplicações quanto de promulgação de regras obrigatórias para cada aplicação. Embora as agências dos EUA se disponham seriamente a redigir diretrizes e considerar a criação de regras para aplicativos de IA em seus domínios, a sua capacidade de impor tais regras ainda não é clara. As agências dos EUA podem atuar no sentido de ajuizar novas demandas, muitas vezes sem autoridade legal explícita para regular algoritmos. Diferentemente, o regulador da UE é capaz de impor sua regulamentação sobre aplicativos de IA, com poderes de investigação definidos, aplicando multas significativas por não conformidade.

As intervenções da UE também criarão mais transparência pública e informações sobre o papel da IA na sociedade, como por meio do banco de dados de sistemas de IA de alto risco por toda a sua jurisdição e acesso de pesquisadores independentes a dados de grandes plataformas online. Por outro lado, o governo federal dos EUA investe significativamente mais recursos em pesquisa de IA, o que pode contribuir para o desenvolvimento de novas tecnologias que mitiguem os riscos algorítmicos.

A UE e os EUA estão adotando abordagens regulatórias distintas para a IA usada para decisões socioeconômicas impactantes, como contratação, acesso educacional e serviços financeiros. A abordagem da UE tem uma cobertura mais ampla de aplicativos e um conjunto mais amplo de regras para esses aplicativos de IA. A abordagem dos EUA é mais restrita a uma adaptação da atual autoridade reguladora da agência para tentar lidar com a IA, que é muito mais limitada. Considerando-se que nos EUA muitos não esperam o porvir de uma legislação abrangente, algumas agências começaram a conduzir esse trabalho a sério, colocando-as contra intuitivamente à frente de muitas agências da UE. No entanto, espera-se que as agências dos estados membros da UE e um possível conselho de IA da UE se atualizem, com uma autoridade mais forte e financiamento obtido com base na nova Lei da UE. O fato é que autoridades desiguais entre a UE e os EUA, bem como um cronograma oscilante para os regulamentos de IA, podem tornar o alinhamento um desafio significativo.

O comércio de longa data de produtos de consumo físico entre a UE e os EUA pode ser útil para o alinhamento regulatório da IA neste contexto. Muitos produtos dos EUA já atendem às regras de segurança de produtos da UE mais rigorosas, a fim de acessar o mercado europeu sem exigir um processo de produção diferenciador.3 Não parece provável que isso seja significativamente alterado pelas novas regras da UE, que certamente afetarão os produtos comerciais, mas provavelmente não levarão a grandes mudanças no processo regulatório ou impedirão as empresas americanas de atender aos requisitos da UE. É muito provável que as regras para IA incorporadas a produtos físicos tenham um "Efeito Bruxelas", no qual os parceiros comerciais, incluindo os EUA, procuram influenciar, todavia acabam adotando os padrões da UE.

Vários tópicos atraíram esforços legislativos bem-sucedidos da UE, mas não do Congresso dos EUA. O mais notável são as plataformas online, incluindo comércio eletrônico, mídia social e mecanismos de pesquisa, que a UE abordou por meio do DSA e do DMA. Não há, no momento, nenhuma abordagem comparável nos EUA, nem mesmo a discussão sobre políticas públicas caminha para um consenso claro.

De acordo com a Lei de IA da UE, os chatbots enfrentariam uma exigência de divulgação, que atualmente está ausente nos Estados Unidos. Além disso, as tecnologias de reconhecimento facial terão regras específicas prescritas pela Lei de IA da UE, embora essas disposições continuem sendo muito debatidas.4 Até agora, a abordagem dos EUA tem sido contribuir com informações públicas por meio do programa NIST Face Recognition Vendor Test, mas não impor regras.

Da mesma forma, embora o debate europeu sobre IA generativa seja novo, é plausível que a UE inclua alguma regulamentação desses modelos na Lei de IA da UE. Isso pode incluir padrões de qualidade, requisitos para transferir informações para clientes terceirizados e/ou um sistema de gerenciamento de risco para IA generativa. No momento, não há fortes evidências de que os EUA planejem executar etapas semelhantes.

O Conselho de Comércio e Tecnologia (TTC) resulta de um acordo UE-EUA. Trata-se de um fórum para permitir negociações em andamento e uma melhor cooperação em política comercial e tecnológica. O TTC surgiu após uma série de melhorias diplomáticas entre os EUA e a UE, como trabalhar juntos em um imposto corporativo mínimo global e resolver disputas tarifárias sobre aço, alumínio e aviões.5

Após a primeira reunião ministerial do TTC EUA-UE em setembro de 2021 em Pittsburgh, a declaração inaugural incluiu uma importante seção sobre colaboração de IA no Anexo III.6 A declaração reconheceu as abordagens orientadas para o risco da UE e dos EUA,  comprometendo-se com três projetos sob a égide do avanço da IA confiável: (1) discutir a medição e avaliação da IA confiável; (2) colaborar em tecnologias de IA projetadas para proteger a privacidade; e (3) produzir em conjunto um estudo econômico sobre o impacto da IA na força de trabalho. Desde então, todos os três projetos começaram a executar entregas específicas, resultando em alguns dos resultados mais concretos do empreendimento TTC mais amplo.

a) Como parte do primeiro projeto de medição e avaliação, o TTC Joint Roadmap on Evaluation and Measurement Tools for Trustworthy AI and Risk Management foi publicado em 1º de dezembro de 2022.7 Este roteiro inclui três compromissos substantivos. Primeiro, UE e EUA trabalharão em direção a uma terminologia comum de IA confiável - pré-requisito para o alinhamento das políticas de risco de IA. Isso será promovido pela construção de uma base de conhecimento comum de métricas e metodologias, incluindo o estudo científico de ferramentas de IA confiáveis, que podem gerar algum consenso científico sobre as melhores práticas de implementação de IA. Os esforços colaborativos do TTC para documentar ferramentas e métodos provavelmente se basearão em esforços pré-existentes, especialmente o Catálogo OECD-NIST de Ferramentas e Métricas de IA, que fez progressos significativos nesta linha de trabalho.8 Este é um projeto valioso, pois um entendimento comum das ferramentas e métricas disponíveis é fundamental para operacionalizar os princípios compartilhados dos EUA e da EU;

b) De acordo com o segundo componente do Roteiro Conjunto, UE e EUA se comprometem a coordenar os seus esforços com órgãos internacionais de padronização de IA confiável. Trata-se de um reflexo da percepção dos EUA do papel fundamental que os órgãos de padronização da UE desempenharão na Lei de IA da UE. Além disso, a UE reconhece que aplicará massivos recursos para desenvolver os muitos padrões necessários para a implementação dos vários atos legislativos que afetam o gerenciamento de risco de IA. Um relatório recente da Comissão Europeia sobre o cenário de padrões de IA sugere que a UE espera obter a referida padronização da Organização Internacional de Normalização e da Comissão Eletrotécnica Internacional, órgãos internacionais de padrões que possuem acordos de cooperação com o CEN e o CENELEC, respectivamente. Além disso, o mesmo relatório da Comissão Europeia observa que já se examinam outros padrões de IA, especificamente os do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE).9

c) Por fim, o roteiro exige o rastreamento e a categorização conjunta dos riscos emergentes de IA incluindo incidentes de danos demonstrados, e o trabalho para avaliações compatíveis de sistemas de IA. De modo geral, esses são os primeiros passos para construir as bases do alinhamento sobre o risco de IA, embora Eu e USA não se comprometam muito além disso.

No segundo projeto de colaboração em IA, a UE e os EUA concordaram em desenvolver um projeto piloto sobre tecnologias de aprimoramento da privacidade (PETs). Em vez de apenas reforçar a privacidade, os PETs são uma categoria de tecnologias que visam permitir a análise de dados em larga escala, mantendo algum grau de privacidade sobre eles. Os PETs permitem o uso mais amplo de dados confidenciais do setor privado e de fontes governamentais, relacionados a imagens médicas, mobilidade de bairro, os efeitos das mídias sociais na democracia, entre outros exemplos.10 Após a terceira reunião ministerial do TTC, em 5 de dezembro de 2022, UE e EUA anunciaram um acordo para comandar PETs conjuntamente para aplicações em saúde e medicina.11

A entrega do terceiro projeto também foi lançada após a terceira reunião ministerial do TTC: um relatório sobre o impacto da IA na força de trabalho, escrito em coautoria pela Comissão Europeia e pelo Conselho de Assessores Econômicos da Casa Branca.12 O relatório destaca uma série de desafios, incluindo que a IA poderá deslocar empregos de alta qualificação não ameaçados anteriormente pela automação e que os sistemas de IA podem ser discriminatórios, tendenciosos ou fraudulentos de maneiras que afetem os mercados de trabalho. O relatório sugere o financiamento de serviços adequados de transição de trabalho, a adoção de IA que seja benéfica para os mercados de trabalho e o investimento em agências reguladoras que garantam que a contratação de IA e as práticas de gerenciamento algorítmico sejam justas e transparentes.

A construção de alinhamento transatlântico e, mais ainda, global no gerenciamento de riscos de IA será um empreendimento contínuo que abrange uma série de questões de política digital. Embora existam muitos obstáculos potenciais ao consenso transatlântico, a comparação das abordagens da UE e dos EUA para a IA eleva vários desafios emergentes como especialmente críticos.

Como primeiro desafio imediato, as regras que emergem para decisões socioeconômicas impactantes já estão levando a um desalinhamento significativo. A razão mais óbvia é que a Lei de IA da UE permite uma ampla cobertura da autoridade regulatória sobre muitos tipos de sistemas de IA, reforçando os próprios princípios da UE. Por outro lado, as agências federais dos EUA atuam restritivamente na adaptação à legislação existente dos EUA aos sistemas de IA. Embora algumas agências norte-americanas tenham autoridade para atuar de forma ampla - FTC, CFPB, EEOC - elas cobrem apenas um subconjunto dos princípios algorítmicos adotados no AIBoR e aplicados na Lei de IA da UE. Ilustrativamente, a Comissão de Valores Mobiliários dos EUA é capaz de aplicar um dever fiduciário aos algoritmos de recomendação financeira, exigindo que eles promovam o melhor interesse do investidor.13 Embora seja potencialmente uma proteção valiosa, é improvável que a política resultante mapeie perfeitamente os requisitos da Lei de IA da UE, mesmo que sejam aplicados mais especificamente a serviços financeiros (uma categoria de aplicativos de IA de alto risco na Lei de IA da UE).

Ainda não está claro se a prometida colaboração UE-EUA no desenvolvimento de padrões reduzirá significativamente esse desalinhamento. A Lei de IA da UE exige que uma ampla variedade de standards seja produzida em um curto espaço de tempo, levando a uma série de decisões, antes que os reguladores dos EUA tenham tempo para se envolver substancialmente no desenvolvimento desses padrões. Além disso, alguns reguladores dos EUA que conduzem as decisões socioeconômicas (por exemplo, CFPB, SEC e EEOC, e outros) podem não ter trabalhado de perto com órgãos de padrões como o NIST ou com órgãos de padrões internacionais como como ISO/IEC e IEEE.

Portanto, o potencial de desalinhamento nos requisitos regulatórios para decisões socioeconômicas é bastante alto. Claro, para competir na UE, as empresas dos EUA ainda podem atender aos padrões da EU, mesmo onde faltam requisitos domésticos. Contudo, se pretendem seguir as regras da UE fora de sua jurisdição, isso dependerá significativamente se o custo de cumprir as regras da UE é menor do que o custo de diferenciação, ou seja, criar diferentes processos de desenvolvimento de IA para diferentes regiões geográficas.14 Atualmente, muitos modelos de IA para decisões socioeconômicas são relativamente customizados para regiões geográficas e idiomas específicos, reduzindo assim o dano iminente de regulamentos internacionais conflitantes.

As plataformas online apresentam um segundo desafio significativo. A UE aprovou e está começando a implementar o DSA e o DMA. Esses atos têm implicações significativas para a IA nas mídias sociais, comércio eletrônico e plataformas online em geral. Enquanto isto os EUA ainda não parecem preparados para legislar sobre essas questões. Isso é particularmente preocupante, pois sistemas digitais são progressivamente integrados às plataformas, o que significa que é mais provável que conectem muitos usuários além das fronteiras internacionais. Embora a mídia social e o comércio eletrônico sejam os exemplos mais familiares, as iterações mais recentes incluem sites de educação on-line, busca de empregos e plataformas de contratação, bolsas de valores e software de monitoramento do local de trabalho implantado em empresas multinacionais.15

Essas plataformas mais recentes podem utilizar IA coberta pelas decisões socioeconômicas de alto risco da Lei de IA da UE e também regidas por agências reguladoras federais dos EUA. No entanto, as próprias plataformas também podem depender da IA para funcionar, na forma de algoritmos de rede ou sistemas de recomendação. A maioria das plataformas requer algum algoritmo, pois exibir a totalidade de uma plataforma para todos os usuários é normalmente impossível e, portanto, alguns algoritmos são necessários para decidir quais resumos, abstrações ou classificações exibir. Isso cria a possibilidade significativa de os sistemas de IA de uma grande plataforma on-line serem regidos por regulamentos para a tomada de decisões socioeconômicas (por exemplo, a Lei de IA da UE e reguladores dos EUA) e sob os requisitos da plataforma on-line (por exemplo, o DSA). Normalmente, é mais difícil que as plataformas operem sob vários regimes regulatórios distintos. Este ambiente complexo aumenta o potencial para o desalinhamento UE-EUA, na medida que a UE continua a implementar uma governança de plataforma abrangente, enquanto os desenvolvimentos políticos dos EUA permanecem obstruídos.

Um terceiro desafio emergente é a natureza mutável da implantação da IA. As novas tendências incluem o desenvolvimento de IA multiorganizacional, bem como a proliferação de técnicas como o “federated machine learning”, técnica de aprendizado de máquina que treina um algoritmo por meio de várias sessões independentes, cada uma usando seu próprio conjunto de dados. Trata-se de abordagem que contrasta com as técnicas tradicionais de aprendizado de máquina centralizado, pois permite que modelos de IA se desenvolvam em milhares ou milhões de dispositivos (por exemplo, smartphones, relógios inteligentes e óculos AR/VR), enquanto ainda são individualizados para cada usuário e sem a movimentação de dados pessoais. À medida que esses sistemas de IA começam a tocar em setores mais regulamentados, como a saúde, há um potencial significativo para conflitos regulatórios internacionais.16

O processo pelo qual os sistemas de IA são desenvolvidos, às vezes referido como a cadeia de valor da IA, está se tornando mais complexo. Um desenvolvimento notável é o surgimento de grandes modelos de IA, mais comumente grandes modelos de linguagem e grandes modelos de imagens, sendo disponibilizados em interfaces de programação de aplicativos (API) comerciais e serviços de nuvem pública. O fato de os modelos de ponta estarem disponíveis apenas por acesso remoto pode levantar novas preocupações sobre como eles são integrados, inclusive com ajuste fino, em outros softwares e aplicativos da web. Considere um desenvolvedor de IA europeu que começa com um grande modelo de linguagem disponível na API de uma empresa diferente com sede nos EUA e, em seguida, ajusta esse modelo para analisar as cartas de apresentação dos candidatos a emprego. Este aplicativo será de alto risco sob a Lei de IA da UE, e o desenvolvedor europeu teria que garantir que ele atendesse aos padrões regulatórios relevantes. No entanto, algumas qualidades exigidas do sistema de IA, como robustez ou explicabilidade, podem ser muito mais difíceis de garantir por meio do acesso remoto do modelo de terceiros, especialmente se ele tiver sido desenvolvido em um país diferente sob um regime regulador diferente.17

Recomendações de políticas públicas

Para as autoridades da UE e EUA, uma variedade de opções de políticas domésticas e internacionais ajudaria na cooperação e alinhamento atuais e futuros no gerenciamento de riscos de IA.

Os EUA devem priorizar sua agenda doméstica de gerenciamento de risco de IA. Isso inclui revisitar os requisitos da EO 13859 e obrigar as agências federais a cumprir o requisito de desenvolver planos regulatórios de IA, de forma muito mais abrangente quanto ao gerenciamento de risco de IA. Os planos regulatórios da agência federal também podem informar quais mudanças são necessárias para garantir a aplicação da lei preexistente a novos aplicativos de IA. Isso exige expansões legislativas da autoridade de regulamentação para defender os princípios de IA adotados no AIBoR, especialmente para IA utilizada em decisões socioeconômicas impactantes.

Da mesma forma, a UE tem várias oportunidades para auxiliar na cooperação futura, sem enfraquecer suas intenções regulatórias domésticas. Uma intervenção chave é permitir mais flexibilidade na implementação setorial da Lei de IA da EU, ajustando melhor os requisitos da Lei de IA para os tipos específicos de aplicativos de IA de alto risco, provavelmente melhorando a eficácia da lei. As regras de IA que podem ser adaptadas de forma flexível para aplicações específicas permitirão melhor a cooperação futura entre os EUA e a UE. Para tanto, a UE terá que gerenciar cuidadosamente a harmonização para que os reguladores dos estados membros não implementem os requisitos de alto risco de maneira diferente. Consequentemente, um mecanismo para tomar decisões de inclusão (ou seja, quais aplicativos específicos de IA são cobertos) e para adaptar detalhes dos requisitos de alto risco podem incluir os reguladores dos estados membros e a Comissão Europeia.18

Ao considerar plataformas online, a ausência de uma estrutura legal dos EUA para governança de plataforma dificulta as recomendações de políticas públicas. Os EUA devem trabalhar em direção a uma estrutura legal significativa para supervisão de plataformas online. Além disso, essa estrutura considerará o alinhamento com as leis da UE, especialmente o DSA e o DMA, pois o desalinhamento afetará negativamente os mercados e o ecossistema de informações. Enquanto isso, a UE e os EUA devem incluir sistemas de recomendação e algoritmos de rede – componentes-chave das plataformas online – ao implementar o Roteiro Conjunto TTC sobre Ferramentas de Avaliação e Medição para IA Confiável e Gerenciamento de Riscos.

Embora essas plataformas online e sistemas de IA de alto risco exijam mais atenção, a UE deve considerar cuidadosamente o impacto extraterritorial de outros aspectos de sua governança digital, especialmente aqueles que afetam sites e plataformas, como chatbots e novas considerações de IA de uso geral.19 Se a UE incluir novas regras sobre a função de IA de uso geral, deve ter cuidado para evitar requisitos excessivamente amplos (como um padrão geral de precisão ou robustez) que fazem pouco sentido para esses modelos e podem causar divisões desnecessárias nos mercados emergentes.

Os próximos esforços da UE gerarão novas informações significativas sobre a função de importantes sistemas de IA, bem como a eficácia de suas novas tentativas de governança de IA, sendo que a UE deve compartilhar proativamente essas informações com os EUA e outros parceiros. Isso inclui abrir seu processo de desenvolvimento de padrões de IA para as partes interessadas internacionais e o público, bem como garantir que os padrões resultantes estejam disponíveis gratuitamente (o que não é o caso atualmente).20

Trabalhando juntos os EUA e a UE podem aprofundar sua colaboração política no gerenciamento de riscos de IA. Trocas de políticas em nível de regulador para regulador específico de cada setor fortalecerá a capacidade de ambos os governos, ao mesmo tempo em que abrirá caminhos para a cooperação. Expandindo a experimentação colaborativa com PETs, a UE e os EUA também podem considerar investimentos conjuntos em pesquisa de IA responsável e ferramentas de código aberto que permitem a implementação de IA responsável. Por fim, a UE e os EUA devem considerar o desenvolvimento conjunto de um plano para incentivar um ecossistema transatlântico de garantia de IA, inspirando-se na estratégia do Reino Unido.21

A UE está solicitando às empresas que participem de um esforço internacional para autorregular produtos de inteligência artificial (IA) generativos. Desde que o ChatGPT foi lançado no ano passado, as empresas americanas Google e Microsoft lançaram seus próprios serviços de IA generativa, abrindo as portas para uma nova era na inovação digital.

Embora governos, empresas e a sociedade civil vejam o potencial econômico do rápido avanço das ferramentas generativas de IA, eles também temem que a nova tecnologia possa representar sérios riscos para a sociedade democrática se armada para espalhar desinformação ou se for permitida a tomada de decisões em nosso dia a dia. dia vive.

Cooperação Transatlântica no âmbito da Inteligência Artificial Generativa

Considerando que a legislação para regulamentar a IA se encontra bem atrás dos avanços nas capacidades da tecnologia, a Comissão Europeia quer liderar uma iniciativa conjunta com os EUA para estabelecer um código de conduta que as empresas assinariam voluntariamente. Afinal, mitigar o risco de extinção da IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear. Mesmo que as tratativas avancem, a legislação não terá impacto até mais ou menos dois ou três anos, sendo certo que ninguém realmente sabe do que um sistema de IA é capaz até que seja implantado em milhões de pessoas. Daí a necessidade de um arranjo alternativo para preencher o vazio legislativo que consiste em um código de conduta voluntário da IA, abrangendo não apenas UE e USA, mas também empresas de países do G7 e de parceiros como a Índia e a Indonésia, que representam cerca de um terço da população mundial.22

Esse será um passo importante para a identificação de padrões e ferramentas para uma IA confiável, bem como a fixação de taxonomia e terminologia para IA e monitoramento dos riscos emergentes que ela representa.

Resumindo:

Os EUA devem executar os planos regulatórios de IA da agência federal e utilizá-los para projetar uma governança estratégica de IA com vistas ao alinhamento UE-EUA.

A UE deve criar mais flexibilidade na implementação setorial da sua Lei de IA, permitindo maior cooperação com os EUA.

Os EUA precisam implementar uma estrutura legal para governança de plataformas online, até então UE e os EUA devem trabalhar na documentação compartilhada de sistemas de recomendação e algoritmos de rede, bem como realizar pesquisas colaborativas em plataformas online.

Os EUA e a UE devem aprofundar o compartilhamento de conhecimento em vários níveis, inclusive no desenvolvimento de standards; sandboxes de IA; grandes projetos públicos de pesquisa de IA e ferramentas de código aberto; trocas entre reguladores e desenvolvimento de um ecossistema de garantia de IA.

UE e os EUA estão implementando políticas fundamentais de gerenciamento de risco de IA – o aprofundamento da colaboração entre esses governos auxiliará a garantir que essas políticas se tornem pilares sinérgicos da governança global de IA.

Atualização

Em 14 de junho o Parlamento Europeu aprovou proposta sobre o Regulamento de Inteligência Artificial, em antecipação às conversações com os Estados-Membros da UE sobre a forma final da lei. As regras assegurarão que a IA desenvolvida e utilizada na Europa respeita plenamente os direitos e valores da UE, incluindo a supervisão humana, a segurança, a privacidade, a transparência, a não discriminação e o bem-estar social e ambiental. As regras seguem uma abordagem baseada no risco e estabelecem obrigações tanto para os fornecedores e como para aqueles que utilizam sistemas de IA, em função do nível de risco que esta pode colocar. Por consequência, os sistemas de IA com um nível de risco inaceitável para a segurança das pessoas serão proibidos, como os utilizados para classificação das pessoas com base no seu comportamento social ou nas suas características pessoais. Os eurodeputados garantiram que a classificação das aplicações de risco elevado passará a incluir sistemas de IA que prejudicam significativamente a saúde, a segurança e os direitos fundamentais das pessoas ou o ambiente.  Os fornecedores de modelos de base (um desenvolvimento novo e em rápida evolução no domínio da IA) terão de avaliar e atenuar eventuais riscos para a saúde, ambiente, segurança, direitos fundamentais, democracia e Estado de direito e registar os seus modelos na base de dados da União antes da sua introdução no mercado da UE. Os sistemas de IA generativa que têm por base tais modelos, como o ChatGPT, terão de cumprir os requisitos de transparência (revelando que os conteúdos foram gerados por IA, o que ajudará a distinguir as técnicas de manipulação de imagens - também conhecidas como deepfake - das imagens reais) e assegurar salvaguardas contra a produção de conteúdos ilegais. Terão igualmente de ser disponibilizados ao público resumos pormenorizados dos dados protegidos por direitos de autor utilizados para a sua aprendizagem.23

__________

23 Extraído em 15 de junho de 2023. Disponível aqui.

Veja mais no portal
cadastre-se, comente, saiba mais

Coordenação

Daniel Dias, professor da FGV Direito Rio. Doutor em Direito Civil pela USP (2013-2016), com períodos de pesquisa na Ludwig-Maximilians-Universität München (LMU) e no Instituto Max-Planck de Direito Comparado e Internacional Privado, na Alemanha (2014-2015). Estágio pós-doutoral na Harvard Law School, nos EUA (2016-2017). Advogado e consultor jurídico.

Nelson Rosenvald é advogado e parecerista. Professor do corpo permanente do Doutorado e Mestrado do IDP/DF. Pós-Doutor em Direito Civil na Università Roma Tre. Pós-Doutor em Direito Societário na Universidade de Coimbra. Visiting Academic na Oxford University. Professor Visitante na Universidade Carlos III, Madrid. Doutor e Mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUC/SP. Presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Foi Procurador de Justiça do Ministério Público de Minas Gerais.

Pedro Fortes é professor adjunto de Direito Constitucional da Universidade do Estado do Rio de Janeiro (UERJ), Professor no Programa de Pós-Graduação em Direito da Universidade Cândido Mendes (UCAM), Diretor Internacional do Instituto Brasileiro de Estudos de Responsabilidade Civil (IBERC) e Promotor de Justiça no Ministério Público do Rio de Janeiro. Graduado em Direito pela UFRJ e em Administração pela PUC-Rio, é DPHIL pela Universidade de Oxford, JSM pela Universidade de Stanford, LLM pela Universidade de Harvard e MBE pela COPPE-UFRJ. É coordenador do CRN Law and Development na LSA, do WG Law and Development no RCSL e do Exploring Legal Borderlands na SLSA. Foi Professor Visitante na National University of Juridical Sciences de Calcutá, Visiting Scholar na Universidade de Frankfurt e Pesquisador Visitante no Instituto Max Planck de Hamburgo e de Frankfurt.

Thaís G. Pascoaloto Venturi, tem estágio de pós-doutoramento na Fordham University - New York (2015). Doutora pela UFPR (2012), com estágio de doutoramento - pesquisadora Capes - na Faculdade de Direito da Universidade de Lisboa/Portugal (2009). Mestre pela UFPR (2006). Professora de Direito Civil da Universidade Tuiuti do Paraná – UTP e de cursos de pós-graduação. Associada fundadora do Instituto Brasileiro de Responsabilidade Civil – IBERC. Mediadora extrajudicial certificada pela Universidade da Califórnia - Berkeley. Mediadora judicial certificada pelo CNJ. Advogada e sócia fundadora do escritório Pascoaloto Venturi Advocacia.