Direito Digit@l

A Europa na vanguarda da regulação da Inteligência Artificial: Lições para o Brasil

Parlamento Europeu aprova legislação mais abrangente e rigorosa do mundo sobre o uso da IA.

22/3/2024

À medida que a inteligência artificial reconfigura nossas vidas, enfrentamos o desafio não apenas de construir máquinas que pensam, mas de repensar o que significa ser humano na era digital.

Em uma decisão histórica, o Parlamento Europeu aprovou a legislação mais abrangente e rigorosa do mundo sobre o uso da inteligência artificial (IA), estabelecendo um marco que certamente influenciará a abordagem global em relação a esta tecnologia emergente. Este movimento legislativo não apenas sublinha a determinação da Europa em proteger seus cidadãos e a democracia dos possíveis danos colaterais trazidos pela IA, mas também levanta questões importantes para outras nações, inclusive o Brasil, sobre como abordar a regulamentação da IA em seus próprios territórios.

A nova legislação da União Europeia (UE) destaca-se por sua abrangência e profundidade, ultrapassando as medidas adotadas tanto pelos Estados Unidos quanto pela China, os outros dois gigantes na corrida da IA. O foco ético é evidente, com regras rigorosas que incluem a rotulagem obrigatória de conteúdos gerados por IA e a proibição do uso de sistemas de reconhecimento facial, visando prevenir a disseminação de desinformação, preconceitos e discursos de ódio.

Além da proteção contra a manipulação de opiniões e escolhas dos cidadãos, a legislação enfatiza a preservação da integridade e dos direitos básicos dos indivíduos, estabelecendo limites claros para o uso de tecnologias que explorem vulnerabilidades humanas. A inclusão de regras contra ameaças à soberania nacional e às instituições democráticas europeias é particularmente relevante, exigindo supervisão humana em casos de uso de IA em contextos de alto risco, como educação, eleições e serviços públicos.

Este rigor regulatório, embora possa parecer uma restrição ao crescimento econômico impulsionado pela IA, reflete uma escolha consciente da UE de priorizar a segurança e o bem-estar de seus cidadãos sobre ganhos econômicos potenciais. Com a IA prevista para contribuir significativamente para o PIB mundial nas próximas décadas, a abordagem da Europa serve como um exemplo prudente de como os avanços tecnológicos podem ser harmonizados com a proteção dos direitos humanos e valores democráticos.

Para o Brasil, que ainda caminha lentamente na elaboração de sua própria legislação sobre IA, o caso europeu oferece insights valiosos. A complexidade da regulação da IA exige um equilíbrio entre promover inovação e prevenir abusos. Nesse sentido, o Brasil pode se beneficiar ao estudar e, possivelmente, adaptar aspectos da legislação europeia para o seu contexto, garantindo que a introdução da IA no país seja realizada de maneira responsável e ética, protegendo os cidadãos brasileiros e a integridade de suas instituições democráticas.

Enquanto a Europa estabelece as rédeas para a inteligência artificial, visando proteger seus cidadãos e a democracia, resta ao Brasil e ao resto do mundo observar, aprender e agir para assegurar que a tecnologia sirva ao bem comum, evitando os perigos que podem surgir com sua má gestão ou uso indevido. A regulação da IA não é apenas uma questão de legislação, mas um imperativo ético que desafia todas as nações a considerarem os impactos de longo alcance dessa tecnologia revolucionária.

A supervisão humana é um pilar desta legislação, exigindo que os sistemas de IA sejam equipados com interfaces apropriadas para permitir essa supervisão em uso. Isso é fundamental para manter a responsabilidade e garantir que as decisões críticas permaneçam sob controle humano. A legislação também aborda a transparência dos sistemas de IA, exigindo a identificação clara de conteúdo sintético para que os usuários estejam cientes de quando estão interagindo com conteúdos gerados por IA, visando prevenir a disseminação de desinformação e proteger a integridade das escolhas dos cidadãos.

Além disso, a legislação proíbe práticas de IA que impõem riscos inaceitáveis, como o uso de técnicas subliminares manipulativas, a exploração de vulnerabilidades devido à idade ou condição socioeconômica e a categorização de pessoas com base em dados biométricos para inferir características pessoais. Tais medidas não somente protegem os cidadãos, mas também promovem a confiança nas tecnologias de IA e oferecem um caminho para o desenvolvimento responsável e inovador nesta área.

Esta legislação pioneira reflete uma abordagem ponderada e proativa na regulação da IA, reconhecendo tanto seu potencial transformador quanto os desafios éticos e sociais que acompanham sua adoção. A UE, ao definir essas diretrizes, não apenas protege seus cidadãos, mas também sinaliza para o mundo a importância de uma abordagem equilibrada que favoreça a inovação responsável em IA. Países como o Brasil podem se inspirar nesta legislação ao desenvolver seus próprios quadros regulatórios para a IA, assegurando que a tecnologia sirva ao bem público enquanto protege os direitos e a segurança dos cidadãos.

A questão das notícias falsas, ou "fake news", é tratada com seriedade dentro da nova legislação da União Europeia sobre inteligência artificial. Este tema é particularmente relevante no contexto das capacidades avançadas de IA, como a geração de conteúdo sintético que pode incluir textos, imagens, vídeos e áudio indistinguíveis dos reais. A legislação aborda essa questão incorporando rigorosos requisitos de transparência para os sistemas de IA, com o objetivo de combater a disseminação de desinformação e garantir que os cidadãos possam identificar claramente quando o conteúdo foi gerado por IA.

Um dos pilares centrais dessa abordagem é a obrigação de rotular de forma clara e inequívoca qualquer conteúdo gerado por IA, assegurando que os usuários estejam cientes de que estão interagindo com um produto da tecnologia, e não com uma fonte humana autêntica. Isso é crucial para prevenir a manipulação e garantir que a integridade da informação seja mantida, especialmente em áreas sensíveis como notícias e informação pública.

Além disso, a legislação proíbe práticas específicas que poderiam levar à exploração da IA para fins maliciosos, como a criação de deepfakes sem a devida sinalização de que o conteúdo foi manipulado. Há também a ênfase na importância de garantir que os sistemas de IA operem dentro de um quadro ético, promovendo a confiança e a segurança entre os usuários.

Esses mecanismos de transparência e as restrições impostas pela legislação da UE visam criar um ambiente digital mais seguro e confiável, onde a veracidade e a origem da informação possam ser facilmente identificadas, combatendo assim a disseminação de notícias falsas.

A legislação da União Europeia sobre a inteligência artificial (IA) representa um marco significativo na regulação desta tecnologia, especialmente em contextos sensíveis como segurança nacional e defesa. No entanto, um aspecto notável desta legislação é a exclusão dos sistemas de IA desenvolvidos ou utilizados exclusivamente para fins militares e de segurança nacional de seu âmbito de aplicação. Esta decisão gerou um amplo debate sobre a necessidade de salvaguardas claras para assegurar que o uso da IA em contextos de segurança não comprometa as liberdades civis e os processos democráticos.

A European Center for Not-for-Profit Law (ECNL) expressou preocupações sobre as implicações desta exclusão, apontando para o potencial uso abusivo de tecnologias de IA em contextos de segurança nacional que poderiam restringir indevidamente o espaço cívico e violar direitos humanos. Casos notórios, como o uso do spyware Pegasus pelo NSO Group, ilustram como tecnologias desenvolvidas sob o pretexto de segurança nacional podem ser utilizadas para fins de vigilância e repressão além de seus propósitos originais, impactando negativamente ativistas, jornalistas e dissidentes.

A ECNL, junto com outras organizações de direitos civis, propôs emendas ao texto da legislação da IA da UE, buscando eliminar referências a "propósitos de segurança nacional" das isenções gerais e esclarecer o alcance e as implicações dos "propósitos militares". Essas propostas visam garantir que qualquer sistema de IA com potencial de uso em contextos de segurança seja submetido ao mesmo quadro regulatório aplicável a outros sistemas de IA, promovendo assim a transparência, a responsabilidade e a proteção dos direitos fundamentais.

A abordagem da UE na regulamentação da IA, incluindo as discussões em torno de seu uso em contextos de segurança nacional e defesa, destaca a complexidade de equilibrar inovação tecnológica com a proteção das liberdades e direitos civis. Este debate é crucial para o desenvolvimento responsável e ético da IA, assegurando que esta tecnologia avance de maneira que beneficie a sociedade como um todo, sem comprometer os princípios democráticos e os direitos humanos.

Conclusão

O debate em torno da legislação europeia sobre inteligência artificial (IA) e sua aplicação em campos críticos, como segurança nacional e defesa, destaca uma questão fundamental: como equilibrar a promoção da inovação tecnológica com a proteção dos direitos humanos e das liberdades civis. Este dilema não é exclusivo da Europa; ele ressoa globalmente, inclusive no Brasil, onde o desenvolvimento e a regulamentação da IA estão em crescente discussão.

A complexidade deste desafio reside na natureza dual da IA, capaz tanto de impulsionar o progresso tecnológico quanto de ameaçar a dignidade humana e a privacidade. Como tal, cabe ao legislador brasileiro a responsabilidade de elaborar uma legislação que não somente acompanhe o ritmo da inovação, mas que também esteja firmemente ancorada no respeito aos direitos fundamentais.

A criação de uma lei brasileira sobre IA deve ser um processo inclusivo, aberto ao diálogo com a sociedade civil, especialistas em tecnologia, acadêmicos e outros stakeholders, garantindo que diferentes perspectivas sejam consideradas. Além disso, é crucial que esta legislação reconheça os riscos potenciais associados ao uso indevido da IA, estabelecendo salvaguardas eficazes contra a violação de direitos humanos e promovendo a transparência e a responsabilidade dos sistemas de IA.

Ao mesmo tempo, a legislação deve incentivar o desenvolvimento e a adoção de IA no Brasil, reconhecendo seu papel essencial no progresso tecnológico e na competitividade nacional. Isso implica apoiar a pesquisa e inovação em IA, bem como facilitar a implementação de aplicações de IA que possam contribuir para o bem-estar social e econômico do país.

Em conclusão, o Brasil está diante de uma oportunidade ímpar de liderar pelo exemplo, estabelecendo uma legislação sobre IA que equilibre de forma eficaz a inovação tecnológica com a proteção da dignidade humana. Este é um debate contínuo, de importância fundamental para o futuro da sociedade brasileira na era digital, e que requer uma abordagem ponderada, informada e proativa por parte dos legisladores brasileiros.

Uma frase de Zygmunt Bauman que se aplica bem ao contexto da inteligência artificial é: "Em um mundo repleto de incertezas, a tecnologia promete ordem no caos". Essa reflexão pode ser interpretada no sentido de que a inteligência artificial, ao trazer soluções para complexidades antes inimagináveis, também nos confronta com novos desafios éticos, sociais e políticos, sublinhando a necessidade de uma abordagem crítica e consciente ao seu desenvolvimento e aplicação.

__________

Referências

Artigo do World Economic Forum sobre a regulamentação da IA pela UE.

Página inicial do Responsible AI.

Página inicial da ECNL para insights sobre IA e liberdades cívicas.

Davis Wright Tremaine sobre a Lei de Inteligência Artificial da União Europeia

Veja mais no portal
cadastre-se, comente, saiba mais

Colunistas

Coriolano Aurélio de Almeida Camargo Santos é advogado e Presidente da Digital Law Academy. Ph.D., ocupa o cargo de Conselheiro Estadual da Ordem dos Advogados do Brasil, Seção São Paulo (OAB/SP), com mandatos entre 2013-2018 e 2022-2024. É membro da Comissão Nacional de Inteligência Artificial do Conselho Federal da OAB. Foi convidado pela Mesa do Congresso Nacional para criar e coordenar a comissão de Juristas que promoveu a audiência pública sobre a criação da Autoridade Nacional de Proteção de Dados, realizada em 24 de maio de 2019. Possui destacada carreira acadêmica, tendo atuado como professor convidado da Università Sapienza (Roma), IPBEJA (Portugal), Granada, Navarra e Universidade Complutense de Madrid (Espanha). Foi convidado pelo Supremo Tribunal Federal em duas ocasiões para discutir temas ligados ao Direito e à Tecnologia. Também atua como professor e coordenador do programa de Lei Geral de Proteção de Dados (LGPD) da Escola Superior de Advocacia Nacional do Conselho Federal é o órgão máximo na estrutura da Ordem dos Advogados do Brasil (CFOAB). Foi fundador e presidente da Comissão de Direito Digital e Compliance da OAB/SP (2005-2018). Atuou como Juiz do Tribunal de Impostos e Taxas de São Paulo (2005-2021) e fundou a Comissão do Contencioso Administrativo Tributário da OAB/SP em 2014. Na área de arbitragem, é membro da Câmara Empresarial de Arbitragem da FECOMERCIO, OAB/SP e da Câmara Arbitral Internacional de Paris. Foi membro do Conselho Jurídico da FIESP (2011-2020) e diretor do Departamento Jurídico da mesma entidade (2015-2022). Atualmente desempenha o papel de Diretor Jurídico do DEJUR do CIESP. Foi coordenador do Grupo de Estudos de Direito Digital da FIESP (2015/2020). Foi convidado e atuou como pesquisador junto ao Conselho Nacional de Justiça (CNJ), em 2010, para tratar da segurança física e digital de processos findos. Além disso, ocupou o cargo de Diretor Titular do Centro do Comércio da FECOMERCIO (2011-2017) e foi conselheiro do Conselho de Tecnologia da Informação e Comunicação da FECOMERCIO (2006-2010). Desde 2007, é membro do Conselho Superior de Direito da FecomercioSP. Atua como professor de pós-graduação da Universidade Presbiteriana Mackenzie desde 2007, nos cursos de Direito e Tecnologia, tendo lecionado no curso de Direito Digital da Fundação Getúlio Vargas, IMPACTA Tecnologia e no MBA em Direito Eletrônico da EPD. Ainda coordenou e fundou o Programa de Pós-Graduação em Direito Digital e Compliance do Ibmec/Damásio. É Mestre em Direito na Sociedade da Informação pela FMU (2007) e Doutor em Direito pela FADISP (2014). Lecionou na Escola de Magistrados da Justiça Federal da 3ª Região, Academia Nacional de Polícia Federal, Governo do Estado de São Paulo e Congresso Nacional, em eventos em parceria com o Departamento de Justiça dos Estados Unidos, INTERPOL e Conselho da Europa. Como parte de sua atuação internacional, é membro da International High Technology Crime Investigation Association (HTCIA) e integrou o Conselho Científico de Conferências de âmbito mundial (ICCyber), com o apoio e suporte da Diretoria Técnico-Científica do Departamento de Polícia Federal, Federal Bureau of Investigation (FBI/USA), Australian Federal Police (AFP) e Guarda Civil da Espanha. Além disso, foi professor convidado em instituições e empresas de grande porte, como Empresa Brasileira de Aeronáutica (EMBRAER), Banco Santander e Microsoft, bem como palestrou em eventos como Fenalaw/FGV.GRC-Meeting, entre outros. Foi professor colaborador da AMCHAM e SUCESU. Em sua atuação junto ao Conselho Nacional de Política Fazendária (CONFAZ), apresentou uma coletânea de pareceres colaborativos à ação governamental, alcançando resultados significativos com a publicação de Convênios e Atos COTEPE voltados para a segurança e integração nacional do sistema tributário e tecnológico. Também é autor do primeiro Internet-Book da OAB/SP, que aborda temas de tributação, direito eletrônico e sociedade da informação, e é colunista em Direito Digital, Inovação e Proteção de Dados do Portal Migalhas, entre outros. Em sua atuação prática, destaca-se nas áreas do Direito Digital, Inovação, Proteção de Dados, Tributário e Empresarial, com experiência jurídica desde 1988.

Leila Chevtchuk, eleita por aclamação pelos ministros do TST integrou o Conselho Consultivo da Escola Nacional de Formação e Aperfeiçoamento de Magistrados do Trabalho – ENAMAT. Em 2019 realizou visita técnico científica a INTERPOL em Lyon na França e EUROPOL em 2020 em Haia na Holanda. Desembargadora, desde 2010, foi Diretora da Escola Judicial do Tribunal Regional do Trabalho da 2ª região. Pela USP é especialista em transtornos mentais relacionados ao trabalho e em psicologia da saúde ocupacional. Formada em Direito pela USP. Pós-graduada pela Universidade de Lisboa, na área de Direito do Trabalho. Mestre em Relações do Trabalho pela PUC e doutorado na Universidade Autôno de Lisboa.