COLUNAS

  1. Home >
  2. Colunas >
  3. Migalhas de Responsabilidade Civil >
  4. Personalidade, responsabilidade e classificação dos riscos na Inteligência Artificial e na robótica

Personalidade, responsabilidade e classificação dos riscos na Inteligência Artificial e na robótica

quinta-feira, 1 de julho de 2021

Atualizado às 15:30

Novas tecnologias e velhas metáforas

Como acompanhantes de idosos, de crianças, como artefatos cirúrgicos, entregadores ou seguranças, os robôs já começaram a entrar nos lares e nas vidas das pessoas.1 Antes restritos às fábricas e aos laboratórios, os artefatos robóticos estão cada vez mais integrados aos mesmos ambientes que os seres humanos, o que, por sua vez, pode acarretar grandes impactos e danos, ainda não totalmente mensurados.2

Em razão da indefinição da natureza da própria tecnologia em questão, o Direito se vê obrigado a recorrer a velhas figuras, conceitos já conhecidos, que nos auxiliam a nos aproximar, com certa familiaridade, daquilo que é novo e desconhecido. Em 2017, o Parlamento Europeu apresentou uma resolução com orientações sobre Robótica, com uma proposta de criação de uma personalidade eletrônica para artefatos robóticos "inteligentes".3 A personalidade eletrônica é apresentada como uma resposta aos problemas da responsabilidade civil tendo em vista  possíveis danos que possam ser causados pelos artefatos robóticos. Com efeito, nota-se uma confusão nessa forma de abordagem: a atribuição de uma suposta personalidade jurídica para robôs é tratada como se fosse uma decorrência natural do debate sobre a responsabilidade.4

Traçar a relação entre Direito e novas tecnologias não é uma tarefa fácil e, geralmente, essa aproximação não ocorre de maneira simples. Muitas vezes, essa ligação é viabilizada por meio do uso de metáforas, que servem de instrumento para a concretização de um efeito retórico, equiparando diretamente conceitos diferentes. O imaginário sobre robôs é intensamente marcado pela associação com artefatos antropomórficos, como os androides, que aparecem nos filmes e na literatura. Uma metáfora particularmente sedutora, não só para o Direito, mas também para outros campos, é pensar os robôs a partir de uma retórica antropomórfica, como se fossem pessoas, projetando-lhes autonomia, consciência e outros atributos humanos. Frequentemente, os diferentes conceitos, originariamente fundidos em torno da metáfora, desaparecem, de modo que as diferenças são apagadas e as comparações e analogias ganham vida, passando a ser pensadas em seu sentido literal. 

O antropomorfismo não representa uma característica exclusiva da Robótica. A IA também foi historicamente conceituada em termos antropomórficos. Além de sempre se falar de artefatos que pensam e aprendem, o próprio nome (inteligência artificial) nos estimula a comparar reiteradamente os modos humanos de raciocínio com máquinas5. Da mesma forma que acontece com a pessoa jurídica, nem sempre é claro se essa linguagem é utilizada em sentido literal ou figurado. 

A metáfora antropomórfica esconde aspectos funcionais da inteligência artificial, fazendo com que essa retórica, que mimetiza qualidades e atributos humanos, possa comprometer o enfrentamento dos complexos desafios éticos colocados pelas tecnologias emergentes. Consequentemente, quando se pensa em qualquer tentativa de disciplinar ou regular a Robótica e a IA, mostra-se fundamental não confundir a existência de uma autonomia ou agência real com a sensação de autonomia ou agência. Infelizmente, a confusão entre a suposta agência dos artefatos com a sensação provocada pela tecnologia emergente conduz a uma naturalização da própria autonomia, como se todo robô com IA necessariamente estivesse, assim como acontece com o ser humano, tomando uma decisão de uma maneira específica e independente.          

Pessoa Jurídica e Pessoa Eletrônica 

Nota-se, atualmente, a prevalência de uma linha pragmática ou funcional da personalidade eletrônica, a qual, ao se afastar do debate filosófico centrado nas análises ontológicas, procura se pautar, principalmente, no modelo da sociedade limitada personificada. Nesse sentido  argumenta, por exemplo, Jacob  Turner, que chega, inclusive, a sustentar que eventuais abusos, como a não responsabilização de programadores e engenheiros, poderiam ser combatidos por meio da desconsideração da personalidade jurídica.6

A criação de uma personalidade eletrônica pode, contudo,  acabar repetindo os mesmos problemas presentes no unitarismo  da pessoa jurídica. No lugar de se reconhecerem as particularidades das diferentes áreas de atuação de robôs com Inteligência Artificial, unificam-se essas diferentes relações em modelo jurídico único, pautado exclusivamente na figura de um sujeito abstrato. Esse é um problema frequente quando o Direito tenta se aproximar de novas tecnologias. Os artefatos são, na verdade, determinados pelas destinações em concreto, não comportando, assim, generalizações abstratas e reduções unitárias, indiferentes aos variados usos. Tendo isso em mente, seria possível comparar os problemas ocasionados pela utilização da Robótica na Medicina com os usos de drones para fins militares e de segurança? Da mesma forma, a utilização de robôs sociais com pessoas vulneráveis suscitam problemas éticos específicos, distintos dos que se verificam na utilização da Robótica para o transporte de mercadorias e pessoas.

Se a personalidade eletrônica foi pensada em função dos problemas gerados pela necessidade de responsabilização pelos eventuais danos, deve-se recordar que há um descompasso entre o formato jurídico da sociedade personificada isolada e o protagonismo econômico da empresa contemporânea. Trata-se de uma contradição interna do Direito, materializada na tensão entre diversidade jurídica e unidade econômica. Para minimizar esse problema, o Direito foi buscar uma nova gramática, aproximando-se da figura de controle e direção, rompendo com o modelo de um sujeito abstrato como ponto central no processo de responsabilização.

Novas diretrizes da Robótica e a classificação dos riscos na IA

A partir das Leis da Robótica formuladas na obra de ficção de Asimov, Frank Pasquale apresenta quatro "novas leis da robótica" que, ao contrário das propostas por Asimov, são destinadas aos desenvolvedores de sistemas de Inteligência Artificial e não aos robôs.7 A primeira nova diretriz estabelece que os sistemas robóticos e a IA devem complementar os profissionais, não substituí-los. A segunda diretriz determina que os sistemas robóticos e a IA não devem falsificar a humanidade. Sistemas de IA  que criam imagens de "pessoas falsas" e vozes sintéticas têm se tornado cada vez mais comuns. Nesse ponto, devemos questionar se queremos viver em um mundo no qual os seres humanos não sabem se estão lidando com outro ser humano ou com uma máquina. Para Pasquale, há uma distinção importante entre "a humanização da tecnologia e a falsificação de características distintamente humanas".8 Como afirma o próprio autor,  a corrida para imitar a humanidade pode facilmente se tornar uma antessala para a sua substituição.

O terceiro mandamento fixa que os sistemas robóticos e a IA não devem intensificar as corridas armamentistas de soma zero, isto é, quando o que uma parte ganha é precisamente o que a outra perde. Não podemos esquecer que as  tecnologias pioneiras dos exércitos também são utilizadas pela polícia (o uso de reconhecimento facial em multidões, por exemplo) e podem criar um estado de vigilância constante. Por fim,  os sistemas robóticos e a IA devem sempre indicar a identidade de seu(s) criador(es), controlador(es) e proprietário(s). Apesar de a vanguarda dos campos de IA enfatizar a autonomia e uma ideia nebulosa de "robôs fora de controle", Frank Pasquale entende que algumas pessoas ou organizações devem ser responsáveis por estes sistemas. Mesmo diante de sistemas com aprendizado de máquina, Pasquale aponta que o criador original deve ser obrigado a incluir certas restrições na evolução do código para registrar as influências e evitar resultados ruins. Os reguladores precisam também  exigir responsabilidade por design, complementando os modelos de segurança por design e privacidade por design. 

Em 21 de abril de 2021, a Comissão Europeia apresentou a Proposta de Regulamento sobre a Inteligência Artificial, que busca estabelecer um quadro jurídico uniforme para o desenvolvimento, a comercialização e a utilização da inteligência artificial no âmbito da União Europeia.9

A atual proposta se afasta da criação de uma personalidade jurídica eletrônica. O texto está amparado em uma abordagem baseada no risco, que modula o conteúdo das normas de acordo com a intensidade dos riscos criados pelos sistemas de IA.

No caso de sistemas de IA classificados como de "risco elevado" é necessário implementar um sistema de gestão de riscos contínuo, que deve estar presente durante todo o ciclo de vida, ou seja, até mesmo antes da colocação desses sistemas no mercado.

Com o gerenciamento de riscos, surgem obrigações relacionadas a accountability dos sistemas, exigindo a elaboração de documentações técnicas que informem características gerais, capacidades e limitações do sistema, manutenção de registros, implementação de medidas de transparência e adoção de rotinas e procedimentos internos que assegurem a governança de dados. Em síntese, a abordagem baseada em risco deve vir acompanhada de sólidas medidas de transparência, que permitam avaliar o nível de segurança, exatidão, solidez e desempenho dos sistemas de IA.

É importante notar também que processos de gerenciamento de riscos  já fazem parte da gramática difundida de compliance das próprias empresas. A confusão entre os modelos representa um grave problema, uma vez que, no caso de tecnologias que impactam diretamente  direitos humanos, como se observa com o reconhecimento facial, esses processos devem seguir uma lógica própria, completamente diferente dos mecanismos tradicionais de gestão dos riscos de negócios relacionados à sociedade empresária. Se nos modelos tradicionais, a preocupação se volta para a própria empresa e para os riscos do negócio, ainda que eventuais violações possam impactar nos riscos da própria atividade, o foco deve estar sempre nos detentores dos direitos que deverão ser respeitados. Da mesma forma, grupos historicamente submetidos a opressões e violências podem se mostrar mais expostos a um risco maior de vigilância e de outros danos ocasionados pelo uso de novas tecnologias. Nesse sentido, a efetiva construção de um modelo pautado na alocação diferencial pressupõe a percepção de que os riscos associados aos usos de novas tecnologias podem não se distribuir de forma linear entre pessoas e grupos.10

*Sergio Marcos Carvalho de Ávila Negri é professor Adjunto do Departamento de Direito Privado da Faculdade de Direito da UFJF. Membro do corpo docente permanente do programa de pós-graduação Stricto Sensu em Direito e Inovação da UFJF. Doutor e mestre em Direito Civil pela UERJ. Especialista em Direito Civil pela Università degli Studi di Camerino (Itália). Coordenador do Núcleo de Estudos Avançados em Pessoa, Inovação e Direito (NEAPID-UFJF).

__________

1 O presente tema foi desenvolvido em: NEGRI, Sergio Marcos Carvalho Ávila. Robôs como pessoas: a personalidade eletrônica na robótica e na inteligência artificial. Pensar - Revista de Ciências Jurídicas, Fortaleza, p. 1-14, 2020.  Deve-se registrar que vários associados do IBERC têm enfrentado o tema objeto do presente artigo. Para outras referências ver: MARTINS, Guilherme Magalhães; ROSENVALD, Nelson. (orgs.). Responsabilidade civil e novas tecnologias. Indaiatuba: Foco, 2020. MONTEIRO FILHO, Carlos Edison do Rêgo; ROSENVALD, Nelson. Riscos e responsabilidades na inteligência artificial e noutras tecnologias digitais emergentes. In: TEPEDINO, Gustavo; SILVA, Rodrigo da Guia. O Direito Civil na era da inteligência artificial. São Paulo: Thomson Reuters Brasil, 2020. p. 543-564. BARBOSA, Mafalda Miranda; NETTO, Felipe Braga; SILVA, Michael César; FALEIROS JÚNIOR, José Luiz de Moura. (orgs.) Direito Digital e Inteligência Artificial. Diálogos entre Brasil e Europa. Indaiatuba: Foco, 2021. FRAZÃO, Ana; MULHOLLAND, Caitlin. (orgs.) Inteligência Artificial e Direito. Ética, Regulação e Responsabilidade. São Paulo: Revista dos Tribunais. 2019.

2 Embora a Robótica não se confunda com a IA, é inegável que, atualmente, esses campos se entrelaçam cada vez mais. Os principais avanços em IA nos últimos anos estão relacionados ao aprendizado de máquina, que permite aos sistemas a identificação de padrões estatísticos e correlações ocultas sem serem explicitamente programados. Como subcampo do aprendizado de máquina, têm se destacado os sistemas de  deep learning, que alcançam grande poder e flexibilidade na tentativa de representação do mundo exterior com uma hierarquia alinhada de conceitos. O aprendizado profundo está intimamente associado à arquitetura das redes neurais artificiais.

3 UNIÃO EUROPEIA. Resolução do Parlamento Europeu, de 16 de fevereiro de 2017, com recomendações à Comissão Direito Civil sobre Robótica. 2017. Disponível aqui. Acesso em: 28/10/2019.

4 PAGALLO, Ugo. Vital, Sophia, and Co.-The Quest for the Legal Personhood of Robots. Information , 9, 230, 2018.

5 WATSON, D. The Rhetoric and Reality of Anthropomorphism in Artificial Intelligence. Minds & Machines, [s.l.], v. 29, n. 3, p.417-440, 21 set. 2019. Disponível aqui. Acesso em: 28/10/2019.

6 TURNER, Jacob. Robot Rules: Regulating Artificial Intelligence. Nova York: Palgrave Macmillan, 2019.

7 PASQUALE, Frank. New laws of robotics: defending human expertise in the age of AI. Cambridge, Massachusetts: The Belknap Press Of Harvard University Press, 2020.

8 PASQUALE, Frank. New laws of robotics: defending human expertise in the age of AI. Cambridge, Massachusetts: The Belknap Press Of Harvard University Press, 2020, p.13.

9 UNIÃO EUROPEIA. Proposal for a Regulation of the European Parliament and the Council Laying Down Harmonized Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts (COM/2021/206). Bruxelas: Comissão Europeia, 2021. Disponível aqui. Acesso em: 10 jun. 2021.

10 MACHADO, Joana de Souza; NEGRI, Sergio M. C. A.; GIOVANINI, Carolina F. R. Nem invisíveis, nem visados: inovação, direitos humanos e vulnerabilidade de grupos no contexto da COVID-19. LIINC EM REVISTA, v. 16, p. 1-21, 2020. Disponível aqui. Acesso em: 22/01/2021.