quinta-feira, 11 de agosto de 2022

COLUNAS

  1. Home >
  2. Colunas >
  3. Humanidades e Novas Tecnologias >
  4. Personalidade jurídica eletrônica (epersonality) de aplicações de IA

Personalidade jurídica eletrônica (epersonality) de aplicações de IA

sexta-feira, 5 de agosto de 2022

Atualizado às 08:08

A questão de se atribuir e reconhecer personalidade jurídica à IA se justificaria para o fim de promoção de interesses, valores e finalidades relevantes para o ordenamento jurídico.               

No caso de atribuição de tal personalidade, a IA estaria alçada a categoria de sujeito de direitos, centro autônomo de imputação subjetiva e responsável pelos atos que praticar (Gustavo Tepedino, Fundamentos do direito civil, vol. I, p. 142).

Embora tal problemática envolva não apenas aspectos jurídicos, mas também filosóficos, e mesmo existenciais, como se há de falar em autonomia e independência, capacidade de autoaprendizagem, adaptabilidade do comportamento? E se há uma consciência e empatia em aplicações de IA, a maior parte das regulações de IA da União Europeia que previam tal perspectiva limitavam-se a uma forma de se propiciar uma mais fácil reparação de danos por supostas vítimas.

Trata-se, no caso, como em geral, sobretudo, de fazer as perguntas corretas, e a pergunta essencial no caso é: de que forma a atribuição da personalidade jurídica ao robô iria contribuir para facilitar a reparação de danos de eventuais vítimas?

Pode ser citada como exemplo de regulamentação neste sentido aquela publicada em 27/1/2017, as Recomendações à Comissão sobre disposições de Direito Civil sobre robótica - elaborada pela Comissão de Assuntos jurídicos, apontando para o reconhecimento de personalidade de algumas aplicações de IA listadas, como veículos autônomos, drones inteligentes, robôs assistentes de idosos ou enfermos e robôs médicos, algoritmos de processamento e análise de dados que possam levar à práticas discriminatórias.

Interessante observar, contudo, que além da atribuição da personalidade jurídica a algumas aplicações de IA, a depender do seu grau de autonomia e independência, reconhecendo a tende^ncia atual para o desenvolvimento de ma'quinas inteligentes e autônomas, com a capacidade de pensar e tomar deciso~es de forma independente,  o documento também traz importantes previsões, em especial ao contemplar uma preocupação com um potencial para uma maior desigualdade na distribuic¸a~o da riqueza, prevendo pois a possibilidade de aplicac¸a~o de um imposto sobre o trabalho realizado por robo^s ou de uma taxa de utilizac¸a~o e manutenc¸a~o por robo^, em uma espécie de financiamento ao apoio e requalificac¸a~o de desempregados. Prevê ainda um  registro obrigatório dos robôs e um regime de seguros obrigatórios (indenizar danos) e a criação de fundos de compensação, para danos não cobertos pelo seguro.

Outrossim, o documento considera que os robo^s avanc¸ados deveriam ser dotados de uma "caixa negra" com dados relativos a todas as operac¸o~es realizadas pela ma'quina, incluindo os passos da lo'gica que conduziu a` formulac¸a~o de eventuais deciso~es, além de também trazer a necessidade de realização de testes em cena'rios da vida real para identificar e avaliar os riscos, apontando, pois para o princi'pio da precauc¸a~o e o "sandbox approach".

Quanto à responsabilidade, além de prever como regra a responsabilidade subjetiva, sendo a objetiva limitada a uma lista de algumas aplicações de IA, considera os responsáveis pela reparação (P. 56) de acordo com o nível efetivo de instruções dadas aos robôs e o nível da sua autonomia, ou seja, o responsável seria o "professor", isto é, o programador. Há ainda diversas discussões no tocante à lista de responsabilidade objetiva ser taxativa ou exemplificativa.

Verifica-se, portanto, um grau de imprevisibilidade de algumas aplicações de IA, já que aprendem de forma autônoma, possuem uma experiência própria variável e interagem com o ambiente de um modo único e imprevisível.

Neste sentido, se afirma que as formas tradicionais de atribuição de responsabilidade não seriam compatíveis com o senso de justiça, já que ninguém teria controle suficiente sobre as ações da IA para poder assumir responsabilidade por seus atos, sendo o que aponta Andreas Matthias ("The responsability gap", p. 2)

Um estudo crítico, contudo, acerca do referido documento e que embasou a Resolução do Conselho Europeu de 2017 indicava que a personificação de robôs seria inadequada, pois a proposta não estaria vinculada a nenhuma consciência em potencial destes entes, e "uma carcaça desprovida de consciência, sentimentos, pensamento e vontade própria não poderia em uma realidade previsível nos próximos 10 a 15 anos adquirir autonomia". (Nathalie Nevejans, "European Civil Law Rules in Robotics", p. 14 e ss.). No mesmo sentido, Ugo Pagallo, afirmando que a IA carece de consciência, um requisito essencial conceitual para serem juridicamente imputáveis ("Three Roads to complexity, Ai and the Law of Robotics: on crimes, contracts and Torts", AI approaches to the complexity of legal systems, Berlim-Heidelberg, Springer, 2012, p. 49).

Gunther Teubner, a partir de estudos de Niklas Luhmann e Bruno Latour, entende que a personificação de entes não humanos poderia ser melhor entendida como uma forma de nos ligar com as incertezas acerca da identidade desses entes, que são assim transformados de objetos em 'alter', reagente da ação humana. Em suas palavras: "tratar um objeto como se fosse um ato transforma a incerteza sobre as relações causais na incerteza sobre como o parceiro de interação vai reagir às ações do Ego. Isso coloca o Ego na posição de escolher o curso da ação, para observar as reações do Alter e extrair consequências" ("Rights on non-humans? Electronic agents and animals as new actors in Politics and Law". Journal of law and society, n. 33, dez. 2006, p. 06 e ss.) 

Por sua vez, Eduardo Nunes de Souza ("Personalidade jurídica e inteligência artificial", O direito civil na era da IA. São Paulo, Editora Revista dos Tribunais, 2020, p.225 e ss) afirma que a IA possui autonomia assim como os animais, cuja interação ordinária com o meio social não dependeria da intermediação do ser humano para exprimir sua vontade.

No artigo "Machine behaviour", os autores apontam que as máquinas são consideradas como uma classe de atores com padrões de comportamento e ecologia particulares; contudo, o reconhecimento de serem as IA verdadeiras atoras não implicaria no reconhecimento de sua responsabilidade pessoal no caso de danos. Deverá, então, ser realizado o estudo das máquinas inteligentes não como artefatos de engenharia, mas como atores com um particular comportamento e ecologia (https://pubmed.ncbi.nlm.nih.gov/31019318/).

Contudo, nas regulações mais recentes da União Europeia verifica-se que houve o abandono da perspectiva de atribuição de personalidade eletrônica, jurídica à IA, pela abordagem de risquificação ou risk based approach, como pode ser observado do "White paper on IA", publicado em 19/02/2020 pela Comissão Europeia, e do AI Act de 2021, trazendo ambos diversos patamares de risco.               

A temática da atribuição de personalidade à IA, envolveria também questionamentos acerca da existência ou não de uma necessária relação de cuidado com o outro, a empatia, sendo que a maior parte dos pesquisadores apontavam para ausência de tal característica, já que a IA pauta-se no princípio da eficiência. Em sentido contrário, Mireille Hildebrandt comenta que para atribuir a personalidade eletrônica a um robô deveríamos verificar e demonstrar se ele apresenta uma dose de empatia, registrando que estudos recentes da neurociência afirmariam que tal habilidade não seria exclusivamente humana ("Criminal Liability and Smart environments". In DUFF, R. A. Green, Stuart P. (Ed.), Philosophical foundations of criminal law, New York, Oxford University Press, 2011, p. 527).               

Há diversas críticas a tal abordagem, apontando em suma que poderá causar um comprometimento da humanidade, a qual se veria reduzida ao patamar de uma máquina (Nathalie Nevejans, "European Civil Law Rules in Robotics", p. 16), o que seria desdignificante ao ser humano. Como afirma a autora, a autonomia dos robôs é uma autonomia tecnológica, fundada nas potencialidades da combinação algoritmica, e estaria longe do agir ético dos humanos. 

Outras críticas envolvem a antropofilização dos robôs, como os robôs sexuais por exemplo, trazendo um potencial de fixação de um imaginário social de subjulgação da mulher e de relação de servidão. Entre os críticos destacam-se Mafalda Miranda Barbosa, ao apontar que não se pode estabelecer analogia com os seres humanos, afronta a dignidade humana, e Danilo Doneda, ao registrar sua preocupação com a antropofilização, robôs com aspecto humanoide que tendem mais facilmente a gerar empatia/emoções, e o problema dos robôs sexuais, com aparência antropomórfica, levando à objetificação do parceiro e a violação do consentimento.

Outro problema seria com a "falácia do androide", quando uma pretensa analogia jurídica em termos altamente antropomorfizados poderia levar ao risco de se considerar uma IA mais imputável no caso de ter uma aparência humanoide, do que um robô sem tal aparência (Neil Richards, William D. Samrt, "How should the law think about robots?", Robot Law, Edward Elgar Publishing, 2016, p. 19).

Por outro lado, entre os defensores de tal abordagem temos o professor da Georgetown University David Vladeck, afirmando que com tal conhecimento surgiriam novos encargos legais, como o ônus do autosseguro e teríamos assim uma difusão de custos.

Será que poderíamos atribuir a questão da autonomia à IA, e isso seria importante em termos de atribuição de responsabilidade?

Por exemplo, em 2017, um programa desenvolvido pelo AI Research Lab (Laboratório de Pesquisa de Inteligência Artificial) do Facebbok, criando duas IAS denominadas de Bob e Alice, as quais após um tempo de funcionamento desenvolveram uma linguagem própria, somente compreendida pelas próprias IAs, decidindo por conta própria como trabalhar com as tarefas que lhes haviam sido atribuídas.

Em 11/2016, o Google Tradutor, sistema Google de Neural Machine Translation, programado para traduzir determinadas línguas, o que deveria sempre passar pelo inglês, revela sua autonomia, já que o sistema conseguiu traduzir línguas diretamente sem a interferência do inglês, ou seja, o sistema de IA teria desenvolvido uma língua própria, uma interlíngua, pra realizar as traduções.

Já as aplicações mais recentes, denominadas de GPT-3, inaugurando uma nova fase da IA - também denominada de nova Revolução Industrial, já reconhecida pela Comissão Europeia desde 27.01.2017 em sua Recomendação sobre disposições de Direito Civil sobre robótica  (relatório). O GPT-3 designados BERT e DALL-E-2 possuem mais acurácia, mais autonomia, mais concentração em grandes empresas e maiores riscos de vieses. São os chamados "modelos de fundação" ("foundation models"), com habilidades que seus criadores não previram - é dado um input e o sistema gera um ensaio completo ou uma imagem completa, mesmo sem treinamento específico de como executar a tarefa. Entre as habilidades emergentes é ede se destacar a de escrever um código de computador. 

Um dos problemas específicos em relação à atribuição da responsabilidade no caso de IA, também denominado de "problema de muitas mãos", é a falta ou dificuldade de identificação do nexo causal entre a conduta do agente e o dano produzido entre os diferentes atuantes envolvidos no processo, já que há um complexo sistema sociotécnico envolvido.

O Alan Turing e Oxford Internet Institute/UNESCO traz a proposta de "responsabilidade 'compartilhada' ou 'distribuída' entre designers de robôs, engenheiros, programadores, fabricantes, investidores, vendedores e usuários. Nenhum desses agentes pode ser indicado como a última fonte de ação. Ao mesmo tempo, esta solução tende a diluir completamente a noção de responsabilidade: se todos tiverem uma parte na responsabilidade total, ninguém será completamente responsável.

Por sua vez, Caitlin Mulholland traz a proposta de causalidade alternativa; diante da existência de um único nexo causal que não pode ser identificado de forma direta, podemos atribuir a sua presunção ao grupo econômico como um todo, e maior facilitação do ônus probatório para a vítima ("Responsabilidade civil e processos decisórios autônomos em sistemas de IA: autonomia, imputabilidade e responsabilidade", IA e Direito, São Paulo, Revista dos Tribunais, 2019, p.325 e ss.).

Devemos refletir, contudo, se em sistemas sociotécnicos complexos, quando a ação causadora do dano advém de um somatório de agências de seres humanos, se o foco no grupo econômico seria suficiente para a atribuição justa de responsabilidade. Talvez uma "responsabilidade compartilhada" entre os diferentes agentes atuantes na rede sociotécnica de acordo com suas respectivas esferas de controle e influência sobre as situações e demais agentes seja mais interessante em termos de responsabilidade civil.