COLUNAS

  1. Home >
  2. Colunas >
  3. Migalhas de Responsabilidade Civil >
  4. "Teilrechtsfähigkeit": uma proposta alemã para a responsabilização civil na IA

"Teilrechtsfähigkeit": uma proposta alemã para a responsabilização civil na IA

quinta-feira, 6 de agosto de 2020

Atualizado às 07:45

Texto de autoria de José Luiz de Moura Faleiros Júnior e Fabiano Menke

O debate em torno da ascensão dos algoritmos de Inteligência Artificial, em decorrência da evolução das técnicas de machine e deep learning, tem produzido impactos jurídicos variados1. A Internet das Coisas, a implantação da tecnologia 5G e o chamado Big Data são alguns dos fenômenos que propiciam essa mudança de paradigma.

Fato é que, quando o debate transcende a ficção científica - e não mais se imagina uma rebelião de androides (ou a emancipação de algoritmos, como numa Skynet2 contemporânea) - e passa a permear a dogmática jurídica, inúmeros desafios são introjetados pelos institutos jurídicos tradicionais.

A responsabilidade civil, por óbvio, não deixa de apresentar suas particularidades quando analisada nesse novo universo3. E, não por outra razão, a União Europeia sinalizou, em 2015, propensão regulatória voltada ao tema. No Draft Report with recommendations on civil law rules and robotics (2015/2103) já eram notadas algumas preocupações quanto aos danos causados por máquinas, e foi a partir deste documento que, em 16 de fevereiro de 2017, o Parlamento Europeu aprovou uma Resolução ("Disposições de Direito Civil sobre Robótica") que, expressamente e em caráter prospectivo, prevê em sua diretriz 59, "f", o seguinte:

59. Insta a Comissão a explorar, analisar e ponderar, na avaliação de impacto que fizer do seu futuro instrumento legislativo, as implicações de todas as soluções jurídicas possíveis, tais como: (...)

f) Criar um estatuto jurídico específico para os robôs a longo prazo, de modo a que, pelo menos, os robôs autónomos mais sofisticados possam ser determinados como detentores do estatuto de pessoas eletrónicas responsáveis por sanar quaisquer danos que possam causar e, eventualmente, aplicar a personalidade eletrónica a casos em que os robôs tomam decisões autónomas ou em que interagem por qualquer outro modo com terceiros de forma independente4;

Mais do que nunca, propostas para a parametrização de marcos regulatórios aplicáveis à robótica reverberam os anúncios de uma nova era no cenário jurídico. Com inspiração nas clássicas três leis da robótica de Isaac Asimov5 - delineadas no terceiro conto ("Círculo Vicioso") de sua coletânea "Eu, Robô" - o norte-americano Jack Balkin especificou também três proposições para o enfrentamento jurídico da questão: (i) operadores algorítmicos devem ser fiduciários de informações em relação a seus clientes e usuários finais; (ii) operadores algorítmicos têm deveres para com o público em geral; (iii) operadores algorítmicos têm o dever público de não se envolver em incômodos algorítmicos6. Em proposta subsequente, Frank Pasquale sugeriu o acréscimo de uma quarta lei: (iv) um robô sempre deve indicar a identidade de seu criador, controlador ou proprietário7.

O núcleo fundamental da discussão envolve, ainda, saber se já estamos vivendo o momento da singularidade tecnológica - para referenciar a expressão de Vernor Vigne8, posteriormente explorada por Ray Kurzweil9-, em que o biológico e o tecnológico se manifestam em verdadeira simbiose, impondo reconfigurações da usual distinção entre humanos e máquinas, na medida em que estas serão capazes de suplantar o clássico 'Teste de Turing', avançando rumo à efetivação do 'jogo da imitação'10.

A resposta parece ser negativa quanto ao atingimento da singularidade, embora o aprimoramento constante dos algoritmos indique uma evolução acelerada rumo a esse cenário11. E essa afirmação é possível em razão do fato de não se ter, no atual estado da técnica, máquinas dotadas de discernimento moral, capazes de olhar para si mesmas e de adotar posturas responsáveis e baseadas em reflexões que ultrapassam a mera predição estatística.

Se é certo que a capacidade dos processadores, potencializada pelo processamento descentralizado da Internet das Coisas, ultrapassa (e muito!) a dos seres humanos para o processamento de informações, também é possível asseverar que a criação de nexos de imputação para a responsabilização civil dos robôs, quando causarem danos, é uma precipitação.

A proposta da União Europeia sinaliza, como primeira alternativa, a criação de um regime de seguros obrigatórios e a limitação de responsabilidade para o proprietário ou utilizador que para ele contribuir12. Outro caminho, seria o reconhecimento da autonomia jurídica dos próprios robôs, instigando reflexões sobre a eventual natureza subjetiva ou objetiva desse regime de responsabilidade civil baseado na pretensa "personalidade eletrônica".

Henrique Sousa Antunes pondera que "a opção por uma responsabilidade subjetiva, dependente de um juízo de culpa do lesante, encontraria assento nesse patamar em que se descobrem no robô capacidades superiores às do ser humano", ao passo que, quanto à responsabilidade objetiva, "a superação das capacidades humanas advoga em sentido contrário à previsão de um dever de indemnizar sem culpa"13. Esta também é a posição de Mafalda Miranda Barbosa, que ressalta a necessidade de estruturação de um futuro regulamento em torno dos princípios da precaução, da reversibilidade, da segurança e da responsabilidade14.

No Brasil, esta visão é compartilhada por Gustavo Tepedino e Rodrigo da Guia Silva15 e, também, por Eduardo Tomasevicius Filho - este descreve como nonsense a intenção de se atribuir personalidade jurídica aos robôs16. Mas... haveria um 'meio-termo'? A doutrina alemã parece sinalizar que sim. E a ideia é, no mínimo, curiosa.

Estudo pioneiro de Jan-Erik Schirmer, publicado em 2020, se reporta a escritos de Eugen Ehrlich (1909) e Hans-Julius Wolff (1930) quanto à Teilrechtsfähigkeit para indicar uma terceira possibilidade de atribuição de personalidade jurídica17. O termo indica uma atribuição 'parcial' de personalidade jurídica a um agente que produza interações com o meio18.

A proposta é extremamente peculiar, e, segundo o autor, poderia ser considerada para a atribuição de personalidade jurídica a robôs em cenários específicos, com aquisição paulatina de direitos e obrigações. Explicando a diferença, Schirmer descreve a personalidade jurídica ostentada por humanos como um 'pote de doces' que está cheio desde o começo; o pote representaria a personalidade jurídica e os doces simbolizariam direitos específicos, logo, um pote cheio de doces indicaria a personalidade em sua plenitude: ou se tem o pote cheio, ou não há pote algum. Na Teilrechtsfähigkeit, a diferença adviria da atribuição de personalidade, mas sem direitos pré-concebidos pelo ordenamento; o pote existiria, mas estaria inicialmente vazio de doces, sendo preenchido, pouco a pouco, em sintonia com a própria evolução da personalidade, até que se tornasse plena19.

A partir dessa teoria, seria possível aos tribunais, por exemplo, a definição casuística dos cenários em que os robôs pudessem passar a ostentar, um a um, eventuais direitos (e obrigações), sempre de forma justificada e transcendendo, mediante análise concreta, a dicotomia binária entre os sujeitos que são e os que não são dotados de personalidade jurídica. Não se partiria mais da presunção abstrata de que a personalidade jurídica implica, necessariamente, a titularidade de direitos e obrigações previamente existentes no ordenamento, o que, para robôs, faz toda a diferença no atual estado da técnica, pois:

Pelo menos por enquanto [os robôs] não agem em seu próprio interesse. O trabalho deles é fornecer apoio a pessoas físicas e jurídicas. Um carro autônomo não dirige por dirigir, ele dirige para transportar seu ocupante para um determinado destino. Um algoritmo de negociação não é negociado por conta própria, mas por conta da pessoa que o implanta. Em outras palavras, estamos analisando a típica "situação do servo-mestre", na qual o servo age de forma autônoma, mas ao mesmo tempo apenas em nome do mestre. Assim, agentes inteligentes devem ser dotados de personalidade, na medida em que esse status reflita sua função como servos 'sofisticados'20.

A sobredita 'sofisticação' que um robô poderia ostentar dependeria do seu aprimoramento algorítmico e permitiria, ainda segundo Schimer, a responsabilização do 'mestre' (proprietário ou utilizador), uma vez que toda a atuação se dê em seu exclusivo interesse, seja para a conclusão e execução de contratos, seja para a prática de atos potencialmente ilícitos (e danosos)21. Foi com base nesse aspecto assistencial ou de prestação de mero suporte pelo robô que Gunther Teubner sugeriu, em 2018, a implementação de uma regra de responsabilização (digitale Assistenzhaftung22) baseada na equação 'servo-mestre' e escorada nas decisões do agente efetivamente inteligente (atualmente, o humano/'mestre', mas, aos poucos e à medida em que a singularidade se aproximar, também ou exclusivamente o robô/'servo').

Para Teubner, a atribuição de personalidade para agentes não humanos não tem relação com a capacidade de pensar ou com a inteligência artificial "real". O critério decisivo, segundo Teubner, está localizado nas interações sociais nas quais as funcionalidades algorítmicas participam, quer dizer, a aptidão de produzir uma sequência completa e autônoma de comunicação recursiva é que constitui o algoritmo como pessoa, como artefato semântico, ao qual se atribui uma subjetividade plena ou limitada. Interessa, portanto, a especial participação na comunicação das relações sociais23.

E no que diz respeito à sugestão da regra de responsabilização denominada Assistenzhaftung, Teubner a diferencia da responsabilidade em virtude do risco, uma vez que os fundamentos desta se baseiam no risco inerente à coisa ou atividade, enquanto que a regra especial de responsabilidade civil que sugere teria como fundamento a antijuridicidade da conduta do robô, no que denomina de perigo da autonomia das decisões digitais24.

O ponto fulcral dessa proposta, portanto, está na criação de novos elos para a cadeia causal: a noção de Teilrechtsfähigkeit significaria apenas que um agente inteligente deve ser tratado como um ente dotado de personalidade jurídica parcial até que se atinja o ponto de indistinção, em que seja capaz de romper tal cadeia causal, realizando, por si e de forma autônoma, um ato danoso. Dessa capacidade, é claro, não se segue que o agente inteligente sempre interrompa a cadeia e, por exemplo, o programador de software ou o passageiro de um veículo autônomo nunca sejam responsabilizados. A subjetividade jurídica parcial simplesmente fornece uma linha de argumento diferente para a interpretação da sucessão de eventos que conduz a averiguação do nexo de causalidade em etapas, permitindo a gradação da personalidade em ritmo consentâneo com a maturação computacional.

Embora essa solução pareça atraente do ponto de vista doutrinário e encontre sustentáculos jurídicos no direito civil alemão, ainda nos parece uma proposta extremamente complexa para modelos como o brasileiro, uma vez que tem um ponto fraco inevitável: a necessidade de ação negligente do robô (ou 'servo', como no raciocínio de Schirmer). Isso porque um ato negligente exige a violação de um dever de cuidado que, por sua vez, para permitir a constatação de um comportamento do agente inteligente, deve ser comparada a um padrão de cuidado razoável, ou seja, o agente inteligente, no mínimo, deve apresentar um 'desempenho' inferior ao de outros agentes inteligentes comparáveis. Para ações humanas, isto é possível; para robôs em constante evolução e sem bases comparativas, é muito difícil.

Schirmer diz que a maioria dos casos careceria do pré-requisito da negligência e, portanto, a responsabilização do 'mestre' não poderia ser concretizada. Em suas conclusões, o autor ainda assume as incertezas da adoção de um conceito como a Teilrechtsfähigkeit, mas assevera a principal vantagem de sua consideração e eventual adoção: ganhar tempo25.

Sendo inevitável e irrefreável o avanço tecnológico galopante, chegará o momento da singularidade descrita por Vigne e Kurzweil. O quanto o direito civil terá se modernizado até lá, é uma incógnita, mas a antevisão das consequências dessa evolução impõe a todo jurista o dever de se dedicar à exploração de conceitos que produzam resultados mais imediatos. A Teilrechtsfähigkeit oferece justamente isso. Inexistente instituto assemelhado na legislação brasileira, talvez sua estrutura lógica permita, ao menos, o florescimento de proposições que visem otimizar a responsabilidade civil sem que sejam abandonadas as suas clássicas formulações.

*José Luiz de Moura Faleiros Júnior é mestre e bacharel em Direito pela Faculdade de Direito da Universidade Federal de Uberlândia. Especialista em Direito Processual Civil, Direito Civil e Empresarial, Direito Digital e Compliance. Membro do Instituto Avançado de Proteção de Dados - IAPD e do Instituto Brasileiro de Estudos de Responsabilidade Civil - IBERC. Advogado.

**Fabiano Menke é doutor em Direito pela Universidade de Kassel, Alemanha. Mestre em Direitos Especiais pela Universidade Federal do Rio Grande do Sul. Professor Adjunto de Direito Civil no Departamento de Direito Privado e Processo Civil e do Programa de Pós-Graduação da Universidade Federal do Rio Grande do Sul. Membro fundador do Centro de Estudos Europeus e Alemães (CDEA UFRGS-PUCRS). Membro do Instituto Brasileiro de Estudos de Responsabilidade Civil - IBERC. Advogado.

__________

1 Para uma compreensão de todos esses conceitos, confira-se: GOETTENAUER, Carlos Eduardo. Algoritmos, inteligência artificial, mercados. Desafios ao arcabouço jurídico. In: FRAZÃO, Ana; CARVALHO, Angelo Gamba Prata de (Coords.). Empresa, mercado e tecnologia. Belo Horizonte: Fórum, 2019, p. 271-274. Ademais, para aprofundamento teórico, sugere-se as seguintes leituras: FLASIŃSKI, Mariusz. Introduction to Artificial Intelligence. Cham: Springer, 2016, p. 15-22; KELLEHER, John D.; MAC NAMEE, Brian; D'ARCY, Aiofe. Fundamentals of machine learning for predictive data analytics: algorithms, worked examples, and case studies. Cambridge: The MIT Press, 2015, p. 1-16.

2 A referência é colhida do sistema de inteligência artificial que antagoniza a série de filmes O Exterminador do Futuro e a série As Crônicas de Sarah Connor. Ainda na ficção científica, há que se relembrar do clássico Blade Runner, de Ridley Scott, em que um grupo de androides persegue o seu criador humano em busca do prolongamento da vida que está prestes a acabar por ter duração programada.

3 BARBOSA, Mafalda Miranda. Inteligência artificial, e-persons e direito: desafios e perspectivas. Revista Jurídica Luso-Brasileira, Lisboa, ano 3, n. 6, p. 1475-1503, 2017, p. 1475-1476. A autora, investigando se "faz ou não sentido conferir personalidade jurídica aos entes dotados de inteligência artificial", justifica que "já não se consegue, hoje, dar uma resposta líquida no sentido de incluir na categoria apenas as pessoas singulares e as pessoas coletivas", o que conduz a reflexões sobre "a construção daquilo que vem conhecido por robot law, por um lado, e, por outro lado, o bloqueio que a juridicidade poderá impor ao avanço tecnológico".

4 PARLAMENTO EUROPEU. Resolução de 16 de fevereiro de 2017. Disposições de Direito Civil sobre Robótica. Disponível aqui. Acesso em: 21 jul. 2020.

5 São elas: "(i) um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal; (ii) um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei; (iii) um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis". Recomenda-se, ademais, a leitura da obra, que possui tradução para o português: ASIMOV, Isaac. Eu, Robô. Tradução de Aline Storto Pereira. São Paulo: Aleph, 2014.

6 BALKIN, Jack M. The three laws of robotics in the age of Big Data. Ohio State Law Journal, Columbus, v. 78, p. 1-45, ago. 2017. Acesso em: 20 jul. 2020.

7 PASQUALE, Frank. Toward a fourth law of robotics: Preserving attribution, responsibility, and explainability in an algorithmic society. University of Maryland Legal Studies Research Papers, Baltimore, n. 21, p. 1-13, jul. 2017. Disponível aqui. Acesso em: 20 jul. 2020.

8 VIGNE, Vernor. The coming technological singularity: How to survive in the post-human era. In: Interdisciplinary Science and Engineering in the Era of Cyberspace. NASA John H. Glenn Research Center at Lewis Field, Cleveland, 1993, p. 11-22. Disponível aqui. Acesso em: 20 jul. 2020.

9 KURZWEIL, Ray. The age of spiritual machines: When computers exceed human intelligence. Nova York: Viking, 1999.

10 Os estudos de Turing sobre o Entscheidungsproblem (dilema da tomada de decisão) foram publicados em um artigo, intitulado "On computable numbers, with an application to the Entscheidungsproblem", de 1937, no qual se demonstrou que uma "máquina computacional universal" seria capaz de realizar qualquer operação matemática concebível se fosse representável como um algoritmo. Ele passou a provar que não havia solução para o problema de decisão concernente à interrupção da atuação de uma máquina. Confira-se: TURING, Alan M. On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, Londres, v. 42, n. 1, p. 230-265, nov. 1936.

11 Sobre o tema, confira-se: PASQUALE, Frank. Data-informed duties in AI develpment. Columbia Law Review, Nova York, v. 119, p. 1917-1940, 2019; TOPOL, Eric; LEE, Kai Fu. It takes a planet. Nature Biotechnology, Nova York, v. 37, p. 858-861, 2019.

12 Veja-se: "a) Criar um regime de seguros obrigatórios, se tal for pertinente e necessário para categorias específicas de robôs, em que, tal como acontece já com os carros, os produtores ou os proprietários de robôs sejam obrigados a subscrever um seguro para cobrir os danos potencialmente causados pelos seus robôs; b) Garantir que os fundos de compensação não sirvam apenas para garantir uma compensação no caso de os danos causados por um robô não serem abrangidos por um seguro; c) Permitir que o fabricante, o programador, o proprietário ou o utilizador beneficiem de responsabilidade limitada se contribuírem para um fundo de compensação ou se subscreverem conjuntamente um seguro para garantir a indemnização quando o dano for causado por um robô". PARLAMENTO EUROPEU. Resolução de 16 de fevereiro de 2017. Disposições de Direito Civil sobre Robótica. Disponível aqui. Acesso em: 21 jul. 2020.

13 ANTUNES, Henrique Sousa. Inteligência Artificial e responsabilidade civil: enquadramento. Revista de Direito da Responsabilidade, Coimbra, ano 1, p. 139-154, 2019, p. 153-154.

14 BARBOSA, Mafalda Miranda. Inteligência artificial, e-persons e direito, cit., p. 1501-1502.

15 TEPEDINO, Gustavo; SILVA, Rodrigo da Guia. Desafios da Inteligência Artificial em matéria de responsabilidade civil. Revista Brasileira de Direito Civil, Belo Horizonte, v. 21, p. 61-86, jul./set. 2019, p. 79.

16 TOMASEVICIUS FILHO, Eduardo. Inteligência Artificial e direitos da personalidade: uma contradição em termos? Revista da Faculdade de Direito da USP, São Paulo, v. 113, p. 133-149, jan./dez. 2018, p. 142.

17 No direito alemão, adota-se o conceito de Teilrechtsfähigkeit, por exemplo, para explicar a figura do nascituro, reconhecendo-lhe a titularidade de alguns direitos. WOLF, Manfred; NEUNER, Jörg. Allgemeiner Teil des bürgerlichen Rechts. 12. ed. Munique: C.H. Beck, 2012, p. 682-683.

18 SCHIRMER, Jan-Erik. Artificial Intelligence and legal personality. "Teilrechtsfähigkeit": A partial legal status made in Germany. In: WISCHMEYER, Thomas; RADEMACHER, Thomas (Eds.). Regulating Artificial Intelligence. Cham: Springer, 2020. p. 134. Esclareça-se que o termo Rechtsfähigkeit (capacidade jurídica), no direito alemão, é tradicionalmente equivalente ao termo Rechtspersönlichkeit (personalidade jurídica), havendo, como no Brasil, pelo menos para os que se filiam à corrente de Pontes de Miranda, uma identificação conceitual entre "personalidade jurídica" e "capacidade jurídica". Para um apanhado dos conceitos de personalidade jurídica e capacidade jurídica na Alemanha, inclusive referindo parcial modificação na equivalência entre os conceitos após mudança legislativa ver, por todos, LEHMANN, Matthias. Der Begriff der Rechtsfähigkeit. Archiv für die civilistische Praxis, Tübingen, v. 207, n. 2, p. 225-255, abr. 2017.

19 SCHIRMER, Jan-Erik. Artificial Intelligence and legal personality, cit., p. 135.

20 SCHIRMER, Jan-Erik. Artificial Intelligence and legal personality, cit., p. 136, tradução livre.

21 SCHIRMER, Jan-Erik. Artificial Intelligence and legal personality, cit., p. 137.

22 TEUBNER, Gunther. Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer Softwareagenten. Archiv für die civilistische Praxis, Tübingen, v. 218, n. 2, p. 155-205, ago. 2018. Há que se observar que a análise de Teubner, nesse texto, leva em consideração e aborda expressamente as restrições das regras de responsabilidade civil extracontratual alemãs, e as consequentes dificuldades de responsabilização pelos atos danosos dos agentes, no que denomina de lacunas de responsabilização.

23 Em coerência com o viés sociológico que permeia a obra de Teubner.

24 De acordo com Teubner, a tese seria a seguinte: "Não uma responsabilidade pelo emprego lícito de equipamentos perigosos, mas sim uma responsabilidade por comportamento antijurídico da máquina que decide autonomamente". TEUBNER, Gunther. Digitale Rechtssubjekte, cit., p. 29, tradução livre.

25 SCHIRMER, Jan-Erik. Artificial Intelligence and legal personality, cit., p. 136.

__________

Esta coluna é exclusivamente produzida pelos associados do IBERC (Instituto Brasileiro de Estudos de Responsabilidade Civil). @iberc.brasil