COLUNAS

  1. Home >
  2. Colunas >
  3. Migalhas de Responsabilidade Civil >
  4. Tendências para a responsabilidade civil da Inteligência Artificial na Europa: a participação humana ressaltada

Tendências para a responsabilidade civil da Inteligência Artificial na Europa: a participação humana ressaltada

terça-feira, 3 de novembro de 2020

Atualizado às 08:31

Quando o assunto é responsabilidade civil pelos danos causados por Inteligência Artificial ("IA"), as resoluções do Parlamento Europeu são leitura obrigatória. Até o presente momento, ao menos no Brasil, foram elas que pautaram o debate sobre o tema. Quer se concorde, quer se discorde de suas proposições, não se pode negar a sua importância. E o Parlamento aprovou, neste mês de outubro, por meio de três relatórios, iniciativas para melhor regulamentar a IA na União Europeia, a fim de estimular a inovação, os princípios éticos e a confiança na tecnologia. O primeiro, de iniciativa legislativa de Iban García del Blanco, pretende estabelecer um código ético para a IA. O segundo, de autoria de Axel Voss, dispõe sobre a responsabilidade civil pelos danos causados por IA. Por fim, o terceiro, redigido por Stéphane Séjourné, coloca em evidência os direitos de propriedade intelectual1.

Em linhas gerais, a resolução do Parlamento Europeu, de 16 de fevereiro de 2017, que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica (2015/2103) (INL)2, propunha a adoção predominante de mecanismos de responsabilidade objetiva, que deveriam ser combinados com a criação, a longo prazo, de estatuto jurídico próprio para os tipos de robôs mais avançados, além de um sistema de seguros obrigatórios, associado ou não a um fundo individual ou coletivo para compensações, com registro dos robôs.

Dentre as principais polêmicas trazidas por esta Resolução, está a criação da chamada personalidade jurídica robótica, que não passou longe de críticas tanto na Europa quanto no Brasil. Veja-se, por exemplo, a crítica de Ugo Pagallo, que, por meio de uma comparação metafórica entre maçãs e laranjas, afirma ser necessário parar de confundir e comparar coisas diferentes, quais sejam, as maçãs da responsabilidade (accountability dos robôs) e as laranjas da personalidade jurídica. Segundo Pagallo, a questão central não deveria ser saber se a responsabilidade dos robôs depende da personalidade e vice-versa, mas investigar o porquê de os ordenamentos atribuírem personalidade jurídica a alguém e, a partir daí, verificar se um robô de Inteligência Artificial atende ou não a esses requisitos jurídicos. Caso a resposta seja negativa, o foco do intérprete deverá recair sobre outras modalidades de responsabilização pelos atos autônomos da máquina3.

Especificamente quanto ao relatório de outubro de 2020, de iniciativa de Axel Voss, pode-se destacar o apelo "a um quadro de responsabilidade civil orientado para o futuro, responsabilizando estritamente os operadores de IA de alto risco por quaisquer danos causados. Um quadro jurídico claro estimularia a inovação, fornecendo uma base legal às empresas, ao mesmo tempo em que protegeria os cidadãos e promoveria a confiança nas tecnologias IA, desencorajando ainda atividades que possam revelar-se perigosas"4.

A orientação, segundo o relatório de Voss, é de que as normas de responsabilidade civil a serem apresentadas pelo legislador europeu deverão ser aplicadas às atividades que utilizem IA, tanto física como virtualmente, e que se revelem "nocivas para a vida, a saúde, a integridade física, danosas para a propriedade, ou que possam causar danos imateriais significativos que resultem numa 'perda económica verificável'"5. Uma vez mais, destacou-se que, ainda que as tecnologias de IA de alto risco sejam raras no presente momento, "os operadores deverão estar protegidos por apólices de seguro semelhantes às utilizadas para os veículos a motor"6, o que dialoga diretamente com a Resolução aprovada em 2017.

De fato, tem-se aqui uma importante constatação e que deve passar a nortear os debates: não há uma correlação necessária entre IA e o incremento dos riscos na sociedade tecnológica. Afinal, como registrou o Parlamento Europeu, ainda são raras as IAs que representam um alto risco. Além disso, mesmo aquelas IAs tidas como de alto risco, a exemplo dos carros autônomos, podem acabar no futuro sendo consideradas como de baixo risco. Isso porque a introdução desses veículos no mercado visa fundamentalmente a reduzir o risco na atividade de condução veicular, por meio da diminuição no número de acidentes, já que serão eliminadas - ainda que parcialmente - as causas de acidentes relacionadas à figura do condutor, tais como fadiga, distração e embriaguez7.

Ademais, como tendência geral, as iniciativas de outubro sinalizam para o fato de que as Inteligências Artificiais devem ser concebidas de forma a permitir a supervisão humana a qualquer momento8. Contextualizando esta premissa com o cenário brasileiro, pode-se vislumbrar um longo caminho a ser percorrido por nós, sobretudo após a retirada do artigo 20 da Lei Geral de Proteção de Dados Pessoais (lei 13.709/2018), por meio de veto presidencial, da previsão da obrigatoriedade de revisão por pessoa humana das decisões automatizadas.

Se o que se tem visto, e os relatórios europeus apontam nesse sentido, é uma imensa dificuldade em se auditar a "caixa-preta" dos algoritmos, mergulhando nas inúmeras camadas de programação de suas redes neurais, como tolerar a ausência de obrigação de uma revisão por pessoa humana? Em última análise, ao se negar semelhante obrigação, cria-se um direito de revisão impotente, "um sino sem badalo", já que diante de uma decisão com efeitos discriminatórios, a vítima pedirá a sua revisão e esta poderá ser realizada por outra máquina. Ou seja: se o problema está no elemento "automatizado" da decisão, como explicar que esta seja revista novamente por um mecanismo automatizado?

Em que pese à exclusão da LGPD, Bruno Bioni e Laura Schertel Mendes entendem, acertadamente, que seria possível inferir, com base na "principiologia da Lei que a intervenção humana continua a ser uma exigência em alguma fase do processo de contestação da decisão automatizada, ainda que não no primeiro pedido de revisão"9. E, por mais que pareça contraditório, o mais difícil não é encontrar um fundamento jurídico para se pleitear a revisão por pessoa humana, mas verificar a ocorrência de um tratamento discriminatório.

Veja-se, por exemplo, o caso da concessão de crédito. Imagine-se que determinada pessoa receba uma taxa de juros maior porque o algoritmo da instituição financeira percebeu, por meio de tratamento dos dados pessoais, que o nome da pessoa estava associado a pessoas de origem africana, que, segundo os dados viciados da instituição, tenderiam a ser mais inadimplentes. Constatada tamanha discriminação injustificada, o fundamento para uma revisão por pessoa humana seria facilmente extraído do direito fundamental à igualdade. A dificuldade aqui é outra: como saber que a taxa de juros foi mais alta por causa do nome?

O direito à explicação parece, em um primeiro momento, um bom caminho. No entanto, ainda não está claro como tal direito, que tende a ser extraído do §1º do artigo 20 da LGPD, poderá ser exercido. Além disso, nos casos em que houver proteção ao segredo de negócios, dever-se-á aguardar a realização da verificação de impactos discriminatórios pela Autoridade Nacional de Proteção de Dados Pessoais (ANPD). Como isso será operacionalizado? Será um procedimento rápido?

Tudo isso poderia ser minorado, contudo, se houvesse uma participação humana mais intensa, passível de ser invocada pelo titular dos dados pessoais em todos os momentos. E a importância dessa participação humana se torna ainda mais ressaltada quando se tem em mãos a previsão de que "dentro de apenas dois anos, 42% das tarefas serão realizadas por algoritmos, comparando-se com a taxa atual de 29%"10.

Por fim, caminhando na direção das conclusões de nosso estudo específico sobre o tema (Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade)11, o relatório de autoria do deputado Axel Voss conclui que (i) não é necessária uma revisão completa das normas de responsabilidade civil existentes, mas deve ser levado em consideração que a complexidade, opacidade, capacidade de modificação e autoaprendizado da IA, associadas à participação de inúmeros atores na sua programação, representam um grande desafio à efetividade das normas; (ii) que como quase sempre os danos causados pela IA são, em alguma medida, resultado da participação e do envolvimento de um ser humano, não seria necessário garantir personalidade jurídica própria aos sistemas comandados por Inteligência Artificial, sendo por isso, recomendado não lhes atribuir tal condição12.

Como se pode notar, a tônica na Europa parece estar pautada na indispensável presença humana no desenvolvimento da Inteligência Artificial, na gestão dos riscos e no aproveitamento, o tanto quanto possível, das normas já existentes, a serem associadas a mecanismos de securitização obrigatória cujas contribuições dependerão do risco criado por cada sujeito envolvido na introdução daquele sistema ou robô comandado por IA no mercado. Cabe ao Brasil seguir os bons ventos que sopram do outro lado do Atlântico.

*Filipe Medon é doutorando e mestre em Direito Civil pela UERJ. Professor substituto de Direito Civil na UFRJ e de cursos de pós-graduação do Instituto New Law, CEPED-UERJ, EMERJ e do Curso Trevo. Membro da Comissão de Proteção de Dados e Privacidade da OAB/RJ e do Instituto Brasileiro de Estudos de Responsabilidade Civil (IBERC). Advogado e pesquisador. Instagram @filipe.medon.

__________

1 Parlamento na vanguarda das normas europeias sobre inteligência artificial. Disponível aqui. Acesso em 26 out. 2020.

2 Disponível aqui. Acesso em 18 out. 2020.

3 PAGALLO, Ugo. Apples, oranges, robots: four misunderstandings in today's debate on the legal status of AI systems. 376. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, p. 05. Disponível aqui.

4 Parlamento na vanguarda das normas europeias sobre inteligência artificial. Disponível aqui. Acesso em 26 out. 2020.

5 Parlamento na vanguarda das normas europeias sobre inteligência artificial. Disponível aqui. Acesso em 26 out. 2020.

6 Parlamento na vanguarda das normas europeias sobre inteligência artificial. Disponível aqui. Acesso em 26 out. 2020.

7 MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. Salvador: Juspodivm, 2020.

8 Parlamento Europeu aprova maior regulamentação de Inteligência Artificial na UE. In: TSF, 21 out. 2020. Disponível aqui. Acesso em 26 out. 2020.

9 BIONI, Bruno R;, MENDES, Laura Schertel. Regulamento Europeu de Proteção de Dados Pessoais e a Lei Geral brasileira de Proteção de Dados: mapeando convergências na direção de um nível de equivalência. In: TEPEDINO, Gustavo; FRAZÃO, Ana; OLIVA, Milena Donato (coords.). Lei Geral de Proteção de Dados Pessoais e suas repercussões no Direito Brasileiro. São Paulo: Thomson Reuters Brasil, 2019, p. 809.

10 MEPs urge for firm and clear rules on artificial intelligence. In: Europost, 22 out. 2020. Disponível aqui. Acesso em 26 out. 2020.

11 MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. Salvador: Juspodivm, 2020.

12 No original: "Believes that there is no need for a complete revision of the well-functioning liability regimes but that the complexity, connectivity, opacity, vulnerability, rethe capacity of being modified through updates, the capacity for self-learning and the potential autonomy of AI-systems, as well as the multitude of actors involved therein represent nevertheless a significant challenge to the effectiveness of Union and national liability framework provisions; considers that specific and coordinated adjustments to the liability regimes are necessary to avoid a situation in which persons who suffer harm or whose property is damaged end up without compensation; 7. Notes that all physical or virtual activities, devices or processes that are driven by AIsystems may technically be the direct or indirect cause of harm or damage, yet are nearly always the result of someone building, deploying or interfering with the systems; notes in this respect that it is not necessary to give legal personality to AI-systems; is of the opinion that the opacity, connectivity and autonomy of AI-systems could make it in practice very difficult or even impossible to trace back specific harmful actions of AIsystems to specific human input or to decisions in the design; recalls that, in accordance with widely accepted liability concepts, one is nevertheless able to circumvent this obstacle by making the different persons in the whole value chain who create, maintain or control the risk associated with the AI-system, liable". Disponível aqui. Acesso em 26 out. 2020.

 

__________

Esta coluna é exclusivamente produzida pelos associados do IBERC (Instituto Brasileiro de Estudos de Responsabilidade Civil). @iberc.brasil.