COLUNAS

  1. Home >
  2. Colunas >
  3. Migalhas de Responsabilidade Civil >
  4. Explicabilidade algorítmica e responsabilidade civil

Explicabilidade algorítmica e responsabilidade civil

terça-feira, 2 de abril de 2024

Atualizado às 07:41

Não há dúvidas de que o período de transição no qual se consolida o apogeu da assim chamada 'sociedade da informação' desvela nuances que, para a Ciência do Direito, impõem a reestruturação de certas bases teóricas. Dito isso, sabe-se que algoritmos não são "inteligentes". Bem ao contrário, para funcionarem, ainda dependem do passado para apontar predições heurísticas em caráter probabilístico (pois, em resumo, o que fazem é processar dados) e, devido a tal singela e absolutamente óbvia razão, estão muito distantes do modo de agir intuitivo, imaginativo e criativo dos seres humanos.

Há institutos jurídicos permeados por discussões interessantes que decorrem disso. É o caso da responsabilidade civil, cujas funções vêm sendo investigadas há tempos pela doutrina especializada. Por certo, é nesse campo de estudos que se situa a grande inquietação sobre os limites de imputação do dever reparatório decorrente de eventual falha propiciada por algoritmos complexos que, embora parametrizados e adequadamente desenvolvidos no atual estado da técnica, podem ser vetores da causação de danos por fatores que não se sabe se são, ou não, total ou parcialmente previsíveis.

Trabalha-se com a accountability no contexto do desenvolvimento algorítmico (e de seus riscos subjacentes), sinalizando inegável propensão ao estabelecimento de deveres que reestruturam o arcabouço específico da dogmática clássica e reforçam o labor proativo ou investigativo ex ante - que previne danos - como vetor da exploração de atividades cujo risco é identificado na própria complexidade dos algoritmos. Para tanto, ao analisar o tema, tenho me reportado1 às propostas de três importantes pesquisadores, a saber: 

  1. as construções teóricas de Frank Pasquale em torno do princípio da explicabilidade e dos 'deveres informados por dados' (data-informed duties);
  2. o conceito expandido de explicabilidade de Mark Coeckelbergh, que abre espaço para a proposta das 'justificativas relacionais' (relational justifications);
  3. a accountability multicamadas, baseada em parâmetros éticos introjetados juridicamente no debate regulatório, de Giovanni Comandé.

Vamos a elas.

Fala-se em "inteligência artificial" por convenção, embora a própria expressão seja confusa, uma vez que passou a condensar diversos significados, mais se aproximando de um ramo científico multidisciplinar2 do que de uma tecnologia propriamente dita. Por esse motivo, a parametrização de deveres mais apurados (e, consequentemente, mais contingenciáveis) conduz à noção de 'previsibilidade', que melhor se alinha - no atual estado da técnica - à função preventiva da responsabilidade civil.

A doutrina estrangeira se vale do termo foreseeability3 para sintetizar esse elemento mesmo em contextos nos quais a teoria da culpa possa fazer mais sentido (como na averiguação de comportamento negligente do desenvolvedor de um sistema algorítmico). Não obstante, também se reconhece que é preciso ir além na busca por um critério adequado para atender à função precaucional da responsabilidade civil para contextos de total imprevisibilidade.

Espera-se que algoritmos complexos sejam concebidos a partir de estruturas colaborativas, nas quais a fidúcia permeie as relações entre profissionais e corporações diretamente envolvidos em todos os seus estágios de desenvolvimento, sinalizando a importância da confiança para a IA (trustworthy AI), ancorada na ética, e que pode ser estudada à luz da acepção que Giddens nomeia de reliability, ao tratar especificamente de princípios abstratos do conhecimento técnico (technical knowledge)4.

A essência dos três postulados cunhados por Jack Balkin5 mostra que o esperado grau de excepcional diligência do agente que programa/desenvolve um algoritmo decorre não apenas da expectativa de conformidade à legislação e à gestão de riscos (compliance), mas à atuação proativa quanto à mitigação de riscos (accountability ex ante), em concretização ao tão famoso 'princípio responsabilidade', há tempos defendido por Hans Jonas6. Isso não afasta, todavia, a importância da formulação de regras de boas práticas e de governança direcionadas aos possíveis danos e ao seu enfrentamento (accountability ex post), levando em consideração a natureza, o escopo, a finalidade, a probabilidade e a gravidade dos riscos e dos benefícios decorrentes da adoção de sistemas algoritmicamente estruturados.

O caráter cooperativo identificado nas propostas de Balkin levaram Frank Pasquale a propor uma 'quarta lei': um robô sempre deve indicar a identidade de seu criador, controlador ou proprietário7. Este novo postulado concretiza o que a doutrina já sustentava como 'princípio da explicabilidade', direcionado a permitir que determinada máquina indique quem é o seu criador e, eventualmente, também revele a identidade de seu proprietário ou usuário/operador.

Se o risco é o elemento central de todas essas propostas, mas a noção de perigo - e a própria precaução - também instigam reflexões sobre os reflexos do desenvolvimento tecnológico desenfreado, resta frisar que "o conceito, a tipologia e a gravidade dos danos que inspiram a formatação dos sistemas de responsabilidade civil ao longo dos tempos variaram sob uma perspectiva proporcional à própria transformação da sociedade"8.

Inegavelmente, o fato de o risco ser comprovado ou potencial não afasta a pertinência dos princípios da prevenção e da precaução exatamente porque todo tipo de "novo dano" gera certa empolgação e, como alerta Ulrich Beck, acarreta suposições de aceitação social de novas tecnologias9 - ainda que não completamente testadas - pelo fato de o risco, em alguma medida, se tornar inerente às diversas atividades da vida cotidiana.

A proposta de Pasquale encontra sustentáculos, inclusive, em apontamentos lançados na clássica obra de Stuart Russell e Peter Norvig, que já falavam na 'quantificação das incertezas': "Os agentes podem precisar lidar com a incerteza, seja devido à observabilidade parcial, ao não-determinismo da incerteza ou a uma combinação dos dois"10. Em síntese, pode-se afirmar que as conjecturas a partir das quais são concebidos os 'deveres informados por dados' (data-informed duties) se alinham à já mencionada 'quarta lei da robótica' proposta por Pasquale (princípio da explicabilidade)11, pois sua ideia reforça a necessidade de superação de um problema também descrito pelo autor, noutra obra12: o das 'caixas-pretas' (black boxes) algorítmicas, usualmente identificadas pela utilização de técnicas de machine learning opacas ou não-transparentes para os usuários13.

Na responsabilidade civil, uma conexão muito próxima com o princípio da explicabilidade pode ser traçada em função de inúmeras propostas. Uma delas, de Mark Coeckelbergh, se escora nas 'justificativas relacionais' (relational justifications) para ampliar a noção de explicabilidade a ponto de se exigir dos experts que, sendo imprescindível o desenvolvimento de algoritmos para sistemas de IA, que o façam de forma clara, indicando que são capazes de desenvolvê-los, que desejam fazê-lo, e explicando as razões que os levaram a tomar cada decisão no percurso do desenvolvimento, inclusive para estágios de treinamento e de teste de conjuntos de dados14.

Uma proposta alternativa à de estruturação dos data-informed duties envolve o reconhecimento da função preventiva e sua funcionalização a partir da desejável accountability15 para o desenvolvimento de algoritmos. Essa ideia é colhida dos escritos de Giovanni Comandé, que realçam a necessidade de transição da tradicional responsabilidade estrita (liability) para um modelo de responsabilização que se ocupe, também, das funções preventiva e precaucional, impondo a quem assume melhor posição hierárquica quanto à assunção de deveres "informados" o múnus de fazer escolhas e justificá-las àqueles sobre os quais incidem seus efeitos.

Na sociedade da informação, a accountability deve representar uma 'cultura16(mais, portanto, que um 'dever') e seus efeitos devem ultrapassar os da mera 'prestação de contas' (como se poderia cogitar a partir da tradução literal do termo) pelas escolhas feitas. Trata-se, portanto, da expectativa legítima de que o agente responda, nas esferas apropriadas (política, civil, criminal, administrativa, ética, social), por suas possíveis falhas e pelas deficiências de suas escolhas (especialmente se forem escolhas informadas)17.

Primando pela proteção da confiança, a discussão sobre accountability contempla aspectos éticos que passam a ser reinterpretados para a aplicação de sistemas de inteligência artificial no campo de investigação que concerne à necessidade de regulação específica. Ao invés de normatizar "como" devem ser criados, aplicados e fiscalizados os algoritmos, esse modelo mais aberto cria nichos específicos nos quais faz mais sentido estabelecer guidelines mais abertas, com grau de generalização suficiente para orientar o desenvolvimento tecnológico sem ceifá-lo da ambientação profícua à sua livre testagem e pivotagem.

Eis, enfim, uma síntese de ponderações para entendermos o enquadramento jurídico adequado da explicabilidade em relação à responsabilidade civil:

  1. Uma primeira constatação sobre o tema é a de que, quanto às exigências imponíveis a operadores algorítmicos18, impõe-se o cumprimento de deveres de cuidado, que dizem respeito: a.1) à escolha da tecnologia, em particular à luz das tarefas a serem realizadas e das próprias competências e habilidades do operador; a.2) ao quadro organizacional previsto, em especial no que diz respeito a um acompanhamento adequado; a.3) e à manutenção, incluindo quaisquer verificações de segurança e reparos. O não cumprimento de tais obrigações poderia desencadear responsabilidade por culpa (ainda que presumida, invertendo-se o ônus da prova), independentemente de o operador também ser estritamente responsável pelo risco criado, a partir do implemento de determinada tecnologia, pois não se lida com o incerto ou com gradações altas ou excessivas do risco. 
  2. Com relação aos produtores e fabricantes, nas relações de consumo, inclusive para os que atuam incidentalmente como operadores, devem ser observados os seguintes padrões de conduta, segundo Benhamou e Ferland19: b.1) conceber, descrever e comercializar produtos de uma forma que lhes permita cumprir os 'data-informed duties', tornando os riscos mais previsíveis (em realce à esperada foreseeability); e monitorar adequadamente o produto após a sua colocação em circulação, à luz das características das tecnologias digitais emergentes, em particular a sua abertura e dependência do ambiente digital geral, incluindo a obsolescência (programada ou não), o surgimento de malware ou mesmo sua vulnerabilidade a eventuais ataques externos. 
  3. A chamada supervisão, entendida no contexto do dever de monitoramento ("superior" ou "hierárquico", que pode ser decorrente até mesmo do poder de polícia estatal, naquilo que Pasquale denomina de "oversight"20), poderia ser alcançada pela realização de auditorias e estudos do algoritmo específico, mesmo após a sua liberação ao mercado. Desse modo, como decorrência da implementação de sistemas de monitoramento supervisionado de riscos (risk assessment), seria esperada a identificação de anomalias e a parametrização prévia dos sistemas para "avisar" sobre a ocorrência de comportamentos inesperados, bem como pela observação das tendências específicas de evolução a partir do machine learning para 'prever' comportamentos anômalos. Uma vez que tal monitoramento seja implementado, a obrigação de informar as vítimas potenciais surge como dever anexo da boa-fé objetiva21, convolado no princípio da transparência, que guarda íntima correlação com o princípio da explicabilidade.
  4. Havendo viabilidade, defende-se que os produtores, fabricantes ou desenvolvedores devem ser compelidos a incluir backdoors obrigatórios22 em seus sistemas de IA. Outras designações para isso são as expressões "freios de emergência por padrão" (emergency brakes by design), "recursos de desligamento automático" (shut down), ou recursos que permitam aos operadores ou usuários "desligar a IA" por comandos manuais, ou torná-la 'ininteligente' pelo acionamento de um 'botão do pânico' (panic button)23. Não garantir tais ferramentas e opções poderia ser considerado um defeito de design suficiente para justificar a responsabilização por infringência ao dever geral de segurança que lhes seria imponível, o que abriria margem à tutela de danos pela responsabilidade civil por fato do produto, reconhecendo como defeituoso o próprio algoritmo. De fato, a depender das circunstâncias, os fabricantes ou desenvolvedores também poderiam ser obrigados a "desligar" os próprios sistemas de IA como parte de suas tarefas de monitoramento e auditoria algorítmica.
  5. Semelhante aos deveres de pós-venda já conhecidos no mercado de consumo e que são compostos de avisos e instruções para recall de produtos defeituosos, os produtores/fabricantes também podem assumir deveres de suporte e correção - corolários da auditabilidade e da transparência24 - consentâneos com outros desenvolvimentos recentes sobre a obrigação potencial dos desenvolvedores de software de atualizar algoritmos inseguros, durante todo o tempo em que a referida tecnologia estiver no mercado (ou seja, para além de qualquer estipulação contratual sobre prazo de garantia)25.

__________

1 FALEIROS JÚNIOR, José Luiz de Moura. Responsabilidade por falhas de algoritmos de inteligência artificial: ainda distantes da singularidade tecnológica, precisamos de marcos regulatórios para o tema? Revista de Direito da Responsabilidade, Coimbra, v. 4, p. 906-933, 2022. p. 907.

2 Em 2020, com a publicação da 4ª edição de sua obra seminal, Stuart J. Russell e Peter Norvig detalharam melhor esse problema conceitual. Sobre isso, cf. RUSSELL, Stuart J.; NORVIG, Peter. Artificial Intelligence: a modern approach. 4. ed. Londres: Pearson, 2020. p. 19-20. Em retrospecto histórico ainda mais completo, imprescindível a leitura da recente e absolutamente elucidativa obra de WOOLDRIDGE, Michael. The road to conscious machines: The story of AI. Los Angeles: Pelican, 2020.

3 CALO, Ryan. Robotics and the lessons of cyberlaw. California Law Review, Berkeley, v. 103, p. 513-563, 2015. p. 555. O autor comenta: "Foreseeability remains a necessary ingredient even where liability is otherwise "strict" (i.e., where no showing of negligence by the plaintiff is necessary to recovery). There will be situations, particularly as emergent systems interact with one another, wherein otherwise useful technology will legitimately surprise all involved. Should these systems prove deeply useful to society, as many envision, some other formulation than foreseeability may be necessary to assess liability".

4 Segundo o autor, "(.) confidence in the reliability of a person or system, regarding a given set of outcomes or events, where that confidence expresses faith in the probity or love of another, or in the correctness of abstract principles (technical knowledge)". GIDDENS, Anthony. The consequences of modernity. Stanford: Stanford University Press, 1990. p. 34.

5 A centralidade dessa nova preocupação deve ser - como sempre o foi - o aspecto humano. Isso se conclui pela leitura, por exemplo, das clássicas três leis da robótica descritas por Isaac Asimov no conto "Círculo Vicioso" de sua famosa coletânea "Eu, Robô" (ASIMOV, Isaac. Eu, Robô. Trad. Aline Storto Pereira. São Paulo: Aleph, 2014), que, por sua vez, inspiraram o norte-americano Jack Balkin a também formular três postulados para o enquadramento jurídico dessa complexa discussão. Foram chamadas pela doutrina de 'leis da robótica na era do Big Data' e são assim resumidas: (a) operadores algorítmicos devem ser fiduciários de informações em relação a seus clientes e usuários finais; (b) operadores algorítmicos têm deveres para com o público em geral; (c) operadores algorítmicos têm o dever público de não se envolverem em incômodos algorítmicos. (BALKIN, Jack M. The three laws of robotics in the age of Big Data. Ohio State Law Journal, Columbus, v. 78, p. 1-45, ago. 2017. Disponível aqui. Acesso em: 02 fev. 2024.)

6 JONAS, Hans. Le principe responsabilité: une éthique pour la civilisation technologique. Trad. Jean Greisch. 3. ed. Paris: Éditions du Cerf, 1992. p. 225.

7 PASQUALE, Frank. Toward a fourth law of robotics: Preserving attribution, responsibility, and explainability in an algorithmic society. University of Maryland Legal Studies Research Papers, Baltimore, n. 21, p. 1-13, 2017. Disponível aqui. Acesso em: 02 fev. 2024.

8 VENTURI, Thaís G. Pascoaloto. Responsabilidade civil preventiva: a proteção contra a violação dos direitos e a tutela inibitória material. São Paulo: Malheiros, 2014. p. 248.

9 BECK, Ulrich. Risk society: towards a new modernity. Trad. Mark Ritter. Londres: Sage Publications, 1992. p. 6.

10 RUSSELL, Stuart J.; NORVIG, Peter. Artificial Intelligence: a modern approach. 4. ed. Londres: Pearson, 2020. p. 403, tradução livre. No original: "Agents in the real world may need to handle uncertainty, whether due to partial observability, nondeterminism, or adversaries. An agent may never know for sure what state it is in now or where it will end up after a sequence of actions".

11 PASQUALE, Frank. Toward a fourth law of robotics: Preserving attribution, responsibility, and explainability in an algorithmic society. University of Maryland Legal Studies Research Papers, Baltimore, n. 21, p. 1-13, 2017. Disponível aqui. Acesso em: 02 fev. 2024.

12 PASQUALE, Frank. The black box society: the secret algorithms that control money and information. Cambridge: Harvard University Press, 2015. p. 6-7.

13 ASARO, Peter M. A body to kick, but still no soul to damn: legal perspectives on robotics. In: LIN, Patrick; ABNEY, Keith; BEKEY, George A. (ed.). Robot ethics: the ethical and social implications of robotics. Cambridge: The MIT Press, 2011. p. 169-186.

14 COECKELBERGH, Mark. Artificial intelligence, responsibility attribution, and a relational justification of explainability. Science and Engineering Ethics, Cham, v. 26, p. 2051-2068, 2020. p. 2066.

15 O termo 'responsabilidade' não possui significado único. Seu escopo é ainda mais amplo em idiomas como o francês ou o espanhol, nos quais a 'responsabilidade' é usada em relação a um campo muito amplo de relações jurídicas, políticas e econômicas e, dentro delas, às suas respectivas dimensões. Em inglês, porém, a existência de termos diferentes para se referir às várias dimensões da responsabilidade - responsibility, accountability, liability - permite uma aplicação mais precisa do conceito. Sobre isso, conferir ROSENVALD, Nelson. A polissemia da responsabilidade civil na LGPD. Migalhas de Proteção de Dados, 06 nov. 2020. Disponível aqui. Acesso em: 02 fev. 2024.

16 NISSENBAUM, Helen. Accountability in a computerized society. Science and Engineering Ethics, Cham, v. 2, n. 1, p. 5-42, mar. 1996. p. 7.

17 COMANDÉ, Giovanni. Intelligenza Artificiale e responsabilità tra liability e accountability: il carattere trasformativo dell'IA e il problema della responsabilità. In: NUZZO, Antonio; OLIVIERI, Gustavo (a cura di). Analisi giuridica dell'Economia. Studi e discussioni sul diritto dell'impresa. Bolonha: Il Mulino, 2019, v. 1. p. 185.

18 BALKIN, Jack M. The path of robotics law. California Law Review Circuit, Berkeley, v. 6, 45-60, jun. 2015. p. 52. O autor é assertivo: "We might hold many different potential actors liable, including the owner, operator, retailer, hardware designer, operating system designer, or programmer(s), to name only a few possibilities".

19 BENHAMOU, Yaniv; FERLAND, Justine. Artificial Intelligence & damages: assessing liability and calculating the damages. In: D'AGOSTINO, Pina; PIOVESAN, Carole; GAON, Aviv (ed.). Leading legal disruption: Artificial Intelligence and a toolkit for lawyers and the law. Toronto: Thomson Reuters Canada, 2021. p. 196-197.

20 PASQUALE, Frank. New laws of robotics: defending human expertise in the age of AI. Cambridge: Harvard University Press, 2020. p. 99.

21 WISCHMEYER, Thomas. Artificial Intelligence and transparency: Opening the black box. In: WISCHMEYER, Thomas; RADEMACHER, Timo (ed.) Regulating Artificial Intelligence. Cham: Springer, 2020. p. 76.

22 LIAO, Cong; ZHONG, Haoti; SQUICCIARINI, Anna et al. Backdoor Embedding in Convolutional Neural Network Models via Invisible Perturbation. Proceedings of the Tenth ACM Conference on Data and Application Security and Privacy, p. 97-108, mar. 2020. Disponível aqui. Acesso em: 02 fev. 2024.

23 BENHAMOU, Yaniv; FERLAND, Justine. Artificial Intelligence & damages: assessing liability and calculating the damages. In: D'AGOSTINO, Pina; PIOVESAN, Carole; GAON, Aviv (ed.). Leading legal disruption: Artificial Intelligence and a toolkit for lawyers and the law. Toronto: Thomson Reuters Canada, 2021. p. 196-197.

24 PASQUALE, Frank. Data-informed duties in AI development. Columbia Law Review, Nova York, v. 119, p. 1917-1940, 2019. p. 1937.

25 De fato, embora nenhuma lei contenha claramente uma obrigação clara e explícita de fazê-lo, já se tem sinalização jurisprudencial que interpreta as normas jurídicas existentes de uma forma que cria tal obrigação aos desenvolvedores; é o caso do precedente holandês Consumentenbond v. Samsung. Para um estudo detalhado do caso e de suas repercussões, conferir: WOLTERS, Pieter T. J. The obligation to update insecure software in the light of Consumentenbold/Samsung. Computer Law & Security Review, Londres, v. 35, n. 3, p. 295-305, maio 2019.