Migalhas de Responsabilidade Civil

ChatGPT e outros modelos de linguagem de larga escala: desafios para a responsabilidade civil

O desenvolvimento de aplicações de processamento de linguagem natural tem sido um desafio, buscando criar algoritmos capazes de compreender solicitações humanas.

22/8/2023

Wittgenstein já escreveu que “os limites de minha linguagem significam os limites do meu mundo”1. De fato, o desenvolvimento de aplicações voltadas ao processamento de linguagem natural sempre foi um desafio, pois algoritmos capazes de “compreender” solicitações e demandas humanas com a sensibilidade que somente um outro humano consegue internalizar é algo que encanta, há décadas, pesquisadores de todo o planeta. Entretanto, até o momento atual, nunca se conseguiu desenvolver um programa sofisticado o suficiente para cumprir tal objetivo.

Há quem se reporte à nomenclatura Artificial General Intelligence (AGI) para descrever o hipotético fenômeno transformador da singularidade tecnológica – em que tal propósito será alcançado –, especialmente a partir da pujança de técnicas mais avançadas, como o aprendizado profundo (deep learning), que fomenta sistemas ditos “generativos”, porquanto baseados em redes neurais recorrentes (recurrent neural networks, ou RNNs) ou em transformers (modelos de linguagem de larga escala com aplicação no processamento de linguagem natural), o que torna essa realidade mais instigante, especialmente na análise de suas consequências, que são muitas – algumas empolgantes e desafiadoras – ao mesmo tempo que seus riscos representam grandes percalços para a Ciência do Direito.

O que não se pode negar é que a mudança de paradigma2 vislumbrada desde o início deste novo período tem um substrato essencial: a informação. Tudo muda com Alan Turing e a famosa problematização (Entscheidungsproblem)3 que inspiraria suas investigações posteriores, a partir das quais buscava investigar o potencial de uma máquina para processar informações a ponto de gerar respostas da mesma forma que um humano o faria4. Em síntese, esperava-se que o processamento imbatível dos microprocessadores permitisse à máquina, eventualmente, se “emancipar” e, de fato, emular o comportamento humano. O que Turing não esperava era que os conceitos exatos e herméticos da matemática seriam incapazes de, no teste, permitir às máquinas ludibriar, mentir e dissimular, o que tornava fácil a detecção de respostas humanas em comparação às das máquinas.

Não obstante, sistemas contemporâneos de inteligência artificial, com destaque para o Generative Pre-Trained Transformer (GPT), já se demonstraram capazes de superar o “Teste de Turing” (e muitos outros testes similares, como o Winograd Schema5) e até mesmo exames realizados por humanos, a exemplo de exames para o exercício de profissões como a de médico ou de advogado, nos Estados Unidos da América6.

Se a informática marcou um novo estágio de poder computacional e de desenvolvimento de hardware, o acúmulo informacional foi o responsável por ‘alimentar’ esses novos equipamentos e fomentar o avanço de estruturas informacionais a partir do software. Nesse contexto, a solução para o Entscheidungsproblem passaria, necessariamente, pelo enfrentamento das principais objeções à proposta de que máquinas podem ‘pensar’. Mais do que um teste, era preciso que se tornasse viável o que Turing batizou de “jogo da imitação”7: um cenário no qual determinada máquina se tornasse capaz de enganar um terço de seus interlocutores, fazendo-os acreditar que se trataria de um ser humano8. Estaria tal máquina ‘pensando’?

Esse único questionamento desencadeou diversas teorizações acerca da superação das diferenças entre humanos e máquinas (human-machine divide)9 e dos dilemas de desenvolvimento e evolução da inteligência artificial10. É possível dizer que, no atual estado da técnica, ainda não é factível a conclusão de que um algoritmo possa se tornar ‘inteligente’11. Nos dizeres de Howard Gardner, “pode-se concluir que a habilidade lógico-matemática não é um sistema tão “puro” ou “autônomo” como outros revisados ??aqui, e talvez deva contar não como uma única inteligência, mas como algum tipo de inteligência supra ou mais geral”12.

O exemplo do ChatGPT – que nada mais é que uma ferramenta comercial oferecida pela OpenAI para o processamento de comandos de texto (prompts) que acionam o modelo de linguagem de larga escala transformador – é apenas uma singela demonstração dos resultados que se pode atingir com a maturação de sistemas capazes de “se desenvolver”, com rapidez, pela evolução propiciada pelo machine learning a partir de quantidades colossais de dados.

Nesse cenário, o conhecimento da Ciência de Dados se torna relevantíssimo, pois é nesse campo multidisciplinar que se concentra o estudo de todos os aspectos dos dados, desde sua geração até seu processamento para convertê-los em uma fonte valiosa de conhecimento13 e de fomento à análise preditiva, que utiliza técnicas estatísticas14 e de aprendizado de máquina (machine learning) para “prever” resultados15. Isso pode ser útil em diversos contextos, tais como a análise de dados históricos, o mapeamento de decisões judiciais pretéritas para identificar padrões e estimar a probabilidade de sucesso de um caso, ou mesmo a análise de texto jurídico. De modo geral, com a Ciência de Dados, é possível extrair informações significativas de grandes volumes de textos jurídicos, como leis, regulamentos, contratos, pareceres e decisões judiciais e a análise desses conteúdos pode propiciar a identificação de tendências, a análise e interpretação de determinados termos legais e até mesmo a automatização de tarefas.

No campo do Direito, tanto os analistas de dados quanto os cientistas de dados desempenham papéis importantes na análise e interpretação de dados jurídicos, permitindo uma compreensão mais profunda de questões complexas, avaliação de resultados e apoio à tomada de decisões fundamentadas. Noutras palavras, profissionais do Direito inseridos na complexa sociedade da informação que atingiu seu apogeu em pleno século XXI não costumam desenvolver tais competências e habilidades, ao menos não tradicionalmente16. Desse modo, almejando indicar algumas habilidades17 necessárias para o futuro18, pondera-se a necessidade de transparência e, desejavelmente, explicabilidade para que possa assimilar parâmetros extraídos da heurística computacional e das inferências causais de modelos de linguagem.

Tais são conceitos relevantes para o Direito, pois ajudam a compreender e justificar decisões de forma mais transparente e fundamentada19. A transparência, pelo fato de explicitar a utilização de determinado conjunto de dados ou de uma técnica específica de processamento. E, de modo geral, a explicabilidade pelo fato de se referir à capacidade de “entender” e explicar como um modelo ou algoritmo de tomada de decisão chega a determinadas conclusões20.

No Direito, a explicabilidade é essencial, pois os sistemas jurídicos são baseados no princípio da justificação. Assim, ao aplicar técnicas de Ciência de Dados, é importante que os resultados e as decisões geradas sejam compreensíveis e possam ser explicados de forma clara e acessível, tanto para os profissionais do Direito quanto para os cidadãos envolvidos no processo.

É de se notar, nesse sentido, que transparência e explicabilidade (art. 3º, VI) são dois dos vários princípios definidos no texto do substitutivo da Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre IA (CJSUBIA)21, que realizou diversas reuniões e audiências públicas nos trabalhos de elaboração do substitutivo, que foi apresentado em dezembro de 2022 e inspirou o texto final do PL 2.338/2322.

Se os algoritmos não são capazes de “pensar”, mas são suficientemente avançados para tomar decisões “resultantes de uma combinação de inputs de programação não originária”23, ao menos uma leitura ampliativa do conceito de ‘responsabilidade’ poderá nortear a solução de problemas como “a opacidade decisória, a falta de explicação quanto aos critérios utilizados e a herança de inputs viciados, enviesados e preconceituosos, o que culmina na produção de discriminações injustificadas”24.

Enfim, não se tem respostas definitivas para todos os desafios inaugurados pela profusão do acesso aos transformers (e outros modelos de linguagem de larga escala, como o ChatGPT), e o tema ainda suscitará muitos questionamentos, mas o avanço rumo à consagração da função precaucional da responsabilidade civil parece ser realmente necessário para a compatibilização do desenvolvimento tecnológico – galopante e irrefreável – com a necessária proteção aos direitos fundamentais (e a máxima prevenção dos vieses algorítmicos), especialmente a partir da proliferação de uma cultura de accountability.

_____________

1WITTGENSTEIN, Ludwig. Tractatus Logico-Philosophicus. 2. ed. Londres: Routledge Classics, 2001, p. 68, tradução livre. No original: “The limits of my language mean the limits of my world”.

2 Thomas Kuhn empregou a expressão paradigma no seguinte sentido: “um paradigma é aquilo que os membros de uma comunidade partilham e, inversamente, uma comunidade científica consiste em homens que partilham um paradigma”. O termo paradigma, nesta pesquisa, ganha conotação mais ampliada, não só no sentido de uma comunidade científica ou de determinada época, mas diz respeito às diversas mutações do pensamento ocidental. KUHN, Thomas. A estrutura das revoluções científicas. São Paulo: Perspectiva, 2000, p. 221.

3 Friedrich Kittler, se reportando ao “Teste de Turing” e ao poder da informação, destaca o seguinte: “Only in Turing’s paper On Computable Numbers with an Application to the Entscheidungsproblem there existed a machine with unbounded resources in space and time, with infinite supply of raw paper and no constraints on computation speed. All physically feasible machines, in contrast, are limited by these parameters in their very code. The inability of Microsoft DOS to tell more than the first eight letters of a file name such as WordPerfect gives just a trivial or obsolete illustration of a problem that has provoked not only the ever-growing incompatibilities between the different generations of eight-bit, sixteen-bit and thirty-two-bit microprocessors, but also a near impossibility of digitizing the body of real numbers formerly known as nature”. KITTLER, Friedrich. There is no software. CTHEORY.net. 18 out. 1995. Disponível em: http://www.ctheory.net/articles.aspx?id=74. Acesso em: 16 ago. 2023.

4 TURING, Alan M. Computing machinery and intelligence. Mind, n. 236, 433-460, out. 1950. Disponível em: https://dx.doi.org/10.1093/mind/LIX.236.433. Acesso em: 16 ago. 2023.

5 FALEIROS JÚNIOR, José Luiz de Moura. Breves reflexões sobre os impactos jurídicos do algoritmo GPT-3. In: BARBOSA, Mafalda Miranda et al (coord.). Direito digital e inteligência artificial: diálogos entre Brasil e Europa. Indaiatuba: Foco, 2021, p. 521-524.

6 VARANASI, Lakshmi. AI models like ChatGPT and GPT-4 are acing everything from the bar exam to AP Biology. Here's a list of difficult exams both AI versions have passed. Business Insider, 25 jun. 2023. Disponível em: https://www.businessinsider.com/list-here-are-the-exams-chatgpt-has-passed-so-far-2023-1 Acesso em: 16 ago. 2023.

7 TURING, Alan M. Computing machinery and intelligence. Mind, Oxford, n. 236, p. 433-460, out. 1950, p. 25. Disponível em: https://dx.doi.org/10.1093/mind/LIX.236.433 Acesso em: 16 ago. 2023.

8 Cf. HARNAD, Stevan. The Annotation Game: on Turing (1950), on computing, machinery and intelligence. In: EPSTEIN, Robert; PETERS, Grace (ed.). Parsing the Turing Test: philosophical and methodological issues in the quest for the thinking computer. Cham: Springer, 2008.

9 WARWICK, Kevin. The disappearing human-machine divide. In: ROMPORTL, Jan; ZACKOVA, Eva; KELEMEN, Jozef (ed.). Beyond Artificial Intelligence: the disappearing human-machine divide. Cham: Springer, 2015, p. 9.

10 FLASINSKI, Mariusz. Introduction to Artificial Intelligence. Cham: Springer, 2016, p. 3-13.

11 KAPLAN, Jerry. Humans need not apply: a guide to wealth and work in the Age of Artificial Intelligence. New Haven: Yale University Press, 2015, p. 3-16.

12 GARDNER, Howard. Frames of mind: the theory of multiple intelligences. Nova York: Basic Books, 2011, p. 168, tradução livre. No original: “(...) one could conclude that logical-mathematical ability is not as “pure” or “autonomous” a system as others reviewed here, and perhaps should count not as a single intelligence but as some kind of supra- or more general intelligence.”

13 OHM, Paul; DOGAN, Stacey; BESTAVROS, Azer; SELLARS, Andy. Bridging the Computer Science-Law Divide. Boston: Boston University Press, 2022, p. 24. 

14 CLEVELAND, William S. Data Science: An Action Plan for Expanding the Technical Areas of the Field of Statistics. International Statistical Review, Oxford, v. 69, n. 1, p. 21-26, 2001, p. 22.

15 DOMINGOS, Pedro. The master algorithm: how the quest for the ultimate learning machine will remake our world. Nova York: Basic Books, 2015, p. 6.

16 SUSSKIND, Richard. Transforming the law: essays on technology, justice and the legal marketplace. Oxford: Oxford University Press, 2000, p. 170.

17 LEHR, David; OHM, Paul. Playing with the Data: What Legal Scholars Should Learn about Machine Learning. U.C. Davis Law Review, Davis, v. 51, p. 653-717, 2017.

18 SUSSKIND, Richard; SUSSKIND, Daniel. The future of professions: how technology will transform the work of human experts. Oxford: Oxford University Press, 2015, p. 29. Anotam: “(...) the most efficient future lies with machines and human beings working together. Human beings will always have value to add as collaborators with machines”.

19 KAMINSKI, Margot E. Understanding Transparency in Algorithmic Accountability. In: BARFIELD, Woodrow (ed.). The Cambridge Handbook of the Law of Algorithms. Cambridge: Cambridge University Press, 2021, p. 121.

20 PARENTONI, Leonardo. What should we reasonably expect from artificial intelligence? Il Diritto degli Affari, Florença, v. XII, n. 2, p. maio/ago., 2022, p. 195-196. O autor informa a distinção conceitual, mas detalha a proximidade entre os dois termos: “Although the notions of transparency and explainability are technically different, this section addresses them altogether since they are intimately connected. Roughly speaking, they mean that a human user is able to understand why an AI system generated a certain output and explain it to an ordinary user of that system. Transparency is undoubtedly a fundamental value provided in numerous legal standards, for both the public and the private sectors, worldwide. It is of paramount importance and should be respected according to the provisions of each legal system. Therefore, the bigger the transparency, the better”.

21 BRASIL. Senado Federal. Atividade Legislativa. Comissão de Juristas responsável por subsidiar elaboração de substitutivo sobre IA (CJSUBIA). Disponível em: https://legis.senado.leg.br/comissoes/comissao?codcol=2504 Acesso em: 16 ago. 2023.

22 BRASIL. Senado Federal. Projeto de Lei nº 2.338, de 2023. Dispõe sobre o uso da Inteligência Artificial. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233 Acesso em: 16 ago. 2023.

23 FERREIRA, Ana Elisabete. Responsabilidade civil extracontratual por danos causados por robôs autônomos: breves reflexões. Revista Portuguesa do Dano Corporal, Coimbra: Imprensa da Universidade de Coimbra, n. 27, p. 39-63, dez, 2016, p. 44.

24 MEDON, Filipe. Inteligência Artificial e responsabilidade civil: autonomia, riscos e solidariedade. Salvador: Juspodivm, 2020, p. 408.

Veja mais no portal
cadastre-se, comente, saiba mais

Colunistas

Carlos Edison do Rêgo Monteiro Filho é professor titular e ex-coordenador do programa de pós-graduação em Direito da Faculdade de Direito da UERJ (mestrado e doutorado). Doutor em Direito Civil e mestre em Direito da Cidade pela UERJ. Presidente do Fórum Permanente de Direito Civil da Escola Superior de Advocacia Pública da Procuradoria-Geral do Estado do Rio de Janeiro (ESAP/PGE). Vice-presidente do IBERC (Instituto Brasileiro de Estudos da Responsabilidade Civil). Autor de livros e artigos científicos. Advogado, parecerista e consultor em temas de Direito Privado.

Fernanda Schaefer é pós-doutora pelo Programa de pós-graduação Stricto Sensu em Bioética da PUC-PR. Doutora em Direito das Relações Sociais pela Universidade Federal do Paraná, curso em que realizou Doutorado Sanduíche nas Universidades do País Basco e Universidade de Deusto (Espanha). Professora do UniCuritiba. Coordenadora do Curso de Pós-Graduação em Direito Médico e da Saúde da PUC-PR. Assessora Jurídica do CAOP Saúde MPPR.

Igor de Lucena Mascarenhas é advogado e professor universitário nos cursos de Direito e Medicina (UFPB / UNIFIP). Doutorando em Direito pela UFBA e doutorando em Direito pela UFPR. Mestre em Ciências Jurídicas pela UFPB. Especialista em Direito da Medicina pelo Centro de Direito Biomédico vinculado à Faculdade de Direito da Universidade de Coimbra.

Nelson Rosenvald é advogado e parecerista. Professor do corpo permanente do Doutorado e Mestrado do IDP/DF. Pós-Doutor em Direito Civil na Università Roma Tre. Pós-Doutor em Direito Societário na Universidade de Coimbra. Visiting Academic na Oxford University. Professor Visitante na Universidade Carlos III, Madrid. Doutor e Mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUC/SP. Presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Foi Procurador de Justiça do Ministério Público de Minas Gerais.

Paulo Roque Khouri é doutorando em Direito Constitucional pelo Instituto Brasiliense de Direito Público — IDP. Graduado em Direito pelo Centro Universitário de Brasília – UNICEUB (1992) e em Jornalismo pela Universidade Federal de Juiz de Fora (UFJF) (1987); mestrado em Direito Privado pela Universidade de Lisboa (2006). Atualmente é professor do Instituto Brasiliense de Direito Público (IDP), sócio do escritório de advocacia Roque Khouri & Pinheiro Advogados Associados S/C.