COLUNAS

  1. Home >
  2. Colunas >
  3. Migalhas de Responsabilidade Civil >
  4. Responsabilidade de algoritmo de IA pelos fundamentos de autoaprendizagem

Responsabilidade de algoritmo de IA pelos fundamentos de autoaprendizagem

terça-feira, 11 de abril de 2023

Atualizado às 09:12

A peculiaridade da IA na sua autoaprendizagem, com a necessidade conectada do algoritmo de autoaprendizagem de incorporar um código de máquina para "moralizá-los", traz à tona o que parece ser o maior problema em traduzir as necessidades tecnoéticas do setor em tecno direito correspondente. No plano ético, de fato, uma ênfase cada vez maior é colocada nas responsabilidades do "programador", ao lado - e equacionando - aos do produtor e do formador. Trata-se de uma antinomia solucionável, pois é possível configurar, mesmo de forma puramente interpretativa, uma "responsabilidade algorítmica", a partir de uma dupla consideração. Uma está relacionada ao salto qualitativo fundamental da IA e, portanto, à singularidade específica do algoritmo que atribui sua capacidade de aprendizado: a de determinar não apenas seu ser, mas também seu dever, tornando-o mutante capaz de auto-substituir e auto-refinar. O segundo está ligado à natureza do algoritmo, criação intelectual e ativo intangível que consiste na mera descrição de um procedimento, ou numa simples fórmula matemática, tão etérea que parece quase uma ideia abstrata. O algoritmo, no entanto, dá alma à IA, afetando decisivamente suas características e funcionamento, também pelas habilidades autocorretivas e evolutivas que gera. Assim entendido, o algoritmo, pelo menos o da aprendizagem - deve, portanto, poder ser considerado como uma componente distinta e autónoma da criação intelectual global a que acede (por exemplo, um software) e, como tal, autonomamente censurável. O que se diz reflete nas responsabilidades também do autor-criador do algoritmo, que pode ser (e muitas vezes é) diferente do produtor da IA ou, em todo caso, do dispositivo que a incorpora; e que deve, portanto, responder não apenas perante seu cliente, por via negocial, mas também por responsabilidade perante terceiros prejudicados pela IA self-learning.

Na verdade, o algoritmo deu-lhe a aptidão para aprender e modificar o próprio comportamento; potencialmente, produzir resultados ou invadir malware como efeito do treinamento recebido, ou em qualquer caso, das experiências experimentadas após sua implementação. Caso contrário, o autor do algoritmo (que pode não coincidir com o do software, incorporado ao produto como seu componente) apareceria como um mero fornecedor de uma fórmula, projeto ou ideia, que não constitui um componente do produto para fins de regulação da responsabilidade do produto: e do fornecimento do qual, portanto, não derivaria nenhuma responsabilidade direta pela responsabilidade do produto. Assim, permaneceria a responsabilidade do fabricante do produto final, ou de seus componentes, perante terceiros danificados, mas ficaria excluída a do criador do algoritmo.

A situação pode parecer semelhante à do fabricante de um bem de consumo cujo design foi concebido e fornecido por um designer terceirizado. O design diz respeito apenas à concepção abstrata do produto e não constitui um componente do mesmo. É o fabricante que dá substância a essa idéia abstrata e ele é o único responsável pelo produto assim concretizado, e apenas pensado pelo designer. Este, então, costuma responder apenas negocialmente ao comissário em caso de defeito do projeto, e não na via aquiliana ao terceiro lesado pelo produto consequentemente defeituoso.

Mas o cenário é diferente quando o que é fornecido é uma criação intelectual constituída por um algoritmo, que, ao atribuir ao produto que incorpora a capacidade de se auto-modificar, condiciona profundamente tornando-se, a ponto de constituir sua alma.

Seria, portanto, um prejuízo não técnico acreditar que o caráter puramente imaterial do algoritmo coincidiria com a incapacidade de afetar o mundo externo e, portanto, também de se elevar a uma causa mais ou menos autônoma de eventos danosos. De fato, uma IA maligna capaz de autopercepção (e evoluindo - com infinitas passagens - para entidades cada vez mais inteligentes, ou mesmo, em teoria, para superinteligência) seria suficiente para ter mero acesso à rede para poder controlar outras entidades robóticas e também humanas, à sua vontade, gerando até efeitos catastróficos.

O algoritmo, portanto, molda, não apenas estática, mas também dinâmicamente, a configuração do produto final, dando-lhe um sopro de vida pulsante e forjando sua comunidade, assumindo assim um papel (con)causal em relação aos seus comportamentos futuro.

Portanto, surgem sérias questões quanto à extensão do campo de ação da responsabilidade do produto, especialmente no que diz respeito a danos pessoais. Com efeito, por um lado surge a possibilidade de considerar como produtor de um componente do produto inteligente não só o produtor do software global que o incorpora, mas também - se não coincidente - o criador-autor da programação, do algoritmo de autoaprendizagem ou outras contribuições adequadas para influenciar o comportamento do produto. É importante refletirmos sobre o fato de que a falta de introdução, no componente algoritmo de autoaprendizagem, de blocos adequados para inibir futuros desvios da IA, pode constituir um defeito do próprio componente, bem como do produto geral .

E acrescente a necessidade de se fazer também um censo do fenômeno das invenções e ideias da IA geradas especialmente para garantir os justos direitos, tanto no campo das patentes quanto dos direitos autorais, para este novo tipo de bens intangíveis, mas também para gerenciar as responsabilidades relacionadas desde o produto ou na produção.

A adaptação à ocorrência de novos cenários foi, nos últimos dois séculos, quase sempre interpretativa, e não normativa.

Para uma reflexão sobre as responsabilidades da IA como racionalizáveis em grande parte por via interpretativa, poder-se-ia, portanto, partir da proposta que responsabiliza o ser humano por causar danos a capacidade particular de ação das coisas, em relação à atividade que as emprega. Então, à luz do panorama delineado acima, devemos nos perguntar se, diante da perspectiva de que agora (não apenas animais e humanos, mas) também as "coisas" podem ter "inteligência" e autoaprendizagem; será assim suficiente para regular as novas responsabilidades das coisas equipadas com inteligência artificial?

Os resultados podem ser satisfatórios e altamente inovadores, uma vez que o uso de ferramentas interpretativas em relação às regulamentações existentes aparece pelo menos em grande medida capaz de revolucionar e racionalizar as estruturas de risco e os custos corporativos da responsabilidade, bem como os níveis de proteção dos sujeitos expostos aos perigos do dano, de fato, uma vez despojados do tabu da primazia da culpa, que havia dominado no setor de responsabilidade civil até a primeira metade do século passado, a neutralidade das previsões ou interpretações das regulamentações como fontes de responsabilidade objetiva tornaria ótima a alocação do risco.

A necessidade de quaisquer novas regras gerais poderia, então, dizer respeito apenas à revisitação (ainda que apenas em processo de interpretação evolutiva) da disciplina de danos ao produto e das proteções conexas, cumulativas (no caso de infração pluriofensiva).