Migalhas de IA e Proteção de Dados

Implicações éticas e Inteligência Artificial (AI) Generativa – Parte II

É inegável a conexão entre a regulação da Inteligência Artificial e a proteção de dados pessoais.

24/2/2023

Introdução

As implicações éticas associadas a Inteligência Artificial (AI) Generativa são múltiplas e desafiadoras. Podemos iniciar com duas opiniões a este respeito, que talvez possam orientar esta reflexão.

Opinião 1

A Inteligência Artificial (IA) apresenta três áreas principais de preocupação ética para a sociedade: privacidade e vigilância, preconceito e discriminação e desafios filosóficos. A IA pode levar ao desemprego à medida que as máquinas assumem trabalhos que antes eram feitos por humanos. A desigualdade também é uma preocupação, pois a IA pode ser usada para perpetuar as estruturas de poder existentes. A IA também pode levar ao viés algorítmico, em que os modelos incorporam e implantam vieses humanos e sociais em escala.

A privacidade é um direito humano fundamental reconhecido na Declaração dos Direitos Humanos da ONU, mas os aplicativos de IA podem representar uma ameaça real a esse direito. A desinformação é outro problema ético com a IA, pois os modelos de aprendizado de máquina podem gerar facilmente textos incorretos.

Para garantir o uso ético da IA, a educação e a conscientização sobre a ética da IA ??devem ser aumentadas. Exemplos de IA ética incluem o uso de IA para melhorar os resultados da saúde ou reduzir o consumo de energia. É importante lembrar que as questões éticas com a IA não se limitam aos impactos negativos; também há benefícios incidentais, como capacidade analítica aprimorada ou maior eficiência nos processos de tomada de decisão.1

Opinião 2

Preconceito e discriminação: os sistemas de IA podem perpetuar e ampliar os preconceitos existentes na sociedade, levando a decisões e resultados discriminatórios. Por exemplo, a tecnologia de reconhecimento facial demonstrou ter taxas de erro mais altas para pessoas negras e mulheres.

Privacidade e proteção de dados: os sistemas de IA geralmente dependem de grandes quantidades de dados pessoais para tomar decisões, e há preocupações sobre como esses dados são coletados, armazenados e usados ??e quem tem acesso a eles.

Impacto no emprego: a IA tem o potencial de automatizar muitos empregos, levando ao desemprego e à agitação social. Também existe o risco de que a IA reforce os desequilíbrios de poder existentes e exacerbe a desigualdade econômica.

Responsabilidade e prestação de contas: quando os sistemas de IA tomam decisões que têm consequências significativas para os indivíduos e a sociedade, pode ser difícil determinar quem é responsável por essas decisões e como eles podem ser responsabilizados.

Direitos humanos: a IA tem o potencial de infringir os direitos humanos, como liberdade de expressão e privacidade, e há preocupações sobre o uso de IA para vigilância e controle por governos e outras organizações.

É importante abordar essas implicações éticas por meio de diálogo e debate contínuos e estabelecendo diretrizes e princípios éticos claros para o desenvolvimento e uso da IA. Isso inclui considerar os possíveis impactos da IA ??nos indivíduos e na sociedade e garantir que a IA seja desenvolvida e usada de maneira responsável e ética.2

Estas duas opiniões foram dadas por duas ferramentas de IA Generativa: o ChatGPT e o Perplexity. É fundamental avançar nesta reflexão sobre os aspectos éticos associados ao uso de IA Generativa, especialmente sobre as suas repercussões sobre as pessoas, as comunidades e para a humanidade, como um todo.

AI-Generativa (1)

Desde algum tempo, é possível ter uma interação pessoa-máquina por meio de sistemas de linguagem natural (Chat-bot). Em muitas ocasiões, não existe a clara percepção de que esta comunicação esteja sendo feita com as máquinas e não com outras pessoas. Na década de 1970, Jacques Monod já alertava que era cada vez mais difícil estabelecer o limite entre o natural e o artificial3. A simulação ou a substituição de atividades reais, cada vez mais semelhantes às realizadas por mecanismos e sistemas artificiais, gera esta ambiguidade de percepção.

A introdução de ferramentas computacionais de aprendizagem de máquina e de mineração de grandes volumes de dados, em uma abordagem conhecida como Big Data é outro avanço significativo para promover a interação entre seres humanos e máquina. A avaliação conjunta de grandes volumes de dados tem permitido o estabelecimento de novas relações, de novos entendimentos, até então, não identificados. Na saúde, por exemplo na análise de dados epidemiológicos; para revisões sistemáticas de literatura; reconhecimento do estado da arte e predições tem sido imprescindíveis.

Entretanto, há outra face da moeda é conter a arrogância tecnológica, conforme já pontuou Hans Jonas4, não podemos entender que os resultados de quaisquer ferramentas, de tecnologias de informação e comunicação ou AI-Generativa sejam entendidos como inquestionáveis - reconhecer a falibilidade da AI já é um bom começo.

A infalibilidade dos computadores vem sendo discutida desde o início da sua utilização, quando ainda eram chamados de "cérebros eletrônicos". Naquela época já havia a proposta de que a qualidade das informações geradas não era inquestionável, mas dependia da qualidade dos dados de entrada e dos processos utilizados. Isto ficou conhecido pela sigla GIGO (Garbage In, Garbage Out). Ou seja, se os dados ou os sistemas estiverem com alguma inadequação, os resultados gerados estarão comprometidos5.

Outro importante desenvolvimento nesta área foi a crescente utilização de algoritmos para a tomada de decisão. Estas ferramentas, cada vez mais aprimoradas e baseadas em processos altamente complexos, têm propiciado soluções otimizadas para inúmeros problemas, inclusive modificando os próprios processos de tomada de decisão. A maioria destes sistemas trabalham na busca de reconhecer padrões de similiaridade. Esta área é que ficou conhecida como Inteligência Artificial (AI).

A rigor a AI não é uma inteligência em si, são processos de decisão automatizada. Pierre Levi faz uma crítica contundente ao uso da expressão "inteligência artificial", ele não reconhece nestes sistemas a possibilidade de gerar novos conhecimentos ou de terem compreensão do mundo6. Os algoritmos são feitos por pessoas a serviço de instituições, que tem seus sistemas de crenças e valores, que acabam por direcionar os processamentos e as interpretações.

Estes novos sistemas – ChatGPT e Perplexity – são uma combinação e evolução destas ferramentas, constituem um novo patamar de complexidade de como lidar com dados, na busca de extrair informações que possam orientar ações. a A base da IA Generativa é rotular e/ou classificar dados preexistentes, mas não só, estes sistemas geram novos conteúdos, por agregação e combinação, a partir dos elementos disponíveis.

A expressão generativa, foi criada por Noam Chomsky, em 1965, quando propôs a "gramática generativa", ou também chamada de "gramática gerativa". Esta proposta buscava explicar que a linguagem se estabelece por meio de competências e desempenhos para produzir frases e de quais são os caminhos utilizados para o seu estabelecimento7. Esta ideia se baseou no pensamento de Wilhelm von Humboldt, que em 1836, disse que a linguagem faz um uso infinito de meios finitos8.

Estas são as características dos novos sistemas de IA Generativa: estabelecer conexões, por meio de novas ferramentas computacionais, com base em grandes volumes de dados, conceitos e estruturas já construídas, para proporem novos conteúdos, que são expressados em uma linguagem o mais natural possível.

Reflexão sobre as opiniões dos sistemas: ChatGPT e Perplexity (2)

Os textos elaborados pelo ChatGPT e pelo Perplexity, incluídos no início, são um bom exemplo da utilização de IA Generativa, pois eles estabelecerem conexão entre temas éticos e outros elementos dados. Os principais temas destacados foram: a privacidade, a vigilância e o controle, a liberdade de expressão, o preconceito e a discriminação. Todos estes temas já preexistiam ao uso de IA Generativa. Eles já vêm sendo discutidos em diferentes níveis de profundidade e aplicação. O desafio atual é pensar estas questões nesta nova perspectiva.

Sempre que uma inovação é incorporada pela sociedade, surgem as discussões sobre a sua adequação. Quando o livro impresso foi disponibilizado para a sociedade, quando surgiram as primeiras enciclopédias, quando a internet deu acesso a um volume de dados nunca antes imaginado, houve o questionamento sobre a adequação do uso destes meios de difusão de dados, conhecimentos e informações. Um bom exemplo é a atual discussão do impacto da IA Generativa sobre a educação, está gerando ansiedade entre escolas, pais e professores.

Esta mesma discussão ocorreu em outros momentos históricos e incorporação de novas tecnologias. Já existem modelos educacionais que permitem incorporar estas situações trazidas pela IA Generativa de forma criativa. Ao invés de copiar ou gerar conteúdos, talvez o desafio da educação seja avaliar a qualidade das informações geradas. É utilizar este desafio para incorporar uma reflexão crítica e complexa nos diferentes níveis educacionais.

Notas conclusivas de uma reflexão inicial

Mais importante do que discutir aspectos éticos pontuais, é fundamental refletir sobre os aspectos mais amplos da utilização da IA Generativa, tais como:

a) definir padrões eticamente adequados que orientem a criação responsável de conteúdos por estes sistemas;

b) estabelecer estratégias de monitoramento dos dados e informações gerados pela IA Generativa como forma de verificar a sua veracidade;

c) criar diretrizes que permitam realizar auditorias contínuas nos processos destes sistemas visando impedir que os seus processos possam ser utilizados para fins contrários aos interesses das pessoas, das sociedades e da humanidade9.

d) analisar modelos jurídicos e normas existentes, como a LGPD, Marco Civil da Internet, Leis relacionas a Propriedade Intelectual, Código Civil,  entre outras e pensar em novas formulações para garantir a segurança jurídica.

 

A discussão ética contemporânea deve ser orientada pela reflexão sobre o novo "regime de informação", como caracterizado por Han10. Este é o nosso desafio: refletir sobre este novo modelo de sociedade, onde as relações se alteraram enormemente. A IA Generativa é apenas um dos múltiplos desafios que necessitam ser discutidos e aprofundados.

__________

1 Implicações Éticas e IA Generativa [Internet]. Perplexity. 2023 [cited 2023 Feb 11]. p. 39138. Available from here.

2 Implicações Éticas e IA Generativa [Internet]. ChatGPT. 2023 [cited 2023 Feb 11]. Available from here.

3 Monod J. O acaso e a necessidade. 4th ed. Petrópolis: Vozes; 1989. 219 p.

4 Jonas H. Ética, medicina e técnica. Lisboa: Vega; 1994. 172 p.

5 Work With New Electronic "Brains" Opens Field For Army Math Experts. The Hammond Times. 1957 Nov 10;65.

6 Lévy P. Inteligência Artificial produz " monstruosidades éticas ". Revista Fórum [Internet]. 2022;1–7. Available from here.

7 Chomsky N. Aspects of the theory of syntax. Vol. 13, Nucl. Phys. Cambridge, MA: The MIT Press; 2015. 104–116 p.

8 Humboldt W. Über die Verschiedenheit des menschlichen Sprachbaues: und ihren Einfluss auf die geistige Entwicklung des Menschengeschlechts. Berlin: Druckerei der Königlichen Akademie der Wissenschaften; 1836.

9 Gocklin B. Guidelines for Responsible Content Creation with Generative AI [Internet]. Digital Transformation. 2023 [cited 2023 Feb 9]. p. 1–7. Available from here.

10 Han B-C. Infocracia: digitalização e a crise da democracia. Petrópolis: Vozes; 2022.

Veja mais no portal
cadastre-se, comente, saiba mais

Coordenação

Cintia Rosa Pereira de Lima, professora de Direito Civil da Faculdade de Direito da USP Ribeirão Preto – FDRP. Doutora em Direito Civil pela Faculdade de Direito da USP com estágio na Ottawa University (Canadá) com bolsa CAPES - PDEE - Doutorado Sanduíche e livre-docente em Direito Civil Existencial e Patrimonial pela Faculdade de Direito de Ribeirão Preto (USP). Pó-doutora em Direito Civil na Università degli Studi di Camerino (Itália) com fomento FAPESP e CAPES. Líder e Coordenadora dos Grupos de Pesquisa "Tutela Jurídica dos Dados Pessoais dos Usuários da Internet" e "Observatório do Marco Civil da Internet", cadastrados no Diretório de Grupos de Pesquisa do CNPq e do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Presidente do Instituto Avançado de Proteção de Dados – IAPD - www.iapd.org.br. Associada Titular do IBERC - Instituto Brasileiro de Responsabilidade Civil. Membro fundador do IBDCONT - Instituto Brasileiro de Direito Contratual. Advogada.

Cristina Godoy Bernardo de Oliveira, professora doutora da Faculdade de Direito de Ribeirão Preto – Universidade de São Paulo desde 2011. Academic Visitor da Faculty of Law of the University of Oxford (2015-2016). Pós-doutora pela Université Paris I Panthéon-Sorbonne (2014-2015). Doutora em Filosofia do Direito pela Faculdade de Direito da USP (2011). Graduada pela Faculdade de Direito da USP (2006). Líder do Grupo de Pesquisa Direito, Ética e Inteligência Artificial da USP – CNPq. Coordenadora do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Evandro Eduardo Seron Ruiz, professor Associado do Departamento de Computação e Matemática, FFCLRP - USP, onde é docente em dedicação exclusiva. Atua também como orientador no Programa de Pós-graduação em Computação Aplicada do DCM-USP. Bacharel em Ciências de Computação pela USP, mestre pela Faculdade de Engenharia Elétrica da UNICAMP, Ph.D. em Electronic Engineering pela University of Kent at Canterbury, Grã-Bretanha, professor lLivre-docente pela USP e pós-Doc pela Columbia University, NYC. Coordenador do Grupo de Pesquisa "Tech Law" do Instituto de Estudos Avançados (IEA/USP). Membro fundador do Instituto Avançado de Proteção de Dados – IAPD.

Nelson Rosenvald é advogado e parecerista. Professor do corpo permanente do Doutorado e Mestrado do IDP/DF. Pós-Doutor em Direito Civil na Università Roma Tre. Pós-Doutor em Direito Societário na Universidade de Coimbra. Visiting Academic na Oxford University. Professor Visitante na Universidade Carlos III, Madrid. Doutor e Mestre em Direito Civil pela Pontifícia Universidade Católica de São Paulo – PUC/SP. Presidente do Instituto Brasileiro de Estudos de Responsabilidade Civil – IBERC. Foi Procurador de Justiça do Ministério Público de Minas Gerais.

Newton De Lucca, professor Titular da Faculdade de Direito da USP. Desembargador Federal, presidente do Tribunal Regional Federal da 3ª Região (biênio 2012/2014). Membro da Academia Paulista de Direito. Membro da Academia Paulista de Letras Jurídicas. Membro da Academia Paulista dos Magistrados. Vice-presidente do Instituto Avançado de Proteção de Dados.