COLUNAS

  1. Home >
  2. Colunas >
  3. IA em Movimento >
  4. IA como agentes e não como máquinas?

IA como agentes e não como máquinas?

terça-feira, 30 de agosto de 2022

Atualizado às 07:34

O presente artigo visa trazer alguns apontamentos críticos acerca do artigo "Machine behaviour", em uma análise interdisciplinar, a qual também seria uma abordagem apropriada para se estudar tanto a temática da IA de modo geral, já que é uma disciplina com viés transclássico em sua origem, holística, como também a área do comportamento das máquinas, tal como apontam os autores no referido artigo (Iyad Rahwan, Manuel Cebrian, Nick Obradovich, Josh Bongard, Jean-Franc¸ois Bonnefon, Cynthia Breazeal, Jacob W. Crandall, Nicholas A. Christakis, Iain D. Couzin, Matthew O. Jackson, Nicholas R. Jennings, Ece Kamar, Isabel M. Kloumann, Hugo Larochelle, David Lazer, Richard Mcelreath, Alan Mislove,
David C. Parkes, Alex 'Sandy' Pentland, Margaret E. Roberts, Azim Shariff, Joshua B. Tenenbaum & Michael Wellman, 25 APRIL 2019 | VOL 568 | NATURE - clique aqui). Trata-se de um campo de estudos interdisciplinar por natureza, envolvendo aspectos do comportamento das máquinas. O presente artigo faz parte de pesquisas em sede de pós-doutorado na Cátedra Oscar Sala/IEA-USP, na área de inteligência artificial.

O estudo do comportamento das máquinas, isto é, da inteligência artificial é fundamental para se pensar e desenvolver de forma responsável tais aplicações, sendo poucos os estudos que seguem uma abordagem via ciências sociais e na área das humanidades, já que até o momento os estudos na área de comportamento das máquinas se limitou à contribuição dos mesmos cientistas que criaram a IA, ou seja, cientistas informáticos, roboticistas e engenheiros, os quais, contudo, não possuem conhecimento especializado acerca de análise de comportamentos, já que sequer são behavioristas treinados.

Por conseguinte, do mesmo modo que nos humanos e animais, os comportamentos das máquinas não podem ser totalmente compreendidos sem o estudo integrado dos algoritmos e correspondentes ambientes sociais em que os algoritmos operam, e segundo os AA. devemos considerar a IA, portanto, como uma classe de atores com padrões de comportamento e ecologia particulares, ou seja, não deve ser considerada como um mero artefato de engenharia, o que não implicaria, contudo, no reconhecimento de ser a IA ela própria responsável de forma pessoal no caso de danos, já que os intervenientes humanos seriam, em última análise, os responsáveis por qualquer dano no caso da utilização da IA.

Os estudos acerca do comportamento das máquinas devem fornecer informações sobre o modo como estes sistemas funcionam, bem como os benefícios, custos e contrapartidas apresentados, permitindo assim uma maior possibilidade de controle de suas ações, minimizando possíveis riscos, embora esta seja uma tarefa difícil, em especial em razão das características da opacidade, ubiquidade, complexidade, a caixa preta dos algoritmos de IA ("deep learning"), além da não previsibilidade das decisões finais em muitos casos.

Em suas conclusões, os autores do arrigo "Machine behaviour" enfatizam que as máquinas exibem comportamentos que são fundamentalmente diferentes dos animais e dos seres humanos, razão pela qual devemos evitar o antropomorfismo e o zoomorfismo excessivos.

Não obstante as importantes contribuições dos autores, em especial por trazerem a necessidade da abordagem interdisciplinar, data venia, destacamos alguns apontamentos, no sentido de contribuir para o debate democrático, e para uma perspectiva científica do estudo das novas tecnologias, em especial da IA.

Os autores elencam alguns tópicos e relacionam com questões centrais, sendo estas: democracia, justiça algorítmica, cinética, armas autônomas, mercados e sociedade. No tocante ao item democracia, contudo, verifica-se uma abordagem limitada a apenas se preocupar com criação de bolhas de filtragem pelos algoritmos e se há censura de forma desproporcional do conteúdo.

Não são apontados, contudo, dois temas centrais no âmbito de uma democracia, como são o da vigilância excessiva que poderá comprometer o que se entende por um Estado Democrático de Direito, e a questão da devida proteção dos direitos humanos e direitos fundamentais, os quais são a concretização ou densificação da dignidade humana, sendo esta o valor axial de qualquer Estado democrático. Considera-se que o Estado Democrático de Direito é um Estado de respeito aos direitos fundamentais e sobretudo da dignidade humana de todas as parcelas da população.

É o que pode ser observado no importante caso submetido a julgamento perante o Comitê de Ciência e Tecnologia do Parlamento da Inglaterra em 2017, acerca do uso crescente de algoritmos de inteligência artificial para a produção de decisões públicas e privadas; destacando-se que tal uso no setor público pode levar a policiamento discriminatório e monitoramento indiscriminado, influência ou manipulação comportamental e invasões em larga escala de privacidade. Já no setor privado poderá levar à discriminação em áreas como recrutamento, emprego, acesso a serviços e finanças, preços diferenciados, entre outras.

No item "justiça algorítmica", por sua vez, também há algumas limitações, ao ser enfocada apenas a questão da discriminação racial, decorrente apenas em caso de policiamento preditivo, ocorrendo um aumento da taxa de falsa condenação. Ocorre que os vieses dos algoritmos não se limitam à questão de discriminação racial, ocorrendo também discriminações de gênero e de classe, como destacam diversos estudos, devendo ser considerada tal interseccionalidade (Ângela Davis). Outrossim, a questão da produção de decisões algorítmicas na área criminal não se limita à concessão de liberdade condicional, mas abrangeria outros benefícios aos quais teria direito um acusado/criminoso, e também englobaria a própria decisão acerca da culpabilidade do indivíduo.

Neste sentido, diversos autores corroboram tal assertiva, tais como Omer Tene, Cathy O'Neil, Frank Pasquale, com destaque para Virginia Eubanks, professora da Universidade de Albany, ("Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor"). Ao apontar para discriminações de classe, os professores da Universidade de Boston denunciam vieses de gênero/sexistas, além dos vieses de raça, como destacam a professora da Universidade da Califórnia em Los Angeles Safiya Umoja Noble (Algoritmos de opressão: como os motores de busca reforçam o racismo") e Latanya Sweeney, professora da Universidade de Harvard.

No item "cinética" verifica-se que não é suficiente apenas se abordar duas únicas aplicações de IA, como veículos autônomos e armas autônomas, havendo outras aplicações de IA com risco alto ou inaceitável que não são mencionadas. No item "sociedade" apenas é citado como potencial de discriminação a "homofilia", sendo que há outras parcelas vulneráveis da população integrantes dos grupos de LGBTQ+. No item "robôs de conversação" tem-se a preocupação com a interação com crianças apenas, sendo que há outros grupos vulneráveis não mencionados, como idosos, pessoas com deficiência, além da ausência de uma abordagem necessária por meio de uma casuística, a fim de se adequar à compreensão de cada pessoa em particular.

O "White paper on IA", publicado pela Comissão Europeia em 19/02/2020, ao trazer a abordagem via risquificação, separando para fins regulatórios aplicações de IA de "alto risco" e "baixo risco", especifica o que se poderia considerar como aplicações de alto risco, quando houver riscos significativos, em especial, com relação à proteção da segurança, dos direitos dos consumidores e dos direitos fundamentais; também recrutamento, situações que afetem os direitos dos trabalhadores, identificação biométrica etc.

Não basta, outrossim, afirmar-se que os "intervenientes humanos são os responsáveis por qualquer dano", pois trata-se de uma abordagem genérica e simplista de uma intrincada e complexa questão, senão vejamos.

As "Disposições de Direito Civil sobre robótica (2015/2103 INL) - Resolução do Parlamento Europeu", publicada em 02.04.17, apesar de trazer a atribuição de personalidade jurídica/eletrônica para algumas aplicações de IA, quais sejam, robôs autônomos mais sofisticados, considerando-se os requisitos da autonomia e da independência, prevê de forma complementar a exigência de um registro obrigatório dos robôs, um regime de seguros obrigatórios para facilitar a indenização de possíveis vítimas em casos de danos, e a criação de fundos de compensação para casos não cobertos pelo seguro. Referido documento atribui, todavia, a responsabilidade por danos, segundo o nível efetivo de instruções dadas aos robôs e o nível da sua autonomia, falando em "professor", correspondendo ao programador.

Verifica-se que não é uma situação fácil identificar-se o nexo causal, e o nível de ações de cada uma das diversas pessoas que compõem uma equipe técnica responsável pela criação e desenvolvimento de uma IA, sendo tal problemática qualificada como "problema de muitas mãos", impossibilitando muitas vezes a identificação do nexo causal entre a conduta do agente e o dano produzido, já que há diversas pessoas atuantes e envolvidas no processo, existindo um verdadeiramente complexo sistema sociotécnico.

Acerca de tais questões, o Alan Turing e Oxford Internet Institute/UNESCO trazem como possibilidade para se atribuir a responsabilidade, a "responsabilidade 'compartilhada' ou 'distribuída' entre designers de robôs, engenheiros, programadores, fabricantes, investidores, vendedores e usuários". Nenhum desses agentes pode ser indicado como a última fonte de ação. Contudo, tal solução teria a fragilidade de tender a diluir completamente a noção de responsabilidade, pois, se todos tiverem uma parte na responsabilidade total, ninguém será completamente responsável.

Outra alternativa e proposta foi elaborada por Caitlin Mulholland, falando em "causalidade alternativa", diante da existência de um único nexo causal que não pode ser identificado de forma direta, poderíamos atribuir a sua presunção ao grupo econômico como um todo, de forma a facilitar o ônus probatório para a vítima.

Já Eduardo Magrani afirma que não seria possível em sistemas sociotécnicos complexos atribuir com certeza a responsabilidade a uma única pessoa, pois a ação causadora do dano advém de um somatório de agências de seres humanos. Também não concorda com a proposta de Mulholland, pois entende que nesse caso a atribuição de responsabilidade com foco no grupo econômico poderia não ser suficiente para a atribuição justa de responsabilidade. Como proposta, aponta para a "responsabilidade compartilhada" entre os diferentes agentes atuantes na rede sociotécnica e suas esferas de controle e influência sobre as situações e sobre os demais agentes.

Contudo, mais do que reconhecer a IA não apenas como um artefato, mas como um agente como proposto no artigo "Machine behaviour", tal reconhecimento é necessário no tocante à natureza (Bruno Latour), a qual reage aos nossos padrões excessivamente consumistas, antropocêntricos e destrutivos, havendo um novo imaginário hipercomplexo e hiperconectado, onde tudo e todos estão conectados, antes mesmo da internet das coisas se tornar generalizada.

Daí a importância de uma análise crítica, interdisciplinar e polifacetada da temática da ética da inteligência artificial e da relação homem/técnica/natureza, fugindo-se da lógica de separação natureza em oposição à cultura, por meio da lógica de domínio da natureza, ensejando ainda mais individualismo, antropocentrismo, eurocentrismo, e a perigosa alienação na técnica de que falava Husserl, quando a razão vira puro cálculo e o saber que importa é o produzido maquinalmente, e com vistas ao mercado (utilitarismo).