COLUNAS

  1. Home >
  2. Colunas

IA em Movimento

Debate sobre a Inteligência Artificial e questões como privacidade, opacidade e preconceito, interação humano-robô, emprego e algoritmos, ética no desenvolvimento e aplicação dos sistemas de IA.

Ricardo Freitas Silveira e Fabio Rivelli
quinta-feira, 9 de novembro de 2023

Impactos da IA generativa no mundo jurídico

A IA Generativa vem revolucionando diversos setores e o mundo jurídico não é exceção. Os desafios da aplicação da IAG nos processo industriais, educação, saúde, consumo vêm sendo debatidos à exaustão, mas no universo jurídico, ainda há muitas interrogações. Ela poderá ser usada para criar conteúdo para sustentar sentenças judiciais? Normas dos Tribunais? Resoluções? Definir Recursos Repetitivos? Atos judiciais de toda a sorte? Temos uma única certeza: Os sistemas de IAG mudarão a forma de litigar que conhecemos atualmente. Certamente, há um uso potencial para essas tecnologias no universo jurídico, mas até onde será possível seguir? A Thomson Reuters Institute1 realizou uma pesquisa nos EUA, Canadá e Reino Unido com escritórios de grande e médio porte sobre o uso da IA Generativa. Para os advogados daqueles países, a ferramenta é considerada útil para o universo jurídico e 3% dos entrevistados já a empregam, mas a maioria (60%) têm reservas quanto ao seu uso imediato. Outra parte significativa (35%) está ponderando se explora ou não a IAG. A pesquisa também apurou que 15% dos escritórios alertaram para o uso não autorizado e 6% proibiram o uso. A tecnologia avança em velocidade superior à legislação, o que pode gerar conflitos, ajustes e remédios tardios, sendo que uma pergunta retórica permanece: A IA poderia ser usada para gerar conteúdo  capaz de embasar decisões judiciais? Apesar das incertezas, uma coisa é certa: essa tecnologia está mudando o modo como entendemos o processo jurídico.Muitos no universo jurídico veem potencial na IA Generativa, mas também expressam cautela quanto à privacidade e  precisão dos dados. A Ética e a IA Generativa O equilíbrio entre inovação e ética é essencial. No Brasil, tanto a Agência Nacional de Proteção de Dados (ANPD) como o Senado Federal têm discutido regulamentações para o uso da IA, buscando um modelo que garanta autonomia e direitos dos  titulares de dados. A Agência Nacional de Proteção de Dados (ANPD) divulgou a Nota Técnica 16 sobre o PL 2.338/23, em tramitação, que regulamenta o uso da IA no Brasil. A agência defende a criação de um Conselho Consultivo, como previsto na LGPD, com abordagem centralizada, a exemplo da adotada pela União Europeia, além insistir independência técnica e autonomia administrativa da ANPD, alterando os dispositivos de 32 a 35 do PL.2 No plano do Judiciário, o Conselho Nacional de Justiça (CNJ) editou a Resolução 332, de 20204, sobre ética, transparência e governança da IA. Há, no âmbito do Judiciário um repositório nacional de IA, que já conta com mis 200 modelos depositados pelos tribunais. Em junho, o órgão anunciou alteração das regras do uso das tecnologias de IA no Judiciário . A  resolução atual  limita o uso  quando o Poder Público não detém direitos autorais, mas o Departamento de Tecnologia da Informação do CNJ é favorável à ampliação do emprego dessas tecnologias. Igualmente importante, é o estudo  coordenado pelo Ministro do Superior Tribunal de Justiça Luis Felipe Salomão e pela Juíza federal Caroline Somesom Tauak, realizado pelo Centro de Inovação, Administração e Pesquisa do Judiciário da FGV5 sobre o uso da IA nas cortes brasileiras , que já esta em sua terceira fase. A primeira aconteceu em 2020 e atingiu 47 tribunais; a segunda, em 2021,  abrangeu o número de ferramentas de IA e  a terceira, realizada no ano passado, aprofudou os processos de treinamento e funcionamento dos sistemas de IA no CNJ, STF, STJ, TST e TRF- 1. A tecnologia, ao mesmo tempo que promete revolucionar, também traz desafios. Há casos em que a IA apresentou informações incorretas, o que evidencia a necessidade de supervisão humana constante. O Cenário Internacional Fora do Brasil, outros países também estão se adaptando. Nos EUA e no Canadá, por exemplo, regras estão sendo estabelecidas para o uso da IA. Tais regras exigem transparência no uso da tecnologia e conhecimento no campo jurídico, de todos os operadores do Direito. No Exterior, os tribunais têm estabelecido regras localizadas para uso da IAG. No Canadá,  por exemplo, a  Corte da província de Manitoba especifica que :"existem preocupações legítimas sobre a confiabilidade e precisão das informações geradas a partir do uso de inteligência artificial. Para abordar estas preocupações, quando a inteligência artificial tiver sido usada na preparação dos conteúdos protocolados na Justiça, os materiais devem indicar como a inteligência artificial foi empregada"6. Nos Estados Unidos também vem crescendo o regramento nos Estados para uso da IAG na Justiça. É o caso de Illinois7, que apresenta a seguinte normativa: "...qualquer parte usando qualquer ferramenta de IA generativa para conduzir pesquisa ou para redigir documentos junto a este tribunal deve divulgar esse emprego, com a divulgação, incluindo a ferramenta específica de IA e a maneira como ela foi usada". Portanto, é possível inferir que será exigido do advogado que conheça mais profundamente as novas tecnologias de IAG e mantenha obediência à legislação; assim como será cobrado dos magistrados competência tecnológica para analisar se a IAG foi empregada, se a considera adequada e se não houve comprometimento de dados confidenciais dos clientes no processo. Para esses dois atores da Justiça, a supervisão humana torna-se praticamente obrigatória.  Sem dúvida, os sistemas de IA generativa auxiliarão os humanos no âmbito jurídico a tomar decisões mais assertivas sobre inúmeras práticas do Direito, como propriedade intelectual, segurança do consumidor, invasão de privacidade, calúnia, difamação, coleta de dados protegidos etc. No entanto, a supervisão humana é essencial para garantir a aplicação ética e eficiente das tecnologias de IAG. Enquanto avançamos, é essencial que o diálogo público continue e que a integração internacional seja priorizada. A IA Generativa é uma realidade e cabe a nós determinar como ela moldará o futuro da Justiça. ______________  1 https://www.thomsonreuters.com/en-us/posts/technology/chatgpt-generative-ai-law-firms-2023/ 2 https://www.gov.br/anpd/pt-br/assuntos/noticias/Nota_Tecnica_16ANPDIA.pdf 3 www.ilnd.uscourts.gov/_assets/_documents/_forms/_judges/Fuentes/Standing%20Order%20For%20Civil%20Cases%20Before%20Judge%20Fuentes%20rev'd%205-31-23%20(002).pdf 4 https://www.aaronandpartners.com/news/mata-v-avianca-the-hidden-dangers-of-using-ai-for-legal-advice/  5 https://atos.cnj.jus.br/atos/detalhar/3429 4 https://ciapj.fgv.br/sites/ciapj.fgv.br/files/relatorio_ia_3a_edicao_0.pdf 6 https://www.manitobacourts.mb.ca/site/assets/files/2045/practice_direction_-_use_of_artificial_intelligence_in_court_submissions.pdf 7 www.ilnd.uscourts.gov/_assets/_documents/_forms/_judges/Fuentes/Standing%20Order%20For%20Civil%20Cases%20Before%20Judge%20Fuentes%20rev'd%205-31-23%20(002).pdf
terça-feira, 5 de setembro de 2023

A IA generativa e o olhar do julgador

A história nos mostra que o humano sempre desejou uma máquina que fizesse o seu trabalho de agir e até mesmo o de pensar. Em 1943, por exemplo, os cientistas cognitivos Warren McCulloch e Walter Pitts apresentaram, na Faculdade de Medicina da Universidade de Illinois, um artigo com a primeira ideia de neurônio artificial1, propondo redes neurais e estruturas de raciocínio artificiais, em forma de modelos matemáticos, que imitam o sistema nervoso humano. A Inteligência Artificial não é uma novidade no mundo, mas os seus resultados estão mais expressivos atualmente, colocando em xeque a nossa interpretação sobre a atuação humana e a própria ideia de humanidade. Isso por conta de um tipo especial de IA, a Inteligência Artificial generativa, cuja tecnologia permite que os algoritmos aprendam (machine learning) padrões de comportamento complexos em grandes conjuntos de dados, e depois utilizam esse aprendizado para criar e desenvolver novos conteúdos. Recentemente vimos que essa tecnologia permite, inclusive, trazer "de volta à vida" a pessoa falecida, como no caso da propaganda da Volkswagen, na campanha "VW Brasil 70: O novo veio de novo", que apresentou a cantora Maria Rita cantando junto de sua mãe, Elis Regina, falecida em 1982, expressando a ideia de que Elis estaria viva atualmente2. Nesse contexto, se temos uma IA que interfere diretamente na sociedade, afetando e influenciando as pessoas em seus comportamentos e decisões, como as notícias, e até mesmo em suas profissões, com as novas ferramentas disponíveis, o Direito não ficaria alheio a este fenômeno, afinal, "é no meio social que o Direito surge e desenvolve-se"3. Mesmo porque ao tratarmos de dados, estamos falando da própria composição da substância humana. Valemos aqui dos ensinamentos do professor Ricardo Hasson Sayeg, que afirma que os dados "também compõem a substância humana, em seu aspecto tecnológico, assim como o aspecto biológico (corpo humano), institucional (cidade), e de direitos fundamentais".4 Nessa linha filosófica, igualmente aproveitamos as lições de Goffredo Teles Junior, ao afirmar que a pessoa humana é a medida de todos os valores5, e as coisas do mundo, inclusive os fatos sociais, "não são considerados, pelo ser humano, como simples dados, como objetos apenas ocupando espaço e tempo, dentro do Universo. [...] Elas tem um sentido, um sentido para o ser humano".6 Ora, sendo a pessoa humana a medida de todos os valores,  não há dúvidas de que o estudo da IA generativa interessa ao estudo do Direito, maiormente em como essa tecnologia e o seu gerenciamento algorítmico podem participar nas decisões judiciais, mesmo porque já temos a IA no funcionamento do próprio judiciário7, realizando movimentos processuais e até mesmo auxiliando a elaboração de teses e textos jurídicos. Essa capacidade de "aprender" absorvendo muitos dados e criar informações novas de maneira autêntica e até mesmo única, torna a IA generativa uma ferramenta poderosa, mas, por enquanto, confiável somente para realização de atividades bem definidas e delimitadas. Chamar esta tecnologia de 'inteligência' pode confundir as pessoas. Embora processe uma vasta quantidade de dados através de seus algoritmos, suas respostas são fundamentadas em probabilidades estatísticas. Isso significa que ela não possui consciência, intuição ou discernimento humano, mas apenas fornece respostas que parecem relevantes aos usuários. Ainda que as atividades para as quais a IA generativa for designada sejam bem definidas, é necessária uma estrutura robusta pautada na ética e extremamente personalizada para orientá-la, bem como uma revisão de qualquer conteúdo, antes de ser implementado. No Direito, sobretudo para decisões judiciais, a IA generativa, em primeira análise, deve ser alimentada com os princípios basilares do ordenamento, com constantes revisões a fim de identificar possíveis padronizações equivocadas, que levam à discriminação e injustiças. No entanto, ainda assim, não haveria a característica primordialmente necessária: ser, de fato, humana. Nesse diapasão, retornamos aos ensinamentos de Goffredo Teles quando diz que "a inteligência humana estará sempre condicionada por um fato inarredável: a inteligência é sempre inteligência do ser humano. Sendo do ser humano, a inteligência não poderá deixar de ser solidária com o todo de que é parte. Esta solidariedade é o que, de certa maneira, determina a inteligência. A inteligência é necessariamente determinada pelo que o ser humano realmente é.". Nos casos jurídicos, sempre há nuances as quais somente a sensibilidade humana é capaz de perceber. Apesar de sempre estarmos buscando nos reinventar, há uma característica única, imutável, esta que, nas palavras de Goffredo, se resume ao fato do ser humano sempre estar refletido no mundo em que habita, sendo este seu reflexo, isto é, "o ser para o qual as coisas de todo o seu mundo se projeta", característica esta que a inteligência artificial - pelo menos por enquanto - não detém, por mais que seja nutrida por bilhões de dados. Por esse motivo que a incorporação tecnológica no Direito deve ser orientada pelos princípios da ética, explicabilidade, segurança, transparência e responsabilidade, bem como aplicada de forma personalizada à realidade de cada caso concreto. A IA generativa enquanto ferramenta pode auxiliar na eficiência e produtividade, no entanto, deve se resguardar a prerrogativa de decidir exclusiva ao magistrado. Sobretudo, porque tais princípios primam, em última análise, pela valorização da dignidade da pessoa humana, que é, segundo as palavras do professor Ricardo H. Sayeg, a "expressão jurídica da essência do ser humano"8. Indo além, em um mundo tecnológico que, cada vez mais, nos propõe uma linguagem codificada, exigindo conhecimentos matemáticos e das ciências exatas para o aperfeiçoamento do próprio Direito, uma abordagem científica possível é a lógica expressa matematicamente nas situações de incertezas da Física Quântica, como aquela em que a trajetória do elétron não pode ser observada, somente calculada probabilisticamente. Quem relaciona muito bem essas áreas que, de longe, aparentam ser incomunicáveis, é o próprio professor Ricardo Sayeg, quando defende que o Direito terá aplicação mais densa através do Direito Quântico, ao propor uma singularidade jurídica integral, por força da consubstancialidade entre o positivismo, os direitos humanos e o direito realidade. A IA generativa ainda não está na grande maioria das legislações, pois é bastante recente. Ainda assim, qualquer legislação ou regulação a ser inventada também não podem impedir a inovação e o desenvolvimento científico. No entanto, urgente é a discussão aprofundada sobre a ética nessa nova tecnologia. Conclui-se que essa tecnologia no ato decisório, é relevantemente considerada enquanto ferramenta, destinada à eficiência e produtividade do magistrado, mas não substituta da inteligência humana no processo hermenêutico do magistrado, pois somente o olhar do julgador, que apreende a realidade que se impõe, permite encontrar resultados que não são verificáveis empiricamente como verdadeiros ou falsos, processo este baseado na racionalidade e expectativa probabilística dentro de determinado espaço jurídico de determinação. Referências bibliográficas CNN. Conar abre representação ética contra propaganda da Volkswagen com Elis Regina: ação foi motivada por queixas de consumidores; será analisado o fato da cantora ter sido "revivida" por ferramenta tecnológica e inteligência artificial, além da possível confusão que isso pode gerar. Ação foi motivada por queixas de consumidores; será analisado o fato da cantora ter sido "revivida" por ferramenta tecnológica e Inteligência Artificial, além da possível confusão que isso pode gerar. 2023. Disponível aqui. Acesso em: 07 ago. 2023. Introdução à Ciência do Direito. 29. ed. Rio de Janeiro : Freitas Bastos, 1989. p. 23. MCCULLOCH, W. & PITTS, W. (1943). A Logical Calculus of Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, 5, 127--147. MELO, Jairo. Inteligência artificial: uma realidade no poder judiciário. uma realidade no Poder Judiciário. 2019. Disponível aqui. Acesso em: 08 ago. 2023. SAYEG, Ricardo Hasson. Fator CapH capitalismo humanista a dimensão econômica dos direitos humanos. Ricardo Sayeg e Wagner Balera - São Paulo: Max Limonad, 2019. TELLES, Goffredo da Silva. Direito Quântico: ensaio sobre o fundamento da ordem jurídica. 9ª Ed. São Paulo: Saraiva, 2014. __________ 1 Mcculloch, W. & Pitts, W. (1943). A Logical Calculus of Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics, 5, 127--147. 2 CNN. Conar abre representação ética contra propaganda da Volkswagen com Elis Regina: ação foi motivada por queixas de consumidores; será analisado o fato da cantora ter sido "revivida" por ferramenta tecnológica e inteligência artificial, além da possível confusão que isso pode gerar. Ação foi motivada por queixas de consumidores; será analisado o fato da cantora ter sido "revivida" por ferramenta tecnológica e Inteligência Artificial, além da possível confusão que isso pode gerar. 2023. Disponível aqui. Acesso em: 07 ago. 2023. 3 Afirmação do professor Hermes Lima, na obra Introdução à Ciência do Direito. 29. ed. Rio de Janeiro : Freitas Bastos, 1989. p. 23. 4 Notas retiradas das aulas ministradas pelo Prof. Dr. Ricardo Hasson Sayeg, na turma de Direito Quântico do Mestrado da PUC-SP. 5 O professor Goffredo Telles, em sua obra de Direito Quântico: ensaio sobre o fundamento da ordem jurídica, 9ª Ed., São Paulo, Saraiva, 2014, p. 330, traz que "A pessoa humana passa a ser a medida de todos os valores. Porque ela é que constitui o bem primordial e, nessa qualidade, a referência para a determinação dos valores dos outros bens.". 6 TELLES, Goffredo da Silva. Direito Quântico: ensaio sobre o fundamento da ordem jurídica. 9ª Ed. São Paulo: Saraiva, 2014, p. 329-330. 7 "A IA é uma realidade no Poder Judiciário (projetos no STF, TJPE, TST, TJRO e TJDFT) já estão trazendo benefícios. A maioria das iniciativas da Justiça está voltada para a classificação de modo supervisionado, isto é, existe a necessidade de que um especialista gerencie os atributos do processamento para garantir a efetividade do mesmo." MELO, Jairo. Inteligência artificial: uma realidade no poder judiciário. uma realidade no Poder Judiciário. 2019. Disponível aqui. Acesso em: 08 ago. 2023. 8 Notas retiradas das aulas ministradas pelo Prof. Dr. Ricardo Hasson Sayeg, na turma de Direito Quântico do Mestrado da PUC-SP.
Enquanto a regulamentação europeia sobre o ecossistema tecnológico influencia grande parte dos diplomas legais em todo o mundo, os regramentos da China não têm o mesmo impacto, o que pode ser um equívoco.  Não haveria nada que o Ocidente poderia incorporar das regras chinesas, principalmente na área tecnológica? Certamente, a resposta deve ser sim, porque o país tem um papel relevante, principalmente sobre a governança da IA generativa, ao desenvolver uma regulamentação pioneira, independente das limitações ideológicas. O esboço do regulamento para a IA Generativa1 foi publicado em abril de 2023, com a versão final sendo divulgada em julho do mesmo ano. Essas regras, mais flexíveis do que as propostas inicialmente, preveem, por exemplo, uma multa de 100 mil yuans (equivalentes a R$ 67 mil) para violações das diretrizes, sem a necessidade prévia de uma avaliação de segurança por parte da Comissão de Administração e Supervisão do Ciberespaço da China (CAC). Na versão final do regulamento, a supervisão será realizada por sete diferentes agências governamentais, com a CAC sendo a principal. Todas essas agências trabalham juntas para o desenvolvimento de padrões responsáveis e para a criação de mecanismos de detecção de uso mal-intencionado da IA Generativa.2 Segundo a Universidade de Stanford, a CAC não é uma agência reguladora qualquer, mas uma super agência, supraministerial e 'quase onipresente', sendo que sua origem está no Escritório Estadual de Informações da Internet. Além de gerenciar os conteúdos on-line da China, trata de políticas e regulamentações sobre segurança cibernética e de dados. É tida como uma instituição que integra o Comitê do Partido Comunista Chinês. "Embora esteja ganhando força o princípio geral de que as entidades partidárias-estatais fundidas devem ser tratadas como agências administrativas quando desempenham funções estatais em vez de partidárias, a linha entre essas duas funções nem sempre é clara. À luz da crescente influência do CAC, seu status de partido-estado duplo levanta questões sobre sua tomada de decisão, operações diárias e responsabilidade para com seu público regulamentado".3 Para os chineses, a IA generativa é definida como sendo "tecnologias que geram texto, imagem, áudio, vídeo, código e outros conteúdos semelhantes com base em algoritmos, modelos ou regras", mas não menciona que os conteúdos produzidos pela IA generativa são essencialmente novos, quando isso vem tendo efeito cada vez maior sobre o mercado de trabalho ao substituir grande parte da mão de obra humana. É o caso do DALL-E, que já vem sendo utilizado por grandes estúdios de animação para criar personagens e ambientes em tempo recorde, podendo imitar criadores e estilos. Também causou polêmica, o acordo firmado para o ChatGPT acessar o conteúdo de uma das maiores e antigas agências de notícia do mundo - a Associated Press, o que propicia um uso responsável do treinamento da máquina em serviços de notícias,especialmente, diante de 4 mil ações que já estão tramitando na Justiça norte-americana de escritores, que se sentiram plagiados pelos chatbots. Chama a atenção no regramento chinês, as medidas sobre os provedores de serviços de IA generativa que devem identificar o usuário de um conteúdo considerado ilegal e remover aquelas informações. Em seguida, deve relatar os problemas detectados às agências reguladoras. Há, portanto, uma preocupação com a governança ética da IA Generativa e ao mesmo tempo em fazer o controle do ecossistema de tecnologia do país. Na regulamentação chinesa, os direitos autorais dos titulares dos dados usados para o treinamento da IA são protegidos. É proibido que desenvolvedores e provedores utilizem dados de treinamento que infringem os direitos de propriedade intelectual de terceiros ou dados pessoais sem o devido consentimento - requisitos que ainda estão sendo discutidos no Ocidente, em meio a muita polêmica. Além disso, os desenvolvedores devem marcar os conteúdos gerados pelos serviços de IA Generativa. Existem artigos na nova regulamentação chinesa que garantem direitos aos titulares de dados similares aos da LGPD brasileira (Lei Geral de Proteção de Dados), ao coibir a coleta de informações pessoais desnecessárias e ao exigir que seja informado o registro de uso a terceiros. Assim como no Brasil, as reclamações dos usuários devem ser atendidas por canais de comunicação apropriados, proporcionando ao titular acesso à correção ou exclusão de dados, à cópia dos dados, entre outros direitos. Nos últimos anos, a China tem produzido várias regulamentações sobre tecnologias de Inteligência Artificial e se prepara para formular um Marco Regulatório de IA nos próximos anos. Com isso, a China se tornou um dos principais players de pesquisa em IA com um amplo arcabouço regulatório, que não pode ser simplesmente ignorado, independentemente da ideologia ou burocracia estatal chinesa. A legislação chinesa, que deve entrar em vigor no dia 15 de agosto, afirma que visa incentivar essa tecnologia com cooperação local e internacional. Vale lembrar que a China possui seus próprios players desenvolvendo esta tecnologia. A China é pioneira em várias leis na área de IA, como a Lei de Proteção de Informações Pessoais, a Lei de Segurança de Dados e as Disposições Administrativas sobre Algoritmos de Recomendação em Serviço de Informação Baseados na Internet, dentre outras. Com a ambição de se tornar líder global em IA até 2030, o país vem realizando esforços significativos para impulsionar esta tecnologia, contribuindo com 8,9% do investimento mundial, o que equivale a mais de US$ 26 bilhões. Apesar do controle do governo chinês sobre os sistemas de IA, o ecossistema regulatório do país proporciona uma nova perspectiva sobre a regulamentação da IA Generativa. Sem dúvida, isso terá impacto nas questões relacionadas à violação dos direitos fundamentais de imagem e privacidade dos usuários, bem como responsabilidades no âmbito tecnológico. Essas questões são de interesse direto para desenvolvedores, cientistas, governos e a sociedade do Ocidente.A nova regulamentação chinesa já contempla princípios éticos para os sistemas generativos de IA enfatizando preocupações com conteúdo discriminatórios e inverídicos - saídas indesejadas que também são destacadas na recente legislação da União Europeia, o IA Act. No universo tecnológico, a busca por uma regulamentação consensual tem potencial para superar restrições oriundas de políticas antagônicas e competições estratégicas, visando o benefício coletivo. Há quem advogue, inclusive, pela criação de uma agência reguladora global. É fundamental que o Ocidente mantenha uma visão aberta para considerar as leis e regulamentos chineses sobre IA generativa, uma abordagem que pode ser extremamente vantajosa para o aprendizado com base nas experiências deste país, desconsiderando-se  as diferenças políticas e legais. O cenário ideal envolve uma união que beneficie todos, promovendo o desenvolvimento conjunto de ferramentas para a mitigação de riscos em prol de toda a humanidade.Encorajamos uma visão que convide todos a reconsiderar as possíveis contribuições que a China pode oferecer à regulação global de tecnologia, mesmo diante das diferenças ideológicas e políticas existentes. Este é um tema complexo e multifacetado, que envolve a avaliação das práticas regulatórias chinesas e o contexto no qual estão inseridas. __________ 1 Disponível aqui. 2 Disponível aqui. 3 Disponível aqui.
O primeiro Marco Regulatório da Inteligência Artificial (IA)1 do mundo foi aprovado recentemente pelo Parlamento Europeu e deve entrar em vigor no próximo ano. O AI Act faz uma abordagem baseada em sistema de 4 riscos - inaceitável, alto risco, limitado e mínimo  - como previsto, mas realiza um aprofundamento das propostas iniciais. Um dos relatores da nova Lei, o italiano Brando Benifei afirmou que a legislação é histórica e que deve resistir ao tempo: "É crucial construir a confiança dos cidadãos no desenvolvimento da IA, definir o caminho europeu para lidar com as mudanças extraordinárias que já estão acontecendo, bem como orientar o debate político sobre IA em nível global". Os Estados Unidos divulgaram seu "Plano para uma Declaração de Direitos de IA" e a China um Projeto de regramento, mas nenhuma das duas potencias foi tão longe quanto a  União Europeia na definição de uma legislação sobre o sistema de IA e práticaa de privacidade. Em resumo, o novo Marco Legal estabelece maiores restrições aos sistemas de Inteligência Artificial, exigindo que essa tecnologia seja supervisionada por humanos, seja transparente, não discriminatória, sustentável e tecnicamente neutra. Esse último tópico já levanta a polêmica porque há quase um consenso que a tecnologia não pode ser neutra ou não neutra, apenas permite ao ser humano acesso a limites que antes não podia alcançar, alterando a qualidade de vida do ser humano em todos os setores. Os desenvolvedores de IA generativa vão ter de aderir a salvaguardas. Por exemplo, como o ChatGPT, Midjourney ou Bard, da IA generativa, estarão em conformidade com a nova Lei da UE?  São considerados de risco limitado e terão de incluir uma informação avisando que os conteúdos foram gerados por máquinas e que foram utilizados no treinamento um grande volume de dados, sem  violação de   direitos autorais. Os sistemas de IA ainda precisarão apresentar documentação técnica e identificar o fornecedor, sendo necessário estar em conformidade com outras normas aplicáveis a cada caso.  Na exposição de motivos, a nova lei estabelece um conceito para o sistema: "A  inteligência artificial (IA) é uma família de tecnologias em rápida evolução capaz de oferecer um vasto conjunto de benefícios económicos e sociais a todo o leque de indústrias e atividades sociais. Ao melhorar as previsões, otimizar as operações e a afetação de recursos e personalizar o fornecimento dos serviços, a utilização da inteligência artificial pode contribuir para resultados benéficos para a sociedade e o ambiente e conceder vantagens competitivas às empresas e à economia europeia. Essa ação torna-se especialmente necessária em setores de elevado impacto, incluindo os domínios das mudanças climáticas, do ambiente e da saúde, do setor público, das finanças, da mobilidade, de assuntos internos e da agricultura". O histórico do Marco Regulatório da IA tem início em 2020 com a publicação do "Livro Branco sobre IA", uma série de documentações, abertas à consulta pública das partes interessadas para o debate e visando atingir uma regulação mais consensual possível. A União Europeia sempre justificou sua preocupação com a regulamentação da tecnologia de IA atrelada aos direitos fundamentais dos seus cidadãos, proteção de dados pessoais, governança e segurança jurídica quando se fala em investimentos e inovação e desenvolvimento de um mercado único para aplicar à IA. O resultado da Lei, contudo, afeta uma série de tecnologias, que possuem ampla gama de usos em vários países, visando aplicar mais transparência e auditabilidade. A Lei da IA considera inaceitável o risco decorrente da identificação biométrica remota em tempo real em espaços públicos, com raras exceções, como para combater o terrorismo; técnicas subliminares para distorcer comportamento ou visando tratamento prejudicial contra pessoas e grupos.  Já na categorização de risco elevado está distribuída em muitos tópicos, como na gestão de redes de infraestrutura pública, como trânsito, abastecimento de água, luz, gás; uso para acesso a instituições de ensino e formação profissional, assim como para avaliar estudantes; no recrutamento ou seleção de pessoas para obtenção de vaga ou avaliação de candidatos; bem como para decidir sobre promoção ou cortes de mão de obra. Esse tópico ligado aos recursos humanos, certamente, será um dos mais conflituosos porque já vem sendo aplicado em larga escala por muitas empresas em diferentes países. Outros elementos considerados de risco elevado no uso de tecnologia de IA são as avaliações de candidatos para acesso ou perda de assistência a serviços públicos. Igualmente alto é considerado o risco  do uso da IA para avaliar o endividamento de pessoas e sua classificação de crédito ou estabelecer critérios de prioridades para envio de bombeiros, assistência médica e outros serviços de emergência. A segurança pública é um outro ponto sensível ligado aos sistemas de IA porque a  nova lei  restringe que o emprego da tecnologia pelas autoridades policiais para uso preditivo, que determine o risco de uma pessoa singular  com base em perfil, localização e comportamento criminoso pregresso;  para mensurar o estado emocional de uma pessoa, aplicado a polígrafos e outros instrumentos; determinar elementos de prova durante inquérito ou repressão penal; elaboração de perfis ou comportamento criminal de pessoas ou grupos, seja na detecção, investigação ou repressão a delitos penais e pesquisa de dados biométricos de mídia sociais ou  imagens CFTV para montar bancos de dados de reconhecimento facial. Igualmente complexa é a questão da migração e controle de fronteiras, sendo que a Lei da União Europeia reforça o risco elevado do uso de sistemas de IA para detectar estados emocionais de pessoa singular; para avaliar riscos de segurança, imigração irregular e de saúde de quem deseje ingressar em território de um Estado-membro ou faça análise de pedidos de asilo, visto, residência e queixas de imigrantes e refugiados. Sobre a Justiça, a nova regulamentação estabelece como sendo de risco elevado os "Sistemas de IA concebidos para auxiliar uma autoridade judiciária na investigação e na interpretação de factos e do direito e na aplicação da lei a um conjunto específico de fatos". A automação da justiça por sistema de IA já é uma realidade. A Estônia, por exemplo, vem usando sistemas de IA para julgamento de casos com valor inferior a 7 mil euros. Sempre criticada por ter o potencial para coibir a inovação dos sistemas de IA, o novo Marco Legal da União Europeia prevê isenções das regras legais para as atividades de pesquisa e IA sob licença de código aberto. Foram contemplados sandboxes regulatórios, em ambientes controlados para testar a tecnologia de IA antes de sua implantação, o que deve mitigar os possíveis riscos. Diante do futuro, o novo Marco Legal da IA da União Europeia ganha um peso significativo pela votação obtida: 488 votos favoráveis, 28 contra e 93 abstenções, podendo ter reflexos mundiais. O novo diploma jurídico da UE afeta prestadores de serviço, usuários, fornecedores, importadores, representantes,  distribuidores e fabricantes de produtos que envolvam  sistemas de IA na esfera da União Europeia e deve influenciar a regulamentação de inúmeros países, como aconteceu com a GDPR (Regulamento Geral sobre Proteção de Dados), que gerou a Lei Geral de Proteção de Dados no Brasil. É possível que a tendência mundial continue alinhada à regulamentação europeia sobre a IA e  observa-se o pioneirismo europeu e a adaptação de vários países em moldes semelhantes em suas legislações de IA à luz do Quadro Regulamentar Europeu, sendo considerada abrangente e equilibrada no que diz respeito à promoção da inovação tecnológica e proteção de dados. A União Europeia continua, portanto, como um líder global em estabelecer os padrões éticos e regulatórios para o desenvolvimento e uso da IA.É o chamado Efeito Bruxelas ou a capacidade regulatória da EU quanto a concretização de direitos além de suas fronteiras, influenciando outros mercados. __________ 1 Disponível aqui.  
As cobranças em torno de mais segurança e confiabilidade sobre as  tecnologias de Inteligência  Artificial estão vindo de todos os lados por ter ampla abrangência e atingir praticamente todos os setores, seja do G-7, que concentra as maiores economias do mundo; seja do Congresso brasileiro  que tem em tramitação o PL 2338/2023 ou da União Europeia, que possui o debate mais avançado sobre regulamentação da IA e que convocou, recentemente,  uma cúpula global para encontrar meios para refrear os sistemas avançados dessa tecnologia. Há quem compare a tecnologia de IA a um cavalo selvagem, que galopa velozmente, mas de forma desgovernada. Por isso, as rédeas e o adestramento são vistos como benéficos, ou seja, como forma de garantir direitos, não comprometer a inovação, mas responsabilizar os desenvolvedores, até porque o próprio Parlamento Europeu reconhece que a IA, embora vista como "ameaça imprevisível", pode ser uma ferramenta poderosa e fator de mudanças relevantes, oferecendo produtos e serviços inovadores, que trarão benefício à sociedade , especialmente nas áreas da saúde, sustentabilidade, segurança e competitividade. O Artificial Intelligence Index Report 2023, da Universidade de Stanford, registra que cresceram os casos legais envolvendo a tecnologia de IA em 2022, nos EUA.  Totalizam 23 ações na Califórnia, 17 em Illinois, 11 em Nova York e números menores  em outros Estados. O levantamento ressalta que já está em vigor uma série de regulamentos, como de Illinois (Biometric Information Privacy Act) sobre   a coleta e armazenamento de informações biométricas que precisam ser seguidos por todas as empresas que fazem negócios naquele estado norte-americano e acabam levando ao incremento do conflito e disputa legal.1 O projeto brasileiro sobre regulação da IA (PL 2338/2023) é de autoria do presidente do Senado Federal e Congresso Nacional, Rodrigo Pacheco. Segue, em boa parte, as linhas do projeto europeu. Visa a estabelecer o uso responsável dos sistemas de IA, centralizados na pessoa humana, respeito aos direitos humanos, valores democráticos, proteção ambiental, entre outros requisitos. O projeto de lei também traz uma categorização de riscos, sendo considerados excessivos aqueles que utilizam técnicas subliminares, exploram vulnerabilidade de grupos específicos de pessoas naturais ou leve o poder público a avaliar, classificar ou ranquear pessoas naturais. O texto trata também da identificação biométrica à distância em casos de persecução de crimes passíveis de reclusão acima de 2 anos, busca de vítimas de crimes ou pessoas desaparecidas ou crimes em flagrante.2 Independente do ritmo em que a regulação da IA caminha em todo o mundo, a tecnologia amplia sua tessitura no mundo dos negócios.  O conjunto de regramentos da UE (AI Act e AI Liability Directive) oferece um ponto inicial para entender como será o conjunto dessa legislação, que deve ter reflexos em outros países, assim como aconteceu com sua Lei de proteção de dados, a GDPR (Regulamento Geral de Proteção de Dados), que serviu de referência para leis similares em muitos países, inclusive no Brasil, com a Lei Geral de Proteção de Dados (LGPD). O grande passo da União Europeia, que entra neste ano na fase final de avaliação do conjunto de regramentos a ser aplicado às tecnologias de IA , é o entendimento do Parlamento Europeu na Resolução de 3 de maio deste ano, que afirma que a "classificação deve ser acompanhada de orientações e do fomento do intercâmbio de boas práticas em prol dos criadores de IA", assim como o  direito à privacidade  ser sempre respeitado, devendo os" criadores de IA devem garantir o pleno cumprimento das regras em matéria de proteção de dados".3 A proposta da UE de regular a IA começou  em abril de 2021 (AI Act) e possui uma estrutura regulatória que, de um lado, assegura seu desenvolvimento e, de outro, protege os direitos fundamentais dos europeus, tornando-se sistemas confiáveis. Essa estrutura de regulamentação tem uma categoria de riscos - sendo os sistêmicos aqueles que envolvem os direitos fundamentais - e uma forte estrutura de governança e segurança jurídica. Suas penalidades são onerosas, podendo chegar a 30 milhões de euros e, no caso de empresa, a 6% do seu volume mundial de negócios mundiais do ano relativo ao total do exercício anterior.4 Dentro da proposta de regulação europeia, os riscos são categorizados. São considerados  riscos inaceitáveis os sistemas subliminares, manipuladores ou exploratórios, que possam causar danos, caso de identificação biométrica remota em tempo real em espaços públicos. Recentemente, a Prefeitura de São Paulo suspendeu o pregão eletrônico para contratar sistema de câmeras de monitoramento e reconhecimento facial, visando políticas de segurança pública preventiva, sendo que inúmeras entidades de defesa do consumidor e da sociedade civil acionaram o Ministério Público do Estado contra o projeto, que foi cancelado pela Prefeitura. Na Europa, o uso de sistema de identificação biométrica remota em tempo real em espaços acessíveis ao público para fins de aplicação da lei somente é autorizado em algumas exceções. No caso do uso privado da biometria é apenas para  identificação biométrica retrospectiva. Também se discute na lei europeia o uso de tecnologias biométricas como expressão facial, sendo que não há ainda base científica sobre a aferição de estados emocionais e traços da personalidade mensurados pela biometria.  Para assegurar o futuro, a lei europeia prevê a necessidade de adotar um mecanismo para adicionar subcategorias às existentes à medida que novos usos da tecnologia são incorporados. A exemplo da GDPR, a regulamentação europeia da IA prevê que os implantadores (qualquer pessoa, grupo ou autoridade pública que implemente um sistema de IA) tenha acesso a canais que lhes permitam apresentar queixas, buscar uma ação coletiva, ter o direito à informação e uma agência de fiscalização com padrões e recursos suficientes para desempenhar suas responsabilidades previstas em Lei. No AI Act, a questão da finalidade, a exemplo da GDPR, é um ponto importante. Os fornecedores devem explicitar a finalidade pretendida da tecnologia criada para tornar mais transparente o uso potencial; assim como seus limites, deixando igualmente claras as suas responsabilidades. É o caso do uso da biometria remota em tempo real por parte de autoridades em uma manifestação com confrontos, por exemplo. Deve atender aos objetivos de uso e teste de proporcionalidade,para que não ameace o Estado de Direito. Em paralelo a Lei AI Act, a União Europeia criou no ano passado a AI Liability Directive, um regramento voltado à responsabilidade civil aplicável à tecnologia de inteligência artificial, uma vez que há superposição de responsabilidades no caso de gerar prejuízos, seja do fabricante, proprietário ou operador, assegurando o direito de reparação das vítimas. A própria Diretiva traz a justificativa de sua criação: "As condições para a implantação e desenvolvimento de tecnologias de IA no mercado interno pode ser significativamente melhorado por prevenir a fragmentação e aumentar a segurança jurídica através de medidas harmonizadas na UE, em comparação com possíveis adaptações de regras de responsabilidade em nível nacional".5  A Universidade de Stanford, que possui um observatório sobre regulação da IA, apontou no ano passado a aprovação de  37 projetos de lei para regular essa tecnologia. As abordagens são muito diferentes e incluem todo tipo de preocupação. Este ano, a  Cúpula de Crescimento do Fórum Econômico Mundial, que aconteceu em maio, colocou mais um elemento no debate: a IA levará a uma necessária requalificação da força de trabalho e dos sistemas educacionais. O Fórum estima que 1,1 bilhão de empregos serão transformados pela tecnologia, tornando necessário que os programas de aprendizado sejam atualizados neste sentido. A preocupação com os sistemas de IA não se restringem ao universo jurídico ou educacional, mas são tão abrangentes que o Fórum Econômico Mundial está reunindo as melhores cabeças da academia, da indústria e dos governos para refletir sobre a IA generativa, defendendo que todos os stakeholders (partes interessadas que podem impactar determinado negócio, sejam clientes, investidores, profissionais, agências reguladoras, comunidades, mídias etc.)  trabalhem juntos para mitigar as externalidades negativas, ou seja, os custos sociais e econômicos para sociedade das tecnologias de IA. Assim, talvez, surja a  resposta de como teremos uma IA  mais responsável. __________ 1 Disponível aqui. 2 Disponível aqui. 3 Disponível aqui. 4 Disponível aqui. 5 Disponível aqui.
Uma simples história em quadrinhos de ficção científica encabeça o debate sobre os direitos autorais da inteligência artificial, intitulada  "Zarya of the Dawn", de autoria da artista Kristina Kashtanova, que  utilizou recursos da IA Generativa para elaborar as imagens da obra. A história trata de uma personagem não binária (Zarya) que atravessa "diferentes mundos para reunir ferramentas de saúde mental para poder lidar com suas emoções e pensamentos e encontrar conexão com outras pessoas e criaturas."1 Nos Estados Unidos, o  Escritório de Direitos Autorais (US Copyright Office- USCO) , que "registra reivindicações de direitos autorais, informações sobre propriedade de direitos autorais, fornece informações ao público e auxilia o Congresso e outras partes do governo em uma ampla gama de questões de direitos autorais, simples e complexas"2 ganhou novas prerrogativas diante da dimensão que o direito autoral adquiriu no ambiente digital e divulgou novas diretrizes , determinando que as obras devem obrigatoriamente comunicar a inclusão de conteúdo gerado por IA para reivindicar direitos autorais. No caso de Kashtanova, o Escritório havia concedido inicialmente os direitos autorais que, em nova análise, revogou quando veio a público o uso de IA no processo de criação da imagens. Recentemente, o órgão, em nova  avaliação, reviu sua posição e concedeu o registro parcial , excluindo o trecho produzido pela IA. Portanto, o registro de direito autoral abrange somente a autoria original da autora, sendo que as imagens geradas pelo Midjouney (programa semelhante ao ChatGPT) não possuem direitos autorais protegidos. Nessa construção dos direitos autorais envolvendo  IA, o escritório americano não acatou a argumentação da autora de que utilizou Prompts de textos para gerar as imagens pela IA, uma vez que entende que  tecnologia não permite controle sobre essa criação, não sendo possível dizer que tem autoria humana. A IA emprega algoritmos de aprendizado para criar novos conteúdos, que podem ser considerados plágios de outros trabalhos, outras fontes, o que comprometeria o resultado "original" da obra gerada, impossibilitando que obtivesse proteção  quanto aos direitos autorais. Em sua decisão, o escritório utilizou como comparativo o trabalho de um fotógrafo, que tem controle sobre a fotografia final porque pode interferir na iluminação, enquadramento,  tema etc. O grande imbróglio de uma obra gerada pela tecnologia de IA é tentar decifrar qual o nível do envolvimento humano no processo de criação. Somente selecionar prompts não assegura ao autor o status de "autoria humana", segundo entendimento do escritório americano de direitos autorais. O que é um processo de criação? Essa pergunta comporta muitas respostas por envolver o fazer artístico: Pode ser inspiração divina? Um dom nato? O esforço que envolve um trabalho criativo? Enfim, o ato de criar ou a criatividade, poderia ser definida como sendo "a aptidão da inteligência que permite a reorganização dos dados, no intuito de associá-lo e combiná-lo para a solução de problemas. Esta atitude da inteligência estaria diretamente relacionada à faculdade de criar, de idealizar e de conceber, correspondendo, em sentido amplo, à causa formal aristotélica. Enfim, seria a faculdade de proporcionar soluções adequadas a novos problemas, E em um sentido estrito, a faculdade da produção criadora"3 (TAVARES, 2011). O USCO tem em suas manifestações buscado explicitar a participação do autor humano em conteúdo gerado por tecnologia e IA generativa e tem reconhecido que dependendo do nível dessa contribuição, uma obra pode ser considerada de autoria  humana e de proteção autoral. O reconhecimento da história de Kristina Kashtanova é um fato inédito e pode se tornar um leading case. Há muitos casos no mercado que estão chegando para desafiar os tribunais no sentido de que um trabalho foi produzido com base no estilo de determinado artista, sem o seu consentimento. Ainda há muita insegurança no cenário jurídico em relação a obras geradas por IA, e outros países podem ter entendimentos diferentes sobre a proteção legal dessas obras, como é o caso do Reino Unido, que tem trabalhado para atualizar suas leis de direitos autorais para incluir obras geradas por IA, com parte de um esforço mais amplo para modernizar a legislação de direitos autorais. Atualmente, temos exemplos de criadores que afirmaram ter aprimorado os prompts e intervindo manualmente no produto final geral pela IA generativa para ter seu direito autoral reconhecido pelo Departamento norte-americano de direitos  autorais. A grande dívida, porém, reside em uma etapa anterior: é possível treinar um modelo de IA de domínios protegidos por direitos autorais? O volume de dados, sejam textos, imagens ou códigos, é de tal magnitude  que mesmo uma pesquisa para determinar se tal dado é protegido pode falhar, o que consiste em um risco a ser levado em conta. Nos Estados |unidos, há a doutrina do "uso justo" para emprego não comercial  e educacional, caso de pesquisas acadêmicas e de organizações sem fins lucrativos. Contudo, é possível treinar a IA generativa com base em todos os livros do escritor Thiago Nigro, o autor brasileiro que vendeu mais livros em 2021, e produzir uma nova obra com objetivos comerciais? Talvez, mas a nova obra poderia parar nas barras de um tribunal por envolver questões legais de direitos autorais ou compensações para a parte que teve seu direito violado. Segundo analistas do universo jurídico, o número desse tipo de  ações  ainda não ganhou grandes dimensões porque os artistas não possuem recursos para bancar esse tipo de litígio, extremamente custoso e  longo. Considerando a interpretação e aplicação das leis de direitos autorais em cada país, as audiências agendadas pelo Escritório de Direitos Autorais americano para discutir a criatividade da inteligência artificial generativa e os direitos autorais nos EUA podem ter um forte impacto no Brasil e no mundo. Essa discussão pode ser complexa, assim como ocorreu na época da primeira codificação internacional dos direitos autorais, em 1886, quando havia muitas variáveis e naquela época houve algumas controvérsias em relação a alguns aspectos da convenção, por exemplo, alguns países argumentavam que a convenção favorecia, principalmente, os países mais desenvolvidos, que tinham um maior número de obras protegidas pelos direitos autorais. Além disso, havia preocupações sobre como a convenção afetaria as indústrias culturais em países que não tinham tradição em proteção aos direitos autorais.4 Assim, a discussão atual sobre os direitos autorais na era da IA generativa pode ser muito significativa e complexa, envolvendo diversos atores e com potencial impacto em nível global. O processo criativo pode ser influenciado por referências artísticas ou acadêmicas e a IA generativa pode ser uma ferramenta valiosa para pesquisas, desde que o usuário possua o conhecimento técnico necessário. Em relação ao caso de Zarya, é possível que sua criadora tenha utilizado somente seus próprios inputs, sem se basear em referências artísticas de outros criadores, o que pode ser questionável do ponto de vista artístico. Essa discussão destaca o papel da tecnologia na criação artística e reforça a importância do conhecimento técnico e das referências no processo criativo. __________ 1 Disponível aqui. 2 Disponível aqui. 3 TAVARES, Monica. Processo de Criação na Arte. Disponível aqui. 4 Disponível aqui.  
Na fase inicial da aplicação da tecnologia ao Direito, em 2015, surgiu o DoNotPay, considerado o primeiro "robô advogado" do mundo. Na verdade, consiste em um aplicativo de serviços jurídicos criado por um cientista da computação, Joshua Browder, que utiliza tecnologia de Inteligência Artificial  (IA) para prestar determinados serviços jurídicos por assinatura anual de baixo custo. A invenção teve como "cobaia" o próprio criador, que queria se livrar de multas continuadas de estacionamento durante a faculdade. Assim, havia no design da criação do DoNotPay um idealismo de seu criador: ajudar o cidadão comum a enfrentar a burocracia do Estado, caso de multas de trânsito excessivas, ou conflitos consumeristas de pequena monta com empresas privadas, como cancelamento de assinaturas, taxa ilegal, spam etc., que ocupam tempo demais e não compensam o custo da contratação de um advogado por parte do cidadão comum. A partir do momento que o usuário inseri no aplicativo do DoNotPay o que deseja contestar, a IA gera uma inicial e todos os demais recursos que venham a contestar a demanda em sua tramitação. Ao longo dos anos, a IA ajudou a sofisticar a argumentação legal utilizada, aumentando o sucesso do aplicativo e funcionalidades, tanto que este ano  ensaiou representar presencialmente um cliente no tribunal , fornecendo instruções através de fones de ouvido, mas recebeu objeções de várias entidades representativas de advogados e de promotores, que consideraram a prática ilegal. O DoNotPay não cobra taxa de desempenho ou participação nos benefícios que por ventura o cidadão venha a obter por decisão judicial. Esse não é o caso de sites e aplicativos que invadiram o mercado brasileiro, instigando os consumidores a ingressar com processos judiciais para qualquer tipo de conflito consumerista. Há uma linha tênue que divide a iniciativa dessas ferramentas tecnológicas sob o aspecto da desjudicialização e a facilidade de acesso à justiça, em contraposição à preocupação de que tais aconselhamentos e iniciativas possam ter. Certamente, não reúnem a qualidade necessária de informações legais, podendo causar problemas adicionais aos consumidores desinformados e sem a orientação de um advogado  "humano". Outro ponto preocupante é a regulamentação e adequação das leis aos aconselhamentos baseados em algoritmos e estatísticas. No Brasil, existem plataformas que atuam de forma nociva nas relações de consumo. Disfarçadas de civic techs (empresas de tecnologia que buscam o engajamento do cidadão), acabaram por receber a alcunha de "aplicativos abutres". Essas plataformas promovem a judicialização predatória contra diferentes fornecedores em casos que poderiam ser facilmente resolvidos por mediação ou conciliação.  No entanto, esses conflitos localizados acabam se arrastando pelos tribunais, prejudicando parte do jurisdicionado que efetivamente necessita de uma solução mais célere  da Justiça para questões graves e urgentes. Pouca gente sabe, mas alguns aplicativos abutres pertencem a fundos de investimento que atuam no exterior e visam tão somente o lucro decorrente da judicialização. Eles se afastam do propósito de uma verdadeira civic tech, que deveria auxiliar no monitoramento de denúncias, melhoria dos serviços públicos e na busca de fomentar a participação do cidadão em consultas públicas e outras iniciativas de engajamento social. Em vez disso, se aproveitam de uma espécie de "comoditie legal" lucrativa, obtida pelo resultado esperado de determinadas ações contra empresas de alguns segmentos, como aviação e varejo. O aumento da litigiosidade no Brasil é um fenômeno que compromete o exercício pleno da cidadania porque limita o acesso à Justiça   e vem sendo minorado com a adoção de métodos consensuais de resolução de conflitos, nos quais as partes são incentivadas a encontrar uma solução, mais rápida e barata, para todos os envolvidos. O Judiciário implantou a Política Judiciária Nacional de Tratamento adequado dos conflitos de interesse no âmbito do Judiciário (resolução CNJ n. 125/2010) e vem ampliando o número de  soluções de litígios por autocomposição.  Vale ressaltar que esses "abutre techs" não estão interessados em defender os direitos dos consumidores, mas a lucrar com eles, oferecendo até a possibilidade de adquirir o futuro direito de crédito . De acordo com dados da série histórica do Conselho Nacional de Justiça, a despeito das medias mitigadoras, vem crescendo o número de novos processos que ingressam no Judiciário brasileiro: Em 1990, ingressaram 3,6 milhões de novos processos; em 2002, totalizaram 9,7 milhões; em 2010, 17,7 milhões (1º grau) 3,3 milhões (grau de recurso). Em 2021, já atingimos 26,9 milhões, embora tenha havido anos de estabilidade no período, casos dos anos de 2015 e 2016.1 A alta taxa de litígios do país vem sendo alvo de um efetivo esforço do CNJ voltado a educar e estimular os consumidores a optar pela conciliação e promover uma mudança na cultura de fornecedores e consumidores de que os direitos das partes somente são garantidos nas barras dos tribunais. Em sentido oposto, esses sites e chatbots, instigam pelas redes sociais o consumidor  através de um marketing agressivo a buscar a litigiosidade para resolver qualquer tipo de reclamação, por mais banal que seja, ignorando os canais de atendimento extrajudiciais e mesmo plataformas digitais, como a Consumidor.Gov, com alta taxa de resolução, de forma rápida e gratuita. De forma concomitante, para coibir esse tipo de abuso dos aplicativos abutres, a Ordem dos Advogados do Brasil tem atuado fortemente contra esses predadores tecnológicos. O Conselho Federal da OAB criou um grupo de trabalho que irá discutir esse tipo de litigância predatória e propor ações de enfrentamento, com a criação de mecanismos que possibilitem identificar esses aplicativos, propiciando a resposta adequada. Para o conselheiro e coordenador do grupo junto ao Conselho Nacional de Justiça, "o problema tem começo, meio e fim. O Judiciário está na sua fase intermediária. Não é a decisão de mérito em ação coletiva que o cria. A raiz do problema da litigância predatória se encontra em decisões equivocadas no momento da definição de políticas públicas ou nas estratégias empresariais, estas sim predatórias, e não no consumidor lesado que procura a Justiça através do seu advogado. Se existe a lesão, o processo judicial, individual ou coletivo, tem de levar a sua reparação."2 A linha de atuação de OAB está centrada no exercício irregular da atividade da advocacia e captação ilegal da clientela promovida pelos sites e aplicativos abutres e têm sido vitoriosa nas ações impetradas na Justiça contra esses chatbots por exercerem ilegalmente a advocacia, uma vez que não possuem inscrição nos quadros da Ordem, como estabelece a Lei 8.906/1994 e o Código de Ética e Disciplina da OAB, podendo gerar uma série de danos ao direito dos consumidores. A tecnologia de IA pode ser empregada para servir o consumidor que se sinta lesado ou para dar lucro a terceiros que expoliam esses consumidores, fomentando a litigiosidade dentro do sistema judicial. A conduta das partes, portanto, é fundamental para saber sopesar como deve encaminhar os seus potenciais conflitos, levando em conta os fatores que asseguram seus interesses e relevando uma solução oportunista e insegura, que resulta na massificação das demandas, prejudicando a cidadania e comprometendo a eficiência da Justiça. __________ 1 Disponível aqui. Acesso em 15 mar 2023.   2 Disponível aqui. Acesso em 15 mar 2023.
terça-feira, 7 de março de 2023

As máquinas podem amar?

Não existe norma específica para lidar com este fenômeno chamado ChatGPT, por isso neste momento o Direito não tem condições plenas de focar apenas na norma como objeto de estudo. É preciso entender o fenômeno, para então normalizá-lo e, somente depois, tratar exclusivamente da norma que regula o fenômeno. A ideia é que as Ciências Jurídicas, terão de se dispor a um movimento próprio das Ciências Humanas antes que possa seguir para o seu objeto de estudo. O ChatGPT gerou um frenesi. O que essa ferramenta de linguagem natural poderia responder? Mais surpreendente do que uma pequena criança que aprende as primeiras palavras, o sistema mostrou-se bastante satisfatório na criação de poemas, textos curtos e longos, além de resenhas de filmes, como o clássico Casablanca. No primeiro momento houve surpresa, no segundo medo e agora uma lenta e bem construída descrença de que a ferramenta possa de fato ter expressões mais humanas que venham a prejudicar nossa capacidade de julgamento sobre as suas respostas. Uma ferramenta que recebe nossas mensagens e as reprocessa não é uma novidade. Em 2 de abril de 2014 a Microsoft testou a Cortana dentro do Twitter. Longe de qualquer demérito, ambas as companhias foram o laboratório social de um experimento curioso. Durante 24 horas a IA Cortana recebeu os tweets de centenas de pessoas. Cientes de que o sistema utilizava aprendizado de máquina, os usuários criaram situações eticamente limítrofes para a IA, que se tornou racista, xenófoba e antissemita. Não houve dúvidas quanto ao fato de que ela nasceu pura e a sociedade a corrompeu. Todavia, não tendo consciência, sequer noção de sua existência, Cortana se tornou mais corruptora do que corrompida. Aqui reside a principal reverberação de uma IA, porque, independentemente de uma senciência, o espelho que uma IA com linguagem natural cria é capaz de revelar nossas falhas ou, no pior dos casos, reforçá-las. Em 1950, Alan Turing escreveu sobre a possibilidade de que uma máquina digital poderia mimetizar outras máquinas, fossem digitais ou humanas. Durante o raciocínio, um dos seus questionamentos versou sobre as chances de que uma máquina pudesse pensar. Para esta possibilidade o matemático apresentou várias objeções de ordem teleológica-espiritualista, de que pensar seria dom divino concedido ao ser humano; de que seria temerário, e até indesejado, imaginar um ser artificial pensante; e que seria impossível provar os erros de um sistema cujas premissas seriam condicionais e, portanto, herméticas. Umas das objeções que se destaca é a de que uma máquina digital, ainda que soubesse poetizar, não teria ciência do que está fazendo. O ato de sentir seria apenas humano, todavia o matemático apresenta o argumento de Ada Lovelace de que máquinas poderiam até pensar por si só, sem que, no entanto, pudessem criar algo novo. Turing acaba sendo pragmático e, no seu Jogo da Imitação, arremata a questão ao afirmar que seria indiferente superar as objeções que apresentou porque a máquina digital teria sucesso se, após 5 minutos de diálogo, fosse impossível saber se a conversa era desenvolvida com um homem, uma mulher ou uma máquina. Se o conteúdo trazido e o tempo de resposta fossem factíveis, então o convencimento seria certo. O ChatGPT, ao menos por enquanto, mostrou-se capaz de compilar dezenas de páginas de forma satisfatória. Ele tem natureza enciclopédica. É criativo na combinação de textos à disposição na internet, mas não nas ideias. Talvez o próximo Pulitzer ou o próximo Nobel de Literatura sejam vencidos por um humano que usou parcialmente uma ferramenta de Linguagem Natural. Enciclopédias também erram, seja por viés histórico, seja por inacurácia técnica. O dicionário da Academia Real Espanhola definiu, por longo tempo, que os povos andinos eram selvagens. A Enciclopédia da Folha de São Paulo, de 1996, está desatualizada. Foi-se o seu tempo. A Wikipédia corre o mesmo risco todos os dias. Entretanto, estas acertaram os fatos que narraram em seu tempo. O ChatGPT falha ao unir a tentativa de criatividade com o seu caráter enciclopédico. Isso resulta em afirmações que doem ao brasileiro. Ayrton Senna não morreu em Interlagos após bater em Nakajima.1 E o 1º de maio de 1994 ninguém esquece, ninguém interpreta e ninguém relativiza. Senna se foi em Ímola, na Itália. Seja numa conversa de 5 minutos, seja num verbete de enciclopédia ou na retomada de um evento histórico é o convencimento humano, é a interpretação humana que prevalece. O que importa é o efeito que a máquina tem sobre os humanos mais do que sobre si mesma. Senão vejamos, as crianças no início dos anos 2000 sofreram várias vezes quando seus Tamagotchi  morreram, especialmente quando seus animais virtuais, entregues para os amigos, morriam de fome ou por superalimentação. O Tamagotchi não era uma IA, mas uma pequena máquina digital com efeitos psicológicos e comportamentais sobre os seus usuários. Novamente, o que importa é o efeito que a máquina tem sobre os humanos mais do que sobre si mesma. Isaac Asimov, em 1941, antes do artigo de Turing, publicou o conto O Mentiroso. A antecipação do enredo está no título e, naturalmente, em algum momento o robô que Asimov apresenta mente dentro da história. A mentira, entretanto, passa pelo equilibrado silêncio, por pensamentos criados na mente dos ouvintes, pelos desejos que eles possuem no íntimo, pela falta de comunicação de uns com os outros e, acima de tudo, pela Lei a que o robô está sujeito: Primeira Lei - Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal. Para o robô, mentir é proteger. Perceber as vontades do ouvinte e preenchê-las é fazer-lhe o bem. Contar a alguém que o sujeito desejado a ama é evitar o mal da tristeza. Aqui reside o perigo, quando uma ferramenta, dotada de cookies, dados e uma enciclopédia do comportamento humano puder entregar a realidade desejada através de palavras. Ao final da história, a cientista Susan Calvin, uma das personagens principais, apesar do coração partido, consegue criar um grave erro de sistema (Blue Screen) que acaba com o robô. Diante de vários ouvintes o robô foi incapaz de criar uma mentira factível para todos. Por isso, antes que se possa pensar na consciência de uma IA, na sua inspiração poética, ou se esta é apenas matemática ou uma linguista por natureza, as questões devem versar sobre os efeitos individuais e a escala que essas interações intimistas podem ter numa sociedade que busca incessantemente ser compreendida, nos seus erros e acertos. Aqui lanço o desafio, quem seria o autor do poema, a IA ou o autor que vos fala? Amar é confundir a vida com a eternidadeÉ fazer do momento, infinitoDo carinho para uma, a dádiva para a multidãoÉ nascer árvore, da sementeSer inteiro com outra, mesmo sendo doisÉ chorar no porto, depois de presentear com a velaConfiando ao outro a curva do retornoÉ abrir o abraço e esperarOu correr atrás do momento terno __________ 1 UOL. Senna morreu em Interlagos depois de bater em Nakajima. Disponível aqui. Acesso em: 05 de março de 2023.
Só se fala do ChatGPT1. A inteligência artificial criada nos Estados Unidos, mas que também funciona em português, parece ser capaz de responder a perguntas, bem como fazer contas, dar conselhos, simular diálogos, criar poemas, imagens, códigos fonte, músicas etc. A partir de padrões e dados fornecidos pelo próprio usuário, a tecnologia de modelo linguístico, além de se aprimorar sozinha, traz novas conclusões originais baseadas em pesquisa de fontes variadas. Assim como toda boa novidade acessível ao público, o robô do momento tem provocado diversos questionamentos em nichos específicos e no mero dia a dia da sociedade. As preocupações giram basicamente em torno de: "o ChatGPT será inimigo do raciocínio e da criatividade?", "mensagens ou declarações serão sempre elaboradas por um robô?", "a inteligência artificial vai favorecer plágios e violar direitos?", "as pessoas ficarão preguiçosas ou serão substituídas por máquinas?".  No universo da programação, por exemplo, podem surgir novos crimes virtuais. No mercado de trabalho, fluxos e atividades laborais podem ser otimizadas. Na vida escolar e acadêmica, existem riscos de cópias ou elaboração de tarefas sem qualquer raciocínio. Na saúde, possíveis diagnósticos podem ser fornecidos a partir da apresentação de sintomas pelo paciente ou agendamentos prioritários podem ser realizados. No âmbito jurídico - além da inteligência artificial poder ser benéfica para a elaboração de documentos como contratos, pareceres ou peças judiciais -, há polêmicas mais relevantes sobre o tema. Antes de tudo, é preciso entender que os retornos do ChatGPT a pedidos, sugestões ou dúvidas podem ser razoáveis e aparentemente compreensíveis, porém nunca perfeitos ou totalmente confiáveis. Isto é, a inteligência artificial conta com ótimas soluções, mas também limitações. O ChatGPT, apesar de apresentado como disruptivo, se baseia apenas em dados inseridos na rede somente até 2021 e não revela a fonte das informações - tais como provedores de pesquisa conhecidos na Internet que rastreiam, indexam, catalogam e organizam páginas publicamente disponíveis na rede, a partir de critérios de busca. A ausência de qualquer referência na produção do material por meio do ChatGPT, portanto, acaba não viabilizando a apresentação de uma bibliografia segura. Embora seja treinado para tentar consertar erros, retificar premissas incorretas e rejeitar pedidos inapropriados, as chances de sucesso são baixas nesse sentido. Nesta perspectiva, relembra-se que, por vezes, nem mesmo grandes veículos de comunicação ou o Poder Judiciário são capazes de atestar a veracidade de determinados conteúdos publicados na rede, tamanha a subjetividade que os envolve. Ainda, o ChatGPT não consegue responder a perguntas muito complexas e nem reagir a "piadas" ou "tirinhas inteligentes", dada a ausência de malícia da ferramenta que, naturalmente, é inerente ao ser humano. Por outro lado, a imprecisão de respostas estimula o estudo, a investigação da veracidade do conteúdo produzido e o debate para fins de correções manuais e resultados mais assertivos. Ou seja, a ferramenta se mostra útil para suporte, otimização do tempo ou eventual produção de ideias iniciais, mas para que seja criado um material inédito com informações precisas, ainda se faz necessária a participação humana. O material gerado pela nova inteligência artificial, por não contar com qualquer rastro de origem - já que produzido por algoritmos, a partir de informações públicas existentes na Internet, sejam elas provenientes de canais oficiais ou meras postagens aleatórias inseridas em redes sociais por qualquer usuário -, provoca discussões quanto à autoria do conteúdo, especialmente para fins responsabilização ou reivindicação de direitos autorais. Na hipótese de um usuário 1) questionar ao ChatGPT sobre a vacinação contra o Covid-19, 2) obter respostas contrárias às orientações médicas e 3) viralizar a informação equivocada em suas redes sociais ou outros meios de comunicação, ele poderá ser responsabilizado nos âmbitos cível e/ou criminal pela disseminação de desinformação ou notícias falsas, por exemplo. A propósito, a viralização de conteúdos ilícitos é um risco potencial ao negócio, se a ferramenta não for utilizada com senso crítico. Nessa linha, inclusive, foi criada uma Política de Compartilhamento e Publicação2 pela desenvolvedora da inteligência artificial, com expressa orientação de que o usuário assume a autoria das respostas quando publicadas em outro local. Além de outras recomendações também previstas nos Termos de Serviço3, Políticas de Uso4 e Políticas de Privacidade5, chama atenção a linguagem pronta que é fornecida ao usuário que desejar descrever o processo criativo quando necessário: "O autor gerou este texto em parte com o GPT-3, o modelo de geração de linguagem em larga escala da OpenAI. Ao gerar o rascunho, o autor revisou, editou e revisou o idioma de acordo com sua preferência e assume a responsabilidade final pelo conteúdo desta publicação." Sob outra ótica, também merece ser observado os direitos autorais de materiais já existentes na Internet. Nem toda obra publicamente disponível pode ser usufruída sem devida licença, créditos ou outros requisitos legais. Por isso, com relação à utilização de conteúdos como base para a produção de determinado material pelo ChatGPT, pode-se avaliar a possibilidade de o titular do direito requerer a criação de filtros de bloqueio aptos a impedir a utilização do conteúdo como um dado de treinamento da inteligência artificial. Em analogia ao que já acontece em algumas plataformas digitais, detentores de direitos autorais (em parceria com a empresa responsável pela plataforma) podem utilizar um sistema de identificação de conteúdo automatizado para detectar e gerenciar um conteúdo protegido. Assim, quando o código criado para identificar o conteúdo protegido por direitos autorais localizar uma correspondência, por exemplo, este não será veiculado ou empregado como fonte na elaboração do material produzido pela inteligência artificial. Outro ponto, por fim, que merece certa ponderação, diz respeito ao modelo globalizado da inteligência artificial. Isso porque, atualmente, ferramentas de pesquisa contam com critérios de geolocalização quando do retorno de resultados de buscas. O ChatGPT, criado por companhia norte americana e com fatores transacionais não especificados, pode fazer com que não sejam considerados aspectos culturais e legais de cada região, oferecendo assim aos usuários uma suposta "verdade universal". As situações boas ou ruins relacionadas ao ChatGPT são infinitas mas, para todas as áreas, corrobora a imprescindibilidade do ser humano. O aparente segredo desta inteligência artificial - e de outras já disponíveis ou que ainda vão surgir - está na elaboração das perguntas "corretas" quando da utilização e no senso crítico das pessoas para avaliar e revisar os materiais produzidos pelos robôs. Ao invés de reagir negativamente às tendências e evoluções, cabe ao ser humano e à sua capacidade de adaptação se reinventar jogando junto com a tecnologia. As pessoas devem ter em mente que ferramentas como o ChatGPT possibilitam a terceirização de atividades monótonas para dar lugar à criação de novos produtos e serviços. A qualidade do resultado proveniente do ChatGPT (e outras ferramentas deste tipo) ainda é discutível, mas mesmo que não fosse, o ser humano continuaria essencial para aprimorar a tecnologia e para analisar as referências obtidas. Inteligências artificiais podem ser direcionadas para automatizar tarefas repetitivas ou processos, analisar grandes bases de dados, fornecer serviços de atendimento mais personalizados ou prever tendências. Contudo, o conceito de machine learning deve ser agregado às habilidades individuais de cada indivíduo - que continuará exercendo atividades importantes e tomando decisões -, pois é o que irá gerar mais valor e fazer diferença para o cotidiano de outras pessoas e empresas. __________ 1 "Chat Generative Pre-Trained Transformer" ou, em tradução livre: "transformador pré-treinado generativo de bate-papo". 2 Disponível aqui. 3 Disponível aqui. 4 Disponível aqui.   5 Disponível aqui.
Especialistas consideram que neste ano a Inteligência Artificial (IA)  tende a continuar crescendo em ritmo exponencial, e estará ainda mais presente na vida das pessoas em uma completa conexão, sendo que é um mercado em evolução  e está  longe de atingir todo o seu potencial  em todos os setores e envolvendo quase todos os tipos de produtos e negócios, dos transporte a alimentos, na economia, política e defesa. Ou seja, a IA deve inovar quase tudo que conhecemos e demandamos. Poderá permitir que pessoas que não são programadoras, por exemplo, criem aplicativos, sem entrar nas questões éticas e o desenvolvimento do ser humano, Darwin que não nos ouça, os aplicativos vão sugerir a solução dos problemas e desenvolver aplicações de acordo com a necessidade do usuário. A questão aqui é em relação à produção artística, todo esse potencial gerou  a primeira  ação judicial coletiva de artistas visuais nos Estados Unidos contra empresas de tecnologia de IA pelo uso indevido de um conjunto de bilhões de dados utilizados no treinamento do algoritmo, sem autorização, violando a lei de direitos autorais norte-americana e licenças de código aberto. Esse processo é  aquele que todos sabem que viria, mais cedo ou mais tarde. Os artistas alegam que captadas essas imagens promoveriam uma espécie de colagem moderna de suas obras,  fato que as empresas de tecnologia refutam alegando que a  IA regenerativa cria clusters de representação dos dados de treinamento, ou seja, é uma técnica de machine learning, que agrupa dados em conjuntos distintos e avalia os coletados para encontrar padrões  e deles extraírem insights.  As ferramentas de IA são alimentadas, treinadas por dados, em repositórios públicos de códigos extraídos da internet, sem atribuir crédito a seus criadores. A parte contrária alega que esses "criadores de IA" podem até escrever um código que seja cópia do código-fonte aberto em que foi treinado. Os artistas, que são parte da ação, querem que empresas de tecnologia de IA fiquem proibidas pela Justiça de utilizarem trabalhos artísticos sem permissão dos autores para produzir novos conteúdos. O cerne da discussão é que a nova ferramenta de IA usa código-fonte aberto para treinamento, com base na Lei americana de uso justo de direitos autorais . As nuances da defesa e acusação são amplas, porque até o estilo do autor entra na discussão, porque a nova criação pode recriar um determinado estilo e deve abrir "a porta dos tribunais" para outros litígios de direitos autorais sobre tecnologia de IA. Com relação ao estilo do autor abrimos aspas para outro debate, o ser humano também no decorrer do seu desenvolvimento de aptidões artísticas muitas vezes pode buscar a mesma técnica e nuances do seu mestre até que desenvolva seu estilo próprio. O que não se cogita obviamente é a cópia da obra. A discussão nos tribunais trata da Inteligência Artificial Generativa ou IA generativa, uma das mais inovadoras, que pode criar textos, seja  para marketing, negócios  ou para um artigo acadêmico, desenhos, imagens, e artes realistas, com base no emprego de machine learning. Os artistas não gostam do tratamento das empresas que atuam com a IA generativa e os advogados acreditam que as alegações de que a arte gerada pela IA é próxima ao original não será fácil de comprovar no tribunal. Como comprovar que uma imagem  derivada de bilhões de dados  resultou na imagem "x". Não sabemos que sinalização as corte darão, se haverá um mais proteção ou  mais amplitude aos direitos autorais no caso da IA generativa. Mas, temos como baliza o caso de um aplicativo que usou algoritmos de reconhecimento fácil na startup que desenvolveu e a Justiça deixou claro que os dados dos usuário não poderiam ser usados para esse fim, sem anuência dos envolvidos, e a startup fechou. O processo da IA regenerativa está nas etapas iniciais, mas ninguém duvida que terá grande impacto no desenvolvimento da tecnologia de IA como é desenvolvida hoje. Mas afinal o que é um código aberto? Nada mais é que um software cujo código está disponível para download por qualquer pessoa, permitindo que possa fazer alterações  no desenvolvimento do código. O debate  está colocado e deve suscitar muita polêmica em diversos aspectos, aqui estamos falando de apenas um deles: todo algoritmo pode ser treinado com qualquer dado encontrado na internet, sem consentimento dos autores? Por este motivo essa ação poderia ser considerada emblemática para decidir o futuro da IA, nem tanto. Porque há um universo imenso de interessados: empresas de tecnologia, programadores, artistas, autores etc. Vale lembrar o caso do Napster, que foi um caso de disputa entre inovações tecnológicas e propriedade intelectual. A empresa  travou uma batalha judicial com as gravadoras por violar direito autoral de músicas, que perdeu, mas chegou a bater o recorde de 14 mil músicas baixadas por minuto na época. Há outro processo em andamento  nos EUA sobre IA generativa , voltado a debater a questão dos temas, estilos e outros elementos de artistas para formar uma nova arte. A ferramenta teria sido treinada com imagens e legendas da internet, sem que houvesse compensação ou consentimento dos artistas envolvidos. Uma das autoras da ação, Sarah Andersen disse ao New York Times que "Os humanos não podem deixar de trazer sua própria humanidade para a arte. A arte é profundamente pessoal, e a IA acabou de apagar a humanidade dela ao reduzir o trabalho da minha vida a um algoritmo". A discussão judicial nos Estados Unidos, certamente, terá impactos no mundo inteiro, por isso ela ganha tanta importância. O cerne do debate está na medida em que os desenvolvedores de IA regenerativa podem usar dados que estão na web e em que medida os autores devem receber direitos autorais por isso. Essa discussão deve iniciar uma reflexão em vários campos para se chegar à mitigação dos riscos, principalmente para as empresas de tecnologia, no sentido que não impeçam a evolução da IA regenerativa, que promete fazer uma revolução. O que está por trás disso tudo saberemos em um futuro próximo.
Este será um ano especial para as empresas de tecnologia de IA e os usuários quando o Senado Federal colocar em pauta o Marco Legal da Inteligência Artificial brasileiro, trazendo novos dispositivos de regulação. A minuta do anteprojeto  de lei, elaborada por uma comissão de juristas, já foi entregue ao presidente do Senado em dezembro do ano passado, depois de oito meses de trabalho, período no qual coletou informações a partir de painéis, seminário internacional e do substitutivo aos projetos em tramitação(PL 5.051/2019, que propõe princípios para uso da inteligência artificial no Brasil; PL 872/2021, que disciplina uso no país e o PL 21/2020, que estabelece fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil) Para uma tecnologia que já vem sendo aplicada em uso intensivo em diferentes segmentos no Brasil e no mundo, o anteprojeto brasileiro do Marco Legal da IA guarda similaridade a projetos em outros países, inclusive das propostas da União Europeia, ao abordar a garantia de direitos fundamentais, gradação de riscos e responsabilização pelo uso da tecnologia de IA e seus impactos para a sociedade. Como expressa, o professor Fernando Filgueira, doutor pelo Instituto Universitário de Pesquisas do Rio de Janeiro, que tem analisado estratégias de diferentes países frente à regulação da IA "regular a IA não é igual regular uma coisa, [.] em que o Estado pode estabelecer determinados parâmetros de segurança ou aquilo que ele quer regular, passar isso para a indústria e de alguma forma criar uma relação de comando e controle [.]. Nós estamos falando de uma tecnologia de propósito geral que tem diversas aplicações, as mais variadas [.]. [.] regular a IA não é propriamente regular a tecnologia em si [.]. O que nós estamos regulando são modelos de negócios que usam essas tecnologias."). A exemplo da Lei Geral de Proteção de Dados (LGPD), a comissão de juristas  propôs a criação de uma autoridade reguladora para IA, destacando as dificuldades que essa nova agência deve gerar, ao deter  um perfil administrativo e fiscalizatório. Outro dado importante seria a possibilidade de adoção de  uma regulação setorial para evitar conflitos e superposições.  Nesse sentido, seria formado um comitê multissetorial, envolvendo diferentes atores públicos e privados. Dessa forma, o Estado não teria o controle total, nem as empresas teriam a autonomia absoluta, seria uma busca pelo equilíbrio. Em suma, as questões regulatórias deveriam envolver governança de dados, transparência, ética e accountability algorítmica, dentre outros pontos. A agência reguladora para a IA, pelo anteprojeto apresentado deve ser independente, sendo que foi proposta uma corregulamentação entre o governo, setor privado, academia  e sociedade civil. A autorregulação seria aceitável em alguns casos, embora o debate sobre o impacto da tecnologia na garantia dos direitos  cidadãos fosse visto como ponto fundamental que deve figurar no Marco Legal, mas de forma que as regras não inibam o desenvolvimento.  A exemplo da Comissão Europeia, que  apresentou em 2021 sua proposta inicial para regular a Inteligência Artificial, o anteprojeto brasileiro aponta a necessidade de promover uma regulação baseada em risco, inclusive, apontando alguns usos considerados inaceitáveis. Mas também a comissão aventou a possibilidade de uma regulação baseada em direitos ou na combinação dos dois modelos (direitos e riscos); acrescentando a necessidade de uma avaliação antes de a tecnologia entrar no mercado. Outro ponto importante do anteprojeto está ligado à pesquisa e inovação para que o Marco Legal não inviabilize o  desenvolvimento tecnológico. Para Crisleine Yamaji, da Febraban e professora do Ibmec, integrante da comissão, "é um desafio muito grande para a Comissão pensar um pouco nesse arranjo institucional de fiscalização que efetivamente não imponha um ônus demasiado ao desenvolvimento econômico e tecnológico no País" (...) "o desenvolvimento da IA e da inovação no País não depende só de cooperações e parcerias, mas também de uma legislação e de uma regulamentação que deem espaço para esse aprendizado".  Para a questão da defesa de direitos fundamentais a comissão de juristas ouviu vários atores da sociedade civil, entre as muitas propostas apresentadas, estava a identificação de tecnologias de IA de alto risco, utilizando critérios bem definidos. Foram consideradas como inaceitáveis por diferentes autores: "reconhecimento facial em espaços públicos, policiamento preditivo, armas autônomas, reconhecimento de emoções e crédito social (social scoring) (...)vedação do emprego de IA que envolve graves riscos" (...) "sistemas artificiais que se fazem passar por seres humanos para fins de coerção ou manipulação, serem humanos; tecnologias que possam vir a interferir no processo democrático; sistemas que promovam deliberadamente qualquer tipo de dano físico, psíquico, emocional ou social a indivíduos; (.) armas autônomas (.); sistemas para fins de monitoramento de indivíduos, monitoramento Coordenação de Comissões Especiais, Temporárias e Parlamentares de Inquérito 220 em massa, criação de escores sociais, e profiling de indivíduos, mesmo que para fins de segurança pública, persecução penal ou inteligência nacional; sistemas que violem direitos humanos (Declaração Universal dos Direitos Humanos das Nações Unidas); sistemas que violem os Princípios e Direitos Fundamentais no Trabalho da OIT (Organização Internacional do Trabalho); sistemas que promovam obstáculos à implementação dos Objetivos de Desenvolvimento Sustentável estabelecidos pelas Nações Unidas"; suas decisões, ações e ordens dadas"; Rankeamento ou pontuação social pelo poder público ou por entes privados, (.); o uso do reconhecimento biométrico facial, ou de outra natureza, em tempo real ou não em censos étnico-raciais (.); vigilância de massa; manipulação de comportamentos ou condutas humanas; uso de inteligência artificial em armas letais e não letais".  O anteprojeto faz uma ressalva importante que mesmo nos casos de alto risco, é fundamental que o Marco regulatório as IA não impeça o uso da tecnologia, mas estabeleça medidas de mitigação de risco. Houve apoio para a distribuição da responsabilidade nos casos de risco de uso de tecnologia de IA. Haveria responsabilidade objetiva para os operadores de sistemas de IA de alto risco e de responsabilidade subjetiva nos casos de sistemas de outras categorias. Outros conceitos ligados à tecnologia de IA também foram inclusos, como transparência e explicabilidade, destacando a importância de preservar os interesses  das empresas quanto aos seus segredos comerciais.  Também não ficaram fora do debate os mecanismos de supervisão e revisão humana do sistema de IA.  O relatório ainda cita regulamentações de vários países , com destaque para a Alemanha pelo volume de iniciativas de regulação, que conta com a criação de um organismo central para certificação de sistemas de IA, Comissão de Ética sobre Direção Automatizada e Conectada, e a Áustria, que conta com um Conselho de Robótica e Inteligência Artificial, formado por especialista na área de pesquisa, ensino e indústria , que debatem oportunidades e riscos da tecnologia de IA. O relatório é muito objetivo ao estabelecer uma perspectiva realista no futuro imediato: "Na perspectiva de equilibrar o respeito aos princípios da IA e a promoção da inovação, pelo menos neste momento, salvo em algumas áreas específicas, a governança da IA deve ser desenhada principalmente com leis brandas (soft laws), o que é favorável às empresas que respeitam os princípios da IA. No entanto, é necessário continuar discutindo a governança de e essas discussões provavelmente se tornarão mais ativas no futuro".
terça-feira, 3 de janeiro de 2023

Mitos da Justiça Preditiva

Neste artigo, utilizamos o termo mito, não no sentido grego de ser uma narrativa que explica a origem de tempos primordiais e de grande significado, mas como uma história "profana, falsa", e nem por isso deixamos de nos debruçar na busca da verdade, fundamental quando tratamos de Inteligência Artificial (IA) aplicada à análise preditiva na prestação jurisdicional. Quando se fala de uso de tecnologias de IA no Judiciário, países como o Brasil são sempre lembrados  por  nossa cultura de litigância, que gera mais de 60 milhões de processos em tramitação no judiciário, sendo que a IA pode criar uma justiça mais célere e menos custosa para o país,  embora ainda não saibamos o real impacto que terá no futuro imediato junto aos  tribunais e na vida das pessoas. O próprio Conselho Nacional de Justiça publicou a  Resolução nº 332/2020, voltada ao  " uso de sistemas de IA para apoiar decisões judiciais ", sem esquecer de ressaltar os " critérios éticos (igualdade, não discriminação, pluralidade, solidariedade, julgamento justo) no preâmbulo e no caput do artigo 7º que devem orientar os sistemas de IA que importem em soluções nessas áreas".¹ Um dos grandes mitos que  envolvem o uso das tecnologia de  IA na Justiça é o alcance da justiça preditiva. Na ficção, a ligação entre IA e justiça surge no filme de Spielberg, " Minority Report", no qual o uso de uma tecnologia preditiva  com interface entre humanos chamados pré-cogs e computadores ajuda a evitar crimes antes  que aconteçam, o que ajudou a derrubar o número de assassinatos a zero. O sistema, contudo, gera dúvida sobre sua assertividade, registrada em um " minority report", que tinha os dados destruídos, mas ficava na mente do pré-cóg. Nesse cenário, um agente  e "chefe de pré-crime" acaba vendo ele próprio praticando um crime. Na verdade, as pessoas são acusadas com base em algoritmos nem sempre infalíveis. Diante dessa descoberta, ele passa a ser  perseguido pelo sistema para evitar denunciar a falha que detectou. É o que até hoje preocupa o avanço da IA no Judiciário: se sua aplicação na esfera judicial tem um  custo para os direitos à privacidade e liberdade dos cidadãos. Atualmente, o uso da IA no Judiciário tem o peso de ser uma ferramenta de prevenção e previsão para solucionar delitos dentro de um mundo ultraconectado tecnologicamente. O uso vem se expandindo nos laboratórios forenses e testes de DNA, entre outros, trazendo importantes evidências para solução de muitos crimes, até de forma antecipada.    De acordo com o jurista francês  Antoine Garapon, " A justiça preditiva é também uma atividade econômica, representando uma esperança ou mesmo um sonho, porque as transformações em curso são de uma profundidade insuspeita  ", sendo que há quem garanta que a análise preditiva poderá trazer, entre outras vantagens,  maior segurança jurídica, que cria um ambiente de negócios e cidadania muito mais estável, emprestando mais transparência às normas e diplomas legais do país, assim como a interpretação das leis não reservarão surpresas para as partes. O temor está em que possa gerar externalidades negativas, ou seja, quando seu uso impõe um custo a terceiros, uma vez que a IA é programada por humanos e isso pode resultar em erros,  até porque muitos bancos de dados utilizados são do setor privado e isso pode levar a  comprometer direitos fundamentais nos julgamentos. Um dos lastros mais eficientes que temos é a Lei de Inteligência Artificial da Comissão Europeia, do ano passado, que determina o respeito do uso da tecnologia artificial, como base em preceitos éticos, democráticos , ligados aos direitos humanos. O sistema de decisão algorítmica para a Justiça terá de passar pelo crivo dos Legislativos, o que já vem ocorrendo principalmente da União da Europa, que tem enfatizado salvaguardas para uso da IA quando aplicadas ao judiciário, defendendo a supervisão humana como fundamental para prevenir a discriminação. A Europa defende que as tecnologias de IA sejam rastreáveis e transparentes e até devam usar código aberto, sempre que possível. Ainda estamos vivendo os mitos da IA forte, que pode tudo, mas apenas na ficção científica, quando na verdade vivemos as IA fracas ou moderadas que,  a partir de dados, promovem a contínua aprendizagem automática  da máquina e atingem um resultado esperado em diferentes atividades humanas, incluindo o Judiciário. O campo do Direito se transformou em um alvo prioritário para as experiências da tecnologia de IA por alguns motivos, como o resultado esperado ser as probabilidades envolvendo o  julgamento individualizado dos juizados com base em leis, jurisprudência e doutrina, utilizando as decisões já proferidas. O aprendizado da máquina (machine learning) tem se mostrado eficaz no trabalho de interpretar os elementos de um processo judicial. Esse diagnóstico foi feito pela University College of London, que categorizou 79% das decisões da Corte Europeia de Direitos Humanos. ² É importante observar que  o sentido da lei extrapola os dados estatísticos, embora muitas tecnológicas afirmam ser   capazes de identificarem vieses no julgamento de terminados juízes ou de um colegiado de um tribunal, porque muitos outros fenômenos complexos envolvendo questões socioeconômicos e culturais se somam a cada decisão, que interfere no resultado probabilístico. A tecnologia de IA tem um rigor científico que se distancia do significado do Direito, dos valores e interesses sociais que podem ou não criar um novo eixo, que tem o peso de ser mais rico ou mais pobre na construção da paz social. Portanto, constitui uma revolução que ainda está em processo e, no momento, pode auxiliar na tomada de decisão judicial, cabendo ao juiz decidir o que quer utilizar dos dados extraídos pelos computadores. Os sistemas de IA ainda se concentram na pesquisa legal, análise de dados e justiça preditiva. A tentativa de previsão nas atividades humanas e do Direito é tão antiga quanto a humanidade e sempre ajudaram  as partes a consolidarem argumentos mais robustos, possibilitando que aquele que tem o papel de julgar  tenha melhores elementos. A análise preditiva não interfere nas decisões judiciais , apenas utiliza as sentenças como matéria-prima  para prospectar e lançar uma probabilidade de sucesso de determinada ação, sem interferir na garantia do julgamento justo. Sua interferência nas decisões judiciais, portanto, constituem um mito que vem sendo derrubado. ________ 1 Disponível aqui. 2 Disponível aqui. 
O uso da tecnologia de Inteligência Artificial (IA) na Justiça em todo o mundo tem gerado diferentes gradações de soluções. A mais integral vem da China, onde há 4 mil tribunais, 46 mil juízes e 110 mil advogados para atender uma população de 1,4 bilhão de pessoas, com o incremento da litigiosidade ano a ano. Desde 2016, o país vem desenvolvendo um conceito de "Tribunal Inteligente"¹. De acordo com a Suprema Corte de Pequim, em decisão deste ano, os magistrados devem consultar a Inteligência Artificial em todos os casos e, quando forem contra a recomendação da tecnologia, devem apresentar justificativa por escrito. O país entende que a IA está melhorando o sistema judicial ao alertar para "erros humanos" em decisões. A tecnologia de IA na China pode quase tudo, até alterar veredictos que podem "ser contaminados por erro humano". A incorporação da IA ao Judiciário foi acelerada pela pandemia da Covid-19 e a necessidade de digitalização, mas teve sua diretriz definida no Plano Quinzenal do Congresso Nacional Popular do ano passado, que definiu que a reforma judicial seria aprofundada pela tecnologia e o presidente do Supremo Tribunal Popular chinês, Zhou Qiang tem nos tribunais inteligentes uma de suas prioridades. O sistema do "Tribunal Inteligente" instalou plataforma on-line para o público em massa para agilizar a tramitação e incluir dados para agilizar o sistema de machine learning, propiciando relatórios estatísticos e preditivos. Segundo a China, o sistema reduziu em um terço as horas de trabalho dos magistrados, o tempo do processo é em média de 40 dias e economizou US$ 45 bilhões, no período de 2019 a 2021. É uma visão bem diferenciada da maioria dos países ocidentais, que fazem restrições ao viés algorítmico, temendo que gerem distorções, caso da Comissão Europeia, que em 2021 regulamentou o uso da IA com base em direitos fundamentais. Uma das inovações veio com a criação  Comissão Europeia para Eficiência da Justiça (CEPEJ)1, que  definiu como plano de ação de  2022  a 2025, " acompanhar os Estados e os tribunais numa transição bem-sucedida para a digitalização da justiça de acordo com as normas europeias e em particular com o artigo 6º da Convenção Europeia dos Direitos do Homem", dispositivo que assegura que toda  " pessoa tem direito a que a sua causa seja examinada de uma forma justa e equitativa, num prazo razoável, por um tribunal independente e imparcial. Qualquer pessoa acusada presume-se inocente até prova em contrário. Deve ser informada o mais rápido possível da acusação contra ela e poder preparar a sua defesa. Tem direito a ser representada por um advogado pago pelo Estado se não tiver meios para pagar um". A CEPEJ reconhece que a passagem dos arquivos judiciais em papel para o digital é fundamental. No Brasil, nas últimas décadas nos tribunais têm buscado realizar essa mudança do físico para o digitalizado. É o caso do Tribunal de Justiça de São Paulo (TJ-SP) , que iniciou em 2006  a implantação do processo eletrônico e desde 2015 não recebe mais ação em papel.2 A Comissão Europeia, que une Justiça e avanços tecnológicos, sugere seis pontos principais que devem ser observados, entre elas que as tecnologias escolhidas pelos Estados e Judiciários sejam mais eficientes, acessíveis e imparciais. Sugere, ainda, que os tribunais tenham um  pipeline para monitorar e gerenciar o fluxo das ações e  evitar a morosidade na  tramitação processual, podendo acompanhar o volume e produtividade dos feitos. Os europeus defendem uma justiça colaborativa, na qual as ferramentas tecnológicas devem interconectar todos os atores judiciais-magistrados, promotores, advogados e jurisdicionados. Para tanto, é necessário que a ferramenta seja de fácil uso e eficiente. Enfatizam também que haja uma adequação do papel dos juízes e promotores ao ambiente digital, sem que isso represente a substituição do juiz, como sugere o modelo chinês. Para a União Europeia, é importante também uma justiça centrada nas pessoas e que essas possam fazer uso pleno das tecnologias disponíveis, como condição de acesso ampliado da justiça, recebendo todo apoio no ambiente digital. Por último, o CEPEJ recomenda aumentar a visibilidade e compreensão dos resultados no âmbito judicial e garantir a transparência das ferramentas tecnológicas. Para os dois lados, sejam chineses ou europeus, fica a pergunta se a IA está criando uma nova forma de fazer Justiça ou se constitui um desafio para que os designs e os algoritmos correspondam à expectativa de uma IA legal com efetivo potencial para atender às demandas dos operadores do direito, do jurisdicionado e dos Estados. O Brasil segue o caminho do meio, introduzindo novas tecnologias em sua Justiça, seja de IA, big data, blockchain, etc.,sem que se perca a perspectiva e a relevância dos direitos fundamentais, que possam ser comprometidos com julgamentos automatizados, sem salvaguardas. __________ 1 Disponível aqui. 2 Disponível aqui.
terça-feira, 6 de dezembro de 2022

Alcance da IA e seus impactos no sistema judicial

A atual Capital Mundial do Futebol, o Catar, participou em julho último de um treinamento de capacitação sobre Inteligência Artificial, Justiça Criminal e Direitos Humanos, promovido pela UNESCO e Siracusa International Institute . Os magistrados do Supremo Conselho Judicial do Catar receberam treinamento sobre o uso de ferramentas de IA e suas aplicações práticas na administração da Justiça e como isso faz a interface com os direitos humanos discriminação e privacidade do jurisdicionado. O curso promovido pela UNESCO, que envolve também riscos de segurança cibernética envolvendo inteligência artificial,   já treinou mais de 20 mil operadores do Direito, visando cooperação Norte- Sul e Sul-Sul . Além da versão presencial, neste ano foram criados os  treinamentos on-line de capacitação "IA e o Estado de Direito", organizado em seis módulos para explorar potencialidades, riscos e responsabilidade na tomada de decisões judiciais por sistemas automatizados  por IA, deixando evidente as implicações dessa tecnologia com o devido processo legal e  o Estado de Direito, que deve atingir atores do sistema judicial de mais de  100 países, e a importância de conhecer melhor essa tecnologia para se alinhar às boas práticas tecnológicas e se posicionar sobre implicações legais.1 Um dos textos de referência utilizados no treinamento a distância da UNESCO é do juiz federal brasileiro, Fausto Martin De Sanctis, "Artificial Intelligence and Innovation in Brazilian Justice", demonstrando o reconhecimento internacional da iniciativa pioneira do Brasil na área. Victor é  um programa de IA do Supremo Tribunal Federal, em parceria com a Universidade de Brasília (UnB), chamado Victor,  implantado em 2018  com o objetivo de agilizar a  tramitação processual  do chamado Recurso Extraordinário na alta Corte brasileira, conceituado como sendo um "instrumento processual-constitucional destinado a assegurar a verificação de eventual afronta à Constituição em decorrência de decisão judicial proferida em última ou única instância", de acordo com apontamento do Ministro do STF, Gilmar Mendes. Victor pode identificar a implementação da admissibilidade de recursos repetitivos, criado pela Reforma do Judiciário (EC 45/2004) , levando em conta  sua relevância em um país como o Brasil, onde a litigiosidade é uma das maiores do mundo. Victor consegue reduzir o tempo de análise dos processos (RE), uma vez que grande parte do tempo gasto era referente à admissibilidade do recurso. Para  De Sanctis, é "importante criar um ambiente adequado para o uso de IA com as precauções necessárias. O otimização do tempo, reduzindo o número de servidores necessários para tarefas básicas, e deslocá-los para os mais relevantes, são vantagens já sentidas", diz De Santis em seu estudo.2  O segundo estudo apresentado no treinamento on-line da UNESCO é de Cingapura, que tem atraído grande controvérsia quanto ao uso de ferramentas de IA em sentenças, principalmente,  na Justiça criminal. Na Ásia, temos como referência a Malásia, com um programa piloto para crimes de porte de drogas e estupros, sendo que os juízes têm seguido a sugestão da IA em 1/3 dos casos. Cingapura criou um conselho de sentença para que o emprego da tecnologia tenha mais consistência e transparência. O texto afirma que "À medida que o público ganha maior consciência dos vários caminhos para buscar recursos para perseguir seus direitos legais, eles também podem estar mais preparados para serem auto-representados em nossos tribunais. Mais usuários do tribunal já estão interagindo diretamente com a justiça". O que causa maior impacto nas tecnologias de Inteligência Artificial (IA) atualmente são que elas vêm - além de  ajudar a automatizar tarefas mentais, transformando profissões como a dos operadores do direito - já conseguem fazer análises preditivas e redigir peças processuais e contratos. A capacidade humana de julgar e tomar decisões também vem sendo operacionalizadas, cada vez mais, pelas tecnologias de  IA em muitos tribunais de inúmeros países. Um  outro exemplo consistente vem da Europa. No final de novembro deste ano, a Câmara dos Lordes (Parlamento do Reino Unido) analisou o relatório do Comitê de Justiça e Assuntos internos avaliando as novas tecnologias no sistema de justiça britânico e apontou suas conclusões. Centrou sua análise no uso dos algoritmos e tecnologia de machine learn frente à  aplicação da Justiça na Inglaterra e País de Gales, incluindo policiamento preditivo, algoritmos para triagem de visto e  ferramentas de reconhecimento facial. Para o comitê, o impacto do uso da inteligência artificial no sistema judicial foi positivo, mas fez uma série de recomendações. A primeira tratou da possível manipulação de algoritmos que podem trazer riscos a um julgamento justo aos acusados, recomendando que  o governo adotasse boas prática de governança para uso de novas tecnologia, além de criar um órgão nacional independente para essa missão, uma legislação específica, orientação para uso de IA no policiamento e no sistema de justiça criminal. Os ingleses também demonstraram  a importância da transparência no uso das tecnologias de IA  para garantir a atuação da imprensa, da academia e do Parlamento.Quanto aos algoritmos, o comitê sugeriu uma série de recomendações, como realizar pesquisas para determinar como o uso de algoritmos preditivos afetou a tomada de decisões, promover treinamentos de funcionários públicos, e buscar junto aos produtos de tecnologia a  "explicabilidade" das ferramentas. O presidente honorário de uma das maiores empresas de tecnologia do mundo e professor em inúmeras instituições de ensino em todo o mundo, Giancarlo Elia Valori4 considera  fundamental lastrear o desenvolvimento da IA a padrões éticos e morais diante de seu potencial e possíveis riscos : "É, portanto, nosso dever preocuparmo-nos eticamente com as questões decorrentes da Inteligência Artificial: é o medo justificado de sermos subjugados por aqueles que agora pensamos que controlamos", diz.  Ele trouxe à toma o debate de forma mais consistente sobre a jurisprudência emergente e uso de sistema de IA na Justiça criminal e suas interfaces com os direitos humanos, ética, discriminação algorítmicas, violação de privacidade. __________ 1 Disponível aqui. 2 Disponível aqui. 3 Disponível aqui. 4 Disponível aqui.
É um fato que há tantas definições de Inteligência Artificial (IA) quanto o número de comunidades científicas e o consenso ainda vem sendo construído, embora alguns conceitos tenham mais aceitação. É o caso do conceito criado por François Chollet, engenheiro de software e pesquisador. Para ele, IA é um sistema computacional capaz de generalizar  conhecimento e aplicá-lo em ambientes desconhecidos. Igualmente polêmico vem sendo o debate sobre a regulamentação das tecnologias de IA. A discussão passa pela necessidade de estabelecer regras para o desenvolvimento ético, principalmente quanto às técnicas de machine learning e deep learning, ou seja, do aprendizado das máquinas sem programação, com capacidade autônoma de aprendizado e melhoramento contínuo. A aplicação da IA vem se expandido em todo o mundo, muito além dos carros autônomos e diagnósticos médicos precisos, impactando a vida das pessoas, empresas e governos, com adoção ampliado de sistemas inteligentes, principalmente para entender e classificar a grande quantidade de dados gerados diariamente. Contudo, em todo o mundo, a regulamentação da IA está em diferentes estágios de evolução. A regulamentação deve assegurar a evolução para as corporações, mas reduzir os possíveis riscos aos cidadãos. Um marco é o relatório da OCDE - Organização para a Cooperação Econômica para o Desenvolvimento que, em 2016, já tinha externado suas preocupações em torno de regras de governança ligadas à IA, uma vez que poderia gerar incremento do desemprego em decorrência da automação, crescimento da distorção na distribuição de renda e resultados comprometidos por falta de supervisão humana. Quatro anos depois, a mesma OCDE trouxe à público a Al Policy Observatory para contribuir com o uso responsável da tecnologia da IA,demonstrando uma contínua preocupação. Sendo sempre um referencial regulatório, a União Europeia também apresentou em 2019 m Guia de Ética Confiável para a IA, destacando pontos que deveriam ser observados no uso da IA, como privacidade e proteção de dados, centrar a tecnologia no ser humano, garantir  segurança técnica, transparência e um lastro nos Direitos Humanos para  evitar qualquer tipo de discriminação. No ano passado, a UE realizou consulta pública sobre o tema para consolidar o debate encaminhado pela Comissão Especial AIDA ( Artificial Intelligence in a Digital Age), visando regular a matéria no Parlamento Europeu.  Outro avanço foi registrado pela Unesco (Agência educacional, científica e cultural das Nações Unidas) que, no ano passado, conseguiu construir um acordo sobre ética no uso da IA, com adesão de 193 países. Um dos pontos fundamentais foi a recomendação de proteção e transparência, permitindo que os cidadãos possam acessar, alterar ou excluir dados pessoais dos registros. Uma forte restrição é quanto ao uso de sistemas de IA para promover classificação social e vigilância em massa.  O mundo tem registrado, por exemplo, o uso de ferramentas de IA em redes sociais para espalhar conteúdos extremistas, compartilhados como rastilho de pólvora, popularizando mensagens de ódio. Os Estados Unidos também se unem aos países que buscam propor diretrizes para a IA com  a publicação recente de uma declaração, a "  AI Bill of Rights"¹, pelo Escritório de Política Científica e Tecnológica da Casa Branca, que tem a função de uma carta de intenções para orientar  sobre a tecnologia de IA. De acordo com o governo americano, os cinco dispositivos de proteção aos seus cidadãos devem ser aplicados a todos os sistemas automatizados do país. Pela diretiva, o público tem o direito de ser protegido de sistemas inseguros, não ser discriminado por algoritmos ou de práticas abusivas de dados, ter o direito de saber que o sistema é automatizado  e como afeta as pessoas e  optar por não participar.    Além das regulações nacionais, áreas específicas também buscam normatizar a IA .Uma delas é a Saúde,  que mais vem incorporando - e de forma acelerada -- as tecnologias de IA,  devendo alterar a forma da prática clínica  e gestão da saúde como conhecemos hoje. No Brasil, para tentar responder com presteza a uma tecnologia disruptiva, órgãos governamentais e entidades de classe estão criando uma regramentos com base em diretrizes profissionais e código de conduta. Uma referência vem sendo a Organização Mundial da Saúde (OMS)², que tem orientado o emprego da IA na saúde, tendo publicado primeiro relatório, intitulado "Ética e governança da inteligência artificial para a saúde", no ano passado. Para a OMS, a IA tem auxiliado a agilizar e dar maior precisão a diagnósticos e triagem de doenças, além de fortalecer a pesquisa e desenvolvimento de remédios e deve estar centrada em seis principais: proteção da autonomia humana, promoção do bem-estar e segurança humana e interesse público, garantir transparência, explicabilidade e inteligibilidade, promoção da responsabilidade e prestação de contas, garantia da inclusão e equidade, promoção da IA de forma responsiva e sustentável. Um dos pontos principais da normatização do uso da IA na saúde repousa na transparência algorítmica, uma demanda da comunidade médica que deseja saber como os algoritmos são desenvolvidos e empregados, buscando contornar a chamada "opacidade" algorítmica, pelo qual não se sabe como o processo de machine learn chegou a determinado diagnóstico, podendo levar o médico a se tornar um refém das previsões das novas tecnologias. Nesse ponto, torna-se crucial que os médicos incorporem cada vez mais o conhecimento sobre a IA, para que tenham uma visão de como o sistema opera para terem mais elementos e decidirem se aceitam ou rejeitam determinado diagnóstico ou o tratamento sugerido pela máquina e as responsabilidades que isso implica.    Se o mundo está construindo seus sistemas jurídicos para lidar com a IA, o Brasil não foge à regra. Uma Comissão  de juristas vem trabalhando  em um texto substitutivo  para estabelecer os princípios para regular a IA no país, com base no PL 5.051/19 ( que disciplina o uso da  Inteligência Artificial no Brasil); o PL 5691/19 ( que institui a Política Nacional de Inteligência Artificial, com o objetivo de estimular a formação de um ambiente favorável ao desenvolvimento de tecnologias em Inteligência Artificial) e em audiências públicas  que foram realizadas este ano e  debateram eixos temáticos, como direitos e deveres,  impactos, governança e fiscalização da IA .A espinha dorsal da proposta de regulação da IA no Brasil, certamente, está na  Lei Geral de Proteção de Dados (LGPD - Lei 13.709/18).
terça-feira, 1 de novembro de 2022

O projeto "AI for Humanity" a estratégia francesa

Um dos maiores cientistas do século, Stephen Hawking1, pouco antes de falecer em maio de 2018 impressionou com sua aparição durante o evento de tecnologia "Web Summit"2 ocorrido em 2017, naquela rica oportunidade ele comentou sobre os riscos que a humanidade poderá enfrentar diante dos avanços da Inteligência Artificial (IA). Ele propôs, na ocasião, uma reflexão para que os cientistas e governos deem uma breve pausa nos avanços da automação e estabeleçam o realinhamento para focar mais nos benefícios sociais que a tecnologia pode oferecer à humanidade. Os riscos alertados por ele naquela oportunidade envolvem rupturas econômicas; a possível perda de milhares de empregos; a utilização das armas de destruição autônomas; novos meios de opressão política; podendo, assim, ser "a melhor ou a pior coisa que a humanidade já criou" em sua história. O cientista inglês não está sozinho em seus alertas e preocupações, o velho continente vêm buscando a regulação da automação - englobando todos os mecanismos tecnológicos - e o debate para a criação de mecanismos éticos e de segurança para evitar que o futuro da humanidade fique à mercê da tecnologia aplicada por pessoas e governos mal-intencionados. Não é à toa a dimensão que ganhou aas Leis de Proteção de Dados Pessoais, principalmente na Europa, com a pioneira e muito bem estruturada GDPR, "General Data Protection Regulation", em vigor desde maio de 2018. Diante desse breve contexto, o discurso do Presidente francês, Emmanuel Macron, em Bundestag - Berlim, em 18 de novembro de 20183, encontrou sintonia com Hawking à medida que tratou sobre os mesmos desafios que preocupam os cientistas, os riscos da transformação digital, evolução tecnológica e como a União Europeia poderá lidar com isso. As nações não estão estruturadas para enfrentar tamanha evolução. Como lidar com a evolução tecnológica e propiciar um ambiente protegido, com um comércio justo, com equilíbrio entre a liberdade individual e a solidariedade coletiva? Em seu discurso, sugeriu que a Europa mais uma vez - lembrando do pós-guerra - tome a iniciativa para o desenvolvimento sustentável da tecnologia pelas nações,   Tudo isso são valores que a Europa deve promover em resposta aos desafios contemporâneos. Essa nova responsabilidade franco-alemã consiste em proporcionar ferramentas dessa nova invenção à Europa, ferramentas da sua soberania. Essa nova etapa é assustadora no final, porque todos terão de compartilhar sua capacidade de tomada de decisões, sua política externa, de migração ou de desenvolvimento. (...) nosso mundo está numa encruzilhada: ou escolhe apressar-se, como ele já o fez, no precipício do fascínio pela tecnologia sem consciência, pelo nacionalismo sem memória, pelo fanatismo sem reparos; ou ele decide que as realizações formidáveis ??da modernidade abrem uma nova era da qual toda a humanidade poderá se beneficiar. É neste continente, é da nossa união que nasce hoje o novo modelo digital, mesclando inovação de ruptura, proteção de dados e regulação dos agentes. A partir daí, a França vem promovendo debates e ações governamentais com a finalidade de proteger a sociedade dos avanços tecnológicos e propiciar um ambiente ético e seguro. Através do Conselho de Estado, que dentre suas atribuições tem a missão de fornecer "pareceres jurídicos ao Governo e ao Parlamento sobre os seus projetos de lei e de regulamento", está buscando a construção de "uma inteligência artificial pública confiável". Assim, o Governo francês tem implantado com parcimônia e gradualmente a IA nos serviços públicos, através de uma política de implantação de inteligência artificial proativa, ao serviço do interesse geral e do desempenho público. É utilizado, por exemplo, na gestão de tráfego, defesa e segurança, combate à fraude ou políticas de emprego. Mas ao se comprometer resolutamente com a inteligência artificial, seus possíveis benefícios na qualidade do serviço público seriam inúmeros: melhoria da continuidade do serviço público 24 horas por dia, relevância das decisões e serviços prestados ou igualdade de tratamento. revisar solicitações de usuários etc. A busca é por uma automação que fortaleça, "a relação humana entre o cidadão e o funcionário público, libertando tempo graças à automatização de determinadas tarefas (avisos de recepção, pedido de documentos adicionais, etc.) e melhorar a qualidade do serviço através a realização de tarefas até então materialmente impossíveis." Com isso, segundo o próprio Conselho de Estado, o país antecipará seu quadro regulatório, através da implementação das diretrizes para a implantação da IA nos serviços públicos, uma inteligência artificial pública confiável baseada em sete princípios: primazia humana, desempenho, justiça e não discriminação, transparência, segurança (cibersegurança), sustentabilidade ambiental e autonomia estratégica. Um dos objetivos dessa diretriz é que o país tenha uma governança estruturada para que a estratégia pública de inteligência artificial seja satisfatória. Para viabilizar a governança, a França conta, além dos esforços do Conselho de Estado, com o reforço do Departamento da Direção Digital Interministerial (DINUM) "responsável pela coordenação do desenho e implementação da estratégia do Estado no domínio dos dados"; e do coordenador nacional de inteligência artificial e a Agência Nacional de Coesão Territorial (ANCT). A entidade responsável por garantir que "a tecnologia da informação esteja ao serviço dos cidadãos e que não infrinja a identidade humana, os direitos humanos, a privacidade, as liberdades individuais ou públicas" é a Comissão Nacional de Informática e Liberdades (CNIL - Commission Nationale de l'Informatique et des Libertés)4, autoridade semelhante à nossa ANPD como órgão regulador. E como tal, dentre suas funções está garantindo a conformidade com os regulamentos gerais de proteção de dados (GDPR); aconselhamento e apoiamentos gestores de projetos digitais;  DPOs (délégués à la protection des données) nomeados por empresas, associações e serviços públicos; além da análise das inovações tecnológicas sobre a privacidade e as liberdades e emissão de  recomendações; autorização para o tratamento de dados que apresentem uma particular sensibilidade; controle e imposição de  sanções administrativas e colaboração com as demais agências europeias e internacionais. Em sua estrutura, o governo Francês conta com o Etalab5, que é um departamento da Direção Digital Interministerial (DINUM), cuja função é ser um grande "Chief Data Officer" do Estado, sob a sua atribuição de "Administrador Geral de dados, algoritmos e códigos-fonte, coordena e desenho e a implementação da estratégia do Estado na área de dados, coordena a política de abertura e compartilhamento de dados públicos (dados abertos) e as ações das administrações do Estado, fornecendo suporte para facilitar a disseminação e reutilização de suas informações públicas". A França também disponibiliza a plataforma de dados abertos data.gouv.fr, destinada a "recolher e disponibilizar gratuitamente todas as informações públicas do Estado, dos seus estabelecimentos públicos e, se assim o desejarem, das autarquias locais e regionais com uma missão de serviço público". Em resumo, o principal objetivo é de se estabelecer uma governança de dados públicos transparente através dos dados governamentais abertos. Certamente, o grande diferencial está no projeto ambicioso denominado "IA for Humanity", criado a partir do discurso do presidente Macron para se instituir uma política de dados que considere a IA como uma aliada para o fortalecimento da França e da União Europeia. Em sua proposta, a França deve: (1) incentivar o compartilhamento dos dados das empresas para criar um banco de dados comuns em um modelo de governança de dados baseado na reciprocidade, cooperação e compartilhamento; (2) propor a abertura progressiva do acesso de dados, setorialmente, por razões de interesse público; (3) assegurar o direito à portabilidade de dados para qualquer indivíduo, migrando suas informações de um "ecossistema de serviço para outro sem perder seu histórico de dados". O principal objetivo é de potencializar a França em sua vantagem competitiva nos quatro setores considerados mais maduros: saúde; transporte; meio ambiente e defesa e segurança. A estratégia para se atingir esse avanço envolve 3 medidas: (1) Implementar políticas específicas do setor com foco nas principais questões, a política industrial deve se concentrar nas principais questões e desafios da nossa era, incluindo a detecção precoce de patologias, medicina P4, desertos médicos e mobilidade urbana de emissão zero; (2) Testar plataformas específicas do setor para apoiar a inovação. Devem ser criadas plataformas setoriais específicas para compilar dados relevantes e organizar sua captura e coleta; fornece acesso a infraestruturas de computação em larga escala adequadas para IA; facilitar a inovação criando ambientes controlados para experimentos; e permitir o desenvolvimento, teste e implantação de produtos operacionais e comerciais e (3) Implementar sandboxes de inovação. O processo de inovação da IA ??deve ser simplificado criando áreas de teste sandbox."6 Por outro lado, dentre tantas iniciativas positivas chamou atenção a antinomia do legislador francês, conforme comentado por Solano de Camargo,  "o artigo 33 da Lei francesa de Reforma da Justiça, promulgada pelo presidente Macron em 25 de março de 2019, proíbe expressamente a indexação de decisões dos tribunais da França e os nomes dos respectivos magistrados, evitando que esses dados sejam "reutilizados com a finalidade ou efeito de avaliar, analisar, comparar ou prever suas práticas profissionais reais ou alegadas", sob pena de prisão do infrator por até cinco anos. Em outras palavras, o legislador francês proibiu as soluções de inteligência artificial (IA) baseadas nos repositórios jurisprudenciais da França."7 Indaga-se, portanto, se a França com tal decisão está indo contra seu próprio discurso de igualdade pelo Conselho de Estado, contra o interesse geral e do desempenho público. O próprio programa "IA for Humanity" sugere a disponibilização e compartilhamento dos dados públicos, portanto, não faz muito sentido a proibição do uso dos algoritmos para a indexação das decisões dos tribunais com a finalidade de analisar, comparar ou prever suas decisões, tal uso se dá muitas vezes apenas pela necessidade de o mercado aumentar a produtividade e a eficiência dos serviços diante das ferramentas que a tecnologia oferece para esse fim. A indagação final seria qual a verdadeira finalidade dessa decisão do legislador francês, porque o cidadão pode ter suas informações tratadas - com o devido consentimento - e o judiciário, não. Afinal, as informações públicas e a transparência são defendidas pelo próprio governo francês. Isso tudo demonstra que a sociedade ainda tem muitos desafios e nenhum governo, por mais avançados que seus programada de digitalização estejam, ainda não há o amadurecimento suficiente para os avanços da tecnologia. Webliografia: https://linc.cnil.fr/fr/dossier-securite-des-systemes-dia https://politica.estadao.com.br/blogs/fausto-macedo/a-inteligencia-artificial-nos-tribunais-franceses-e-o-julgamento-de-galileu/ https://websummit.com/tm_source=google&utm_medium=cpc&utm_campaign=18596301005&utm_content=143300306118&utm_term=web%20summit%20portugal&gclid=Cj0KCQjwwfiaBhC7ARIsAGvcPe5GnWTywn4IehaWGpPU00npC_MhvJWmqaVyW1bdNPuCYVe1yZaht84aAqSeEALw_wcB https://www.aiforhumanity.fr/en/ https://www.cnil.fr/fr/intelligence-artificielle-le-conseil-detat-se-prononce-sur-la-gouvernance-du-futur-reglement-ia https://www.conseil-etat.fr/actualites/s-engager-dans-l-intelligence-artificielle-pour-un-meilleur-service-public https://www.data.gouv.fr/fr/organizations/cnil/   https://www.etalab.gouv.fr/qui-sommes-nous/ https://www.numerique.gouv.fr/dinum/ __________ 1 Disponível aqui. 2 "Web Summit" foi uma conferência de tecnologia que ocorreu na Europa e agora se estende pela América do Norte, Ásia e América do Sul. Está prevista no Brasil, na cidade do Rio de Janeiro, o "Web Summit RIO" em 2023.  3 Disponível aqui. Acesso em 29/10/2022. 4 Disponível aqui.  Acesso em 28/10/2022. 5 O Etalab "coordena e promove a ação do Estado e das organizações que estão sob sua supervisão em termos de inventário, governança, produção, circulação, exploração e abertura de dados e, em particular, códigos-fonte, organizando o melhor uso dos dados do Estado". 6 Disponível aqui. 7 Disponível aqui.
O relatório "AI Decision-Making and the Courts", publicado em junho desse ano, elaborado pelo Australian Institute for Judicial Administration (AIJA), UNSW Law and Justice, UNSW Allens Hub e FLIP Stream1, faz uma investigação consistente sobre o uso da tecnologia de IA nos tribunais. Certamente, vem crescendo a presença da tecnologia de IA na atividade jurisdicional em todo o mundo.  Há casos, como da Estônia, um Estado totalmente digital, onde os chamados "Juízes de IA" já são um fato e decidem litígios contratuais de menor monta que são levados aos tribunais. Todo o processo é muito simples, bastando a remessa dos documentos digitais das partes para a análise, seguida da decisão do magistrado de IA. Os recursos, se houverem, serão arbitrados por um magistrado humano. Essa popularização do uso das tecnologias de IA em Juízo vem sendo reconhecida como positiva, de um lado, mas preocupante de outro. Até que ponto um juiz pode ou deve acatar uma recomendação da IA sobre determinado caso, optando por apoiar sua sentença em uma decisão automatizada, que é lastreada por dados de legislação e jurisprudência? O relatório chama a atenção para o fato de que o termo inteligência "artificial" é inexato porque essa tecnologia utiliza recursos naturais e humanos para prever recomendar ou decidir em ambientais reais ou digitais e que o termo "inteligência complementar" seria mais adequado para "descrever o fenômeno se nosso objetivo fosse criar um sistema que resolva problemas que são difíceis para humanos, em vez de duplicar a inteligência humana". O problema da tecnologia de IA é que ela pode operar em diferentes níveis de autonomia. O relatório ressalta que passamos pelos sistemas de IA de primeira geração, na qual o conhecimento é decorrente de um programador humano, com conhecimento especializado em direito, que cria uma série de regras expressas nas chamadas "decision trees", cujas escolhas recebem o nome de "nodes" e podem gerar soluções com base nessas regras. A tecnologia de IA no que concerne à automação pode atuar sem controle humano, passando por diferentes níveis de 1 a 5, quando a máquina executa a tarefa com total controle, sem supervisão humana. Um exemplo dado pelo relatório, que deixa bem claro são os carros autônomos. Essa questão coloca em debate, qual o papel que os humanos devem ter no sistema de IA, principalmente quanto à tomada de decisão (saída do sistema)? A IA pode auxiliar um juiz na tomada de decisão ou decidir autonomamente? Mas quem seria o responsável por eventuais danos causados? Os designers da tecnologia? Agora, contudo, já estamos na segunda geração de tecnologias de IA interagindo com o universo jurídico. É o sistema de machine learning, que se divide em com e sem supervisão humana. No primeiro caso, o aprendizado da máquina é feito por correlações definidas por humanos, usando métodos como das árvores de redes neurais até que se chegue a resultados minimamente precisos, aqui uma ressalva, a rede neural é apenas o termo utilizado para essa metodologia tecnológica, não se trata de uma rede biológica. Há, segundo o relatório, várias formas de aprendizado das máquinas - passiva simples, ativa simples, ativa contínua e outros sistemas. Nesses casos há revisão humana (bacharel em direito) para ensinar o software a realizar a classificação correta dos documentos judiciais. Ao aplicar todas as classificações, digamos treinadas, a máquina cria um modelo classificador para os outros documentos. Já o grupo sem supervisão, utiliza o desdobramento chamado deep learning, que é capaz de criar e estabelecer padrões de correlações próprias, dissociadas da cognição humana, obtido por forma não linear de aprendizado, uma espécie de rede "neural", que depende de grande volume de dados para operar. Claro que apesar de não haver uma supervisão direta no resultado, haverá sempre um humano em sua programação, manutenção e utilização do projeto. O relatório traz outro ponto importante: a tecnologia de IA também vem sendo utilizada para analisar tendências de decisões judiciais. Na Austrália, os dados estatísticos são considerados sem valor probatório, mas levanta o questionamento se os dados forem interpretados fora do contexto, expondo a decisão do magistrado. Vale lembrar a proibição da França de se promover análise preditiva, correlacionando dados de decisões judiciais com o objetivo de prever práticas jurisdicionais, ou seja, a França quer impossibilitar que se identifique padrões em decisões judiciais, o que constitui uma posição isolada até porque a jurimetria é um fato consumado na maioria dos países que utilizam IA. E de fato é, a jurimetria é uma ferramenta extremamente útil e pode auxiliar a todos os envolvidos, não só o judiciário, mas os advogados também. Ela é uma ferramenta capaz de auxiliar inclusive na desjudicialização, trazendo informações importantes para se ter uma análise precisa de elementos que possam ser identificados para a resolução de conflitos. A aplicabilidade da tecnologia de IA na atividade jurisdicional já é amplamente conhecida no universo judicial, tendo com um dos expoentes o Legal Adviser Suport, o sistema Watson, usado no mundo inteiro, que pode disponibilizar pareceres e resultados sobres ações judiciais. Temos também o Victor, programa de IA desenvolvido pelo Supremo Tribunal Federal em convênio com a Universidade de Brasília (UnB), que emprega técnicas de machine learning para identificar temas mais recorrentes de repercussão geral na alta corte brasileira. Vale lembrar que Victor não tem autonomia para tomar a decisão final, portanto, isso muito positivo em vários aspectos, afinal seriam necessários quantos profissionais para realizar tais levantamentos em uma planilha? É o momento de utilizar a tecnologia a nosso favor em atividades repetitivas ou que requeiram uma estatística aplicada, portanto, nesse sentido, o ser humano não está descartado em hipótese alguma. Sem dúvida que todo o debate e o acompanhamento das questões éticas são fundamentais e precisam ser realizados e com monitoramento constante. O relatório australiano alerta: "cada sistema de IA é diferente - sendo necessário perguntar se em relação a um determinado sistema, há preocupações particulares que possam comprometer a abertura, prestação jurisdicional responsável, imparcial, justa e eficiente. Compreender os termos e ferramentas comuns de IA, juntamente com as principais áreas de uso da IA ??nos tribunais em todo o mundo, pode ajudar a examinar o impacto da IA ??nos principais valores judiciais em caso a caso". Sem dúvida, a questão da IA aplicada ao judiciário não envolve apenas uma questão de tecnologia da informação, mas passa por outras questões éticas, políticas e sociais. Em que medidas os recursos tecnológicos inteligentes podem evitar decisões discricionárias? Há grande esforço em produzir mecanismo de responsabilização sobre os impactos da IA como resposta aos próprios operadores do direito, jurisdicionado e Estado, porque são muitas as variáveis envolvidas na tecnologia inteligente, que vão muito além da abertura de códigos-fonte de algoritmos. As aplicações ainda estão em desenvolvimento e são muito positivas, sem deixarmos de aprimorar, desenvolver e monitoras todos os aspectos de segurança para se evitar os riscos decorrentes de aplicações incorretas ou injustiças, isso é óbvio, o mais importante de tudo e em todas as questões, resumidamente os pontos que devem prevalecer em todos os aspectos são a dignidade da pessoa humana; os direitos humanos e  o respeito aos princípios fundamentais, mantendo-se a segurança jurídica, a legalidade e a transparência, base de uma sociedade justa e fraterna. __________ 1 Disponível aqui.
terça-feira, 13 de setembro de 2022

Pressão da tecnologia sobre o futuro da advocacia

A American Bar Association (ABA)1, a Ordem dos Advogados norte-americana, tem realizado um debate intenso sobre a influência a Inteligência Artificial (IA) sobre a advocacia e a prestação dos serviços jurídicos, buscando projetar um possível futuro para a profissão. A ABA analisa o uso ampliado dessa nova tecnologia e as questões éticas envolvendo soluções de Inteligência Artificial (IA), principalmente diante do barateamento do custo de armazenamento de dados, que caiu de US$ 12,4 por GB para US$ 0,004 por GB, tornando-se, portanto, mais acessível. Uma pesquisa da Zion Market Research aponta que o mercado global de IA jurídica crescerá 35,9% até 2026 e estamos falando de bilhões de dólares. A pesquisa jurídica e de gestão de processos foram os primeiros e mais intensos usos da tecnologia de IA na rotina do advogado, porque se tornaram mais abrangentes, rápidos e precisos do que os realizados por advogados ou bacharéis. Também já está disponível no mercado uma série de softwares que pesquisam jurisprudências e legislações específicas, sugerindo medidas judiciais e ajudando na redação de peças jurídicas para obter resultados positivos nos tribunais. A tecnologia de IA ainda pode fazer uma análise preditiva, ao avaliar as decisões que determinado magistrado tomou ao longo do exercício profissional, dando o percentual dele decidir sobre determinada forma. Qual o futuro dos advogados frente à IA, segundo a ABA? De acordo com a Ordem americana, há 4 funções que a IA não pode oferecer: julgamento, empatia, criatividade e adaptabilidade. Em nível mais reduzido, os advogados já exercem essas habilidades (skills), mas somente a primeira têm relação direta com que se aprende nos cursos jurídicos tradicionais. Essas habilidades expõem o nível de mudança que a advocacia deve sofrer nos próximos anos e décadas. Até o momento, as habilidades técnicas eram fundamentais para uma profissão, agora as habilidades sociais vêm ganhando primazia porque as relações interpessoais são fundamentais no mundo corporativo. A empatia, por exemplo, é a capacidade de compreender e compartilhar a perspectiva de outra pessoa, se colocar no lugar dela, e indicar que ela foi compreendida e acolhida. Em parte, o advogado já cultiva essa habilidade de forma intuitiva porque ele já escuta o cliente e compartilha seu problema, seu conflito, sem julgamentos. Há uma preocupação legítima em resolver determinado problema, sendo capaz de comunicar seu comprometimento ao outro, com percepção e sensibilidade. A tecnologia tem levado os advogados a cultivaram a criatividade, que podemos conceituar como sendo o primeiro estágio de um processo de solução. A etimologia da palavra deriva do grego krainein, que significa realizar. Pode ser explicada também como a possibilidade de fomentar novas ideias, experimentação, ser fonte de soluções, enfim se tornou um valor para o mundo corporativo como um todo, que teria segundo Rossmann (1931) uma sequência de sete estágios - observação do problema ou oportunidade, análise, busca das informações, formulação de possíveis soluções, vantagens e desvantagens, a nova ideia e experimentação.2 A outra soft skill que o novo advogado precisará desenvolver é a adaptabilidade, ou seja, a possibilidade de saber lidar com situações novas e adversas e demonstrar flexibilidade para enfrentar as mudanças e abrir novas oportunidades. Tornou-se fundamental cultivar a autoconfiança para vencer as mudanças do mercado e da profissão. Diante do vácuo tecnológico na maioria dos currículos dos cursos jurídicos, o treinamento dos novos profissionais terá de ser propiciado pelos escritórios de advocacia. Atualmente, a American Bar Association está incluindo o dever de competência tecnológica e dever ético diante do uso de soluções de IA como essenciais às novas gerações de profissionais. A ABA coloca uma questão ética fundamental para o advogado diante do cliente à medida que deve ter expertise suficiente para entender o uso, riscos e explicar ao cliente a aplicação da solução de IA em seu processo. O advogado também terá de responder a autoridades reguladoras, que observarão se estão sendo estabelecidos padrões de conformidade para todos os provedores de serviços jurídicos que utilizem IA. Esse tema ainda é insípido no Brasil e a ABA aponta que vem acontecendo várias joint ventures entre escritórios de advocacia e provedores de solução de IA. Nesse sentido a entidade americana faz um alerta porque teme que, no futuro, os serviços jurídicos não sejam mais prestados por advogados, porque todos querem soluções eficientes, rápidas e a baixo custo, fazendo crescer  a pressão sobre os escritórios de advocacia e seu modelo de atuação profissional. __________ 1 Disponível aqui. 2 Disponível em ROSSMANN, J. The psychology of the inventor. Washington, DC: Inventor's Publishing,1931.
terça-feira, 30 de agosto de 2022

IA como agentes e não como máquinas?

O presente artigo visa trazer alguns apontamentos críticos acerca do artigo "Machine behaviour", em uma análise interdisciplinar, a qual também seria uma abordagem apropriada para se estudar tanto a temática da IA de modo geral, já que é uma disciplina com viés transclássico em sua origem, holística, como também a área do comportamento das máquinas, tal como apontam os autores no referido artigo (Iyad Rahwan, Manuel Cebrian, Nick Obradovich, Josh Bongard, Jean-Franc¸ois Bonnefon, Cynthia Breazeal, Jacob W. Crandall, Nicholas A. Christakis, Iain D. Couzin, Matthew O. Jackson, Nicholas R. Jennings, Ece Kamar, Isabel M. Kloumann, Hugo Larochelle, David Lazer, Richard Mcelreath, Alan Mislove, David C. Parkes, Alex 'Sandy' Pentland, Margaret E. Roberts, Azim Shariff, Joshua B. Tenenbaum & Michael Wellman, 25 APRIL 2019 | VOL 568 | NATURE - clique aqui). Trata-se de um campo de estudos interdisciplinar por natureza, envolvendo aspectos do comportamento das máquinas. O presente artigo faz parte de pesquisas em sede de pós-doutorado na Cátedra Oscar Sala/IEA-USP, na área de inteligência artificial. O estudo do comportamento das máquinas, isto é, da inteligência artificial é fundamental para se pensar e desenvolver de forma responsável tais aplicações, sendo poucos os estudos que seguem uma abordagem via ciências sociais e na área das humanidades, já que até o momento os estudos na área de comportamento das máquinas se limitou à contribuição dos mesmos cientistas que criaram a IA, ou seja, cientistas informáticos, roboticistas e engenheiros, os quais, contudo, não possuem conhecimento especializado acerca de análise de comportamentos, já que sequer são behavioristas treinados. Por conseguinte, do mesmo modo que nos humanos e animais, os comportamentos das máquinas não podem ser totalmente compreendidos sem o estudo integrado dos algoritmos e correspondentes ambientes sociais em que os algoritmos operam, e segundo os AA. devemos considerar a IA, portanto, como uma classe de atores com padrões de comportamento e ecologia particulares, ou seja, não deve ser considerada como um mero artefato de engenharia, o que não implicaria, contudo, no reconhecimento de ser a IA ela própria responsável de forma pessoal no caso de danos, já que os intervenientes humanos seriam, em última análise, os responsáveis por qualquer dano no caso da utilização da IA. Os estudos acerca do comportamento das máquinas devem fornecer informações sobre o modo como estes sistemas funcionam, bem como os benefícios, custos e contrapartidas apresentados, permitindo assim uma maior possibilidade de controle de suas ações, minimizando possíveis riscos, embora esta seja uma tarefa difícil, em especial em razão das características da opacidade, ubiquidade, complexidade, a caixa preta dos algoritmos de IA ("deep learning"), além da não previsibilidade das decisões finais em muitos casos. Em suas conclusões, os autores do arrigo "Machine behaviour" enfatizam que as máquinas exibem comportamentos que são fundamentalmente diferentes dos animais e dos seres humanos, razão pela qual devemos evitar o antropomorfismo e o zoomorfismo excessivos. Não obstante as importantes contribuições dos autores, em especial por trazerem a necessidade da abordagem interdisciplinar, data venia, destacamos alguns apontamentos, no sentido de contribuir para o debate democrático, e para uma perspectiva científica do estudo das novas tecnologias, em especial da IA. Os autores elencam alguns tópicos e relacionam com questões centrais, sendo estas: democracia, justiça algorítmica, cinética, armas autônomas, mercados e sociedade. No tocante ao item democracia, contudo, verifica-se uma abordagem limitada a apenas se preocupar com criação de bolhas de filtragem pelos algoritmos e se há censura de forma desproporcional do conteúdo. Não são apontados, contudo, dois temas centrais no âmbito de uma democracia, como são o da vigilância excessiva que poderá comprometer o que se entende por um Estado Democrático de Direito, e a questão da devida proteção dos direitos humanos e direitos fundamentais, os quais são a concretização ou densificação da dignidade humana, sendo esta o valor axial de qualquer Estado democrático. Considera-se que o Estado Democrático de Direito é um Estado de respeito aos direitos fundamentais e sobretudo da dignidade humana de todas as parcelas da população. É o que pode ser observado no importante caso submetido a julgamento perante o Comitê de Ciência e Tecnologia do Parlamento da Inglaterra em 2017, acerca do uso crescente de algoritmos de inteligência artificial para a produção de decisões públicas e privadas; destacando-se que tal uso no setor público pode levar a policiamento discriminatório e monitoramento indiscriminado, influência ou manipulação comportamental e invasões em larga escala de privacidade. Já no setor privado poderá levar à discriminação em áreas como recrutamento, emprego, acesso a serviços e finanças, preços diferenciados, entre outras. No item "justiça algorítmica", por sua vez, também há algumas limitações, ao ser enfocada apenas a questão da discriminação racial, decorrente apenas em caso de policiamento preditivo, ocorrendo um aumento da taxa de falsa condenação. Ocorre que os vieses dos algoritmos não se limitam à questão de discriminação racial, ocorrendo também discriminações de gênero e de classe, como destacam diversos estudos, devendo ser considerada tal interseccionalidade (Ângela Davis). Outrossim, a questão da produção de decisões algorítmicas na área criminal não se limita à concessão de liberdade condicional, mas abrangeria outros benefícios aos quais teria direito um acusado/criminoso, e também englobaria a própria decisão acerca da culpabilidade do indivíduo. Neste sentido, diversos autores corroboram tal assertiva, tais como Omer Tene, Cathy O'Neil, Frank Pasquale, com destaque para Virginia Eubanks, professora da Universidade de Albany, ("Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor"). Ao apontar para discriminações de classe, os professores da Universidade de Boston denunciam vieses de gênero/sexistas, além dos vieses de raça, como destacam a professora da Universidade da Califórnia em Los Angeles Safiya Umoja Noble (Algoritmos de opressão: como os motores de busca reforçam o racismo") e Latanya Sweeney, professora da Universidade de Harvard. No item "cinética" verifica-se que não é suficiente apenas se abordar duas únicas aplicações de IA, como veículos autônomos e armas autônomas, havendo outras aplicações de IA com risco alto ou inaceitável que não são mencionadas. No item "sociedade" apenas é citado como potencial de discriminação a "homofilia", sendo que há outras parcelas vulneráveis da população integrantes dos grupos de LGBTQ+. No item "robôs de conversação" tem-se a preocupação com a interação com crianças apenas, sendo que há outros grupos vulneráveis não mencionados, como idosos, pessoas com deficiência, além da ausência de uma abordagem necessária por meio de uma casuística, a fim de se adequar à compreensão de cada pessoa em particular. O "White paper on IA", publicado pela Comissão Europeia em 19/02/2020, ao trazer a abordagem via risquificação, separando para fins regulatórios aplicações de IA de "alto risco" e "baixo risco", especifica o que se poderia considerar como aplicações de alto risco, quando houver riscos significativos, em especial, com relação à proteção da segurança, dos direitos dos consumidores e dos direitos fundamentais; também recrutamento, situações que afetem os direitos dos trabalhadores, identificação biométrica etc. Não basta, outrossim, afirmar-se que os "intervenientes humanos são os responsáveis por qualquer dano", pois trata-se de uma abordagem genérica e simplista de uma intrincada e complexa questão, senão vejamos. As "Disposições de Direito Civil sobre robótica (2015/2103 INL) - Resolução do Parlamento Europeu", publicada em 02.04.17, apesar de trazer a atribuição de personalidade jurídica/eletrônica para algumas aplicações de IA, quais sejam, robôs autônomos mais sofisticados, considerando-se os requisitos da autonomia e da independência, prevê de forma complementar a exigência de um registro obrigatório dos robôs, um regime de seguros obrigatórios para facilitar a indenização de possíveis vítimas em casos de danos, e a criação de fundos de compensação para casos não cobertos pelo seguro. Referido documento atribui, todavia, a responsabilidade por danos, segundo o nível efetivo de instruções dadas aos robôs e o nível da sua autonomia, falando em "professor", correspondendo ao programador. Verifica-se que não é uma situação fácil identificar-se o nexo causal, e o nível de ações de cada uma das diversas pessoas que compõem uma equipe técnica responsável pela criação e desenvolvimento de uma IA, sendo tal problemática qualificada como "problema de muitas mãos", impossibilitando muitas vezes a identificação do nexo causal entre a conduta do agente e o dano produzido, já que há diversas pessoas atuantes e envolvidas no processo, existindo um verdadeiramente complexo sistema sociotécnico. Acerca de tais questões, o Alan Turing e Oxford Internet Institute/UNESCO trazem como possibilidade para se atribuir a responsabilidade, a "responsabilidade 'compartilhada' ou 'distribuída' entre designers de robôs, engenheiros, programadores, fabricantes, investidores, vendedores e usuários". Nenhum desses agentes pode ser indicado como a última fonte de ação. Contudo, tal solução teria a fragilidade de tender a diluir completamente a noção de responsabilidade, pois, se todos tiverem uma parte na responsabilidade total, ninguém será completamente responsável. Outra alternativa e proposta foi elaborada por Caitlin Mulholland, falando em "causalidade alternativa", diante da existência de um único nexo causal que não pode ser identificado de forma direta, poderíamos atribuir a sua presunção ao grupo econômico como um todo, de forma a facilitar o ônus probatório para a vítima. Já Eduardo Magrani afirma que não seria possível em sistemas sociotécnicos complexos atribuir com certeza a responsabilidade a uma única pessoa, pois a ação causadora do dano advém de um somatório de agências de seres humanos. Também não concorda com a proposta de Mulholland, pois entende que nesse caso a atribuição de responsabilidade com foco no grupo econômico poderia não ser suficiente para a atribuição justa de responsabilidade. Como proposta, aponta para a "responsabilidade compartilhada" entre os diferentes agentes atuantes na rede sociotécnica e suas esferas de controle e influência sobre as situações e sobre os demais agentes. Contudo, mais do que reconhecer a IA não apenas como um artefato, mas como um agente como proposto no artigo "Machine behaviour", tal reconhecimento é necessário no tocante à natureza (Bruno Latour), a qual reage aos nossos padrões excessivamente consumistas, antropocêntricos e destrutivos, havendo um novo imaginário hipercomplexo e hiperconectado, onde tudo e todos estão conectados, antes mesmo da internet das coisas se tornar generalizada. Daí a importância de uma análise crítica, interdisciplinar e polifacetada da temática da ética da inteligência artificial e da relação homem/técnica/natureza, fugindo-se da lógica de separação natureza em oposição à cultura, por meio da lógica de domínio da natureza, ensejando ainda mais individualismo, antropocentrismo, eurocentrismo, e a perigosa alienação na técnica de que falava Husserl, quando a razão vira puro cálculo e o saber que importa é o produzido maquinalmente, e com vistas ao mercado (utilitarismo).
terça-feira, 16 de agosto de 2022

IA e projeções futuristas

A humanidade sempre desejou saber como seria o futuro. Em 1927, o cineasta alemão Fritz Lang dirigiu o filme "Metrópolis", uma ficção científica que já previa a criação de robôs que substituiriam os humanos no trabalho.  Outros robôs viriam, como o C-3PO, da série Star Wars, dirigido por George Lucas, em 1977, o primeiro filme da franquia. Em 1982,  "Blade Runner", de Ridley Scott, mostrava como os androides, chamados de replicantes, foram criados para realizar trabalhos perigosos. O filme "Her" (Ela),  é mais intrigante porque apresenta um jovem recém divorciado, que  compra um sistema operacional com inteligência artificial que interage com humanos e começa um relacionamento  homem e máquina (Samantha), sendo que "ela" começa a apresentar sentimentos conflitantes de ciúme. Os robôs ou androides não são novidade, segundo Alexander Meirelles1 :"A Europa do século dezoito foi o palco de surgimento da palavra 'Androide', vindo a substituir, ao longo dos séculos seguintes, o uso do termo Autômato para designar seres artificiais orgânicos ou metálicos fabricados para terem o comportamento e a aparência física externa semelhante à dos humanos. Formado pela junção do grego Andro (Homem) e o sufixo oid (tendo a forma ou semelhança de), 'Androide' surgiu na Inglaterra na enciclopédia Cyclopædia; or an Universal Dictionary of Arts and Sciences (1728), de Ephraim Chambers (CLUTE & NICHOLLS, 1995, p. 34)."2 É a tentativa do ser humano copiar o Criador, o homem tentando criar um ser à sua semelhança, isso vêm da idade média, antes mesmo da criação das palavras androide e robô, havia o autômato.3 Na literatura, livros de ficção científica também  projetavam uma visão do futuro. Desde "1984", de George Orwell, lançado em 1949, tornou-se um exemplo clássico dessa busca pelo futuro. Nessa mesma linha temos "Eu, Robô", do escritor russo Issac Asimov e "Fahrenheit 451", um romance de ficção científica, escrito por Ray Bradbury e publicado pela primeira vez em 1953.  Na realidade, as  pesquisas sobre IA se iniciaram no início na Segunda Guerra Mundial e os principais idealizadores foram os cientistas Hebert Simon, Allen Newell, John McCarthy, entre outros, que pretendiam criar um androide que simulasse a vida do ser humano.   No início os estudos sobre IA buscavam apenas uma forma de reproduzir a capacidade humana de pensar, agora, estima-se que a inteligência artificial nas empresas será responsável por um aumento de 40% da produtividade nos próximos quinze anos, sendo assim uma ferramenta indispensável para quem busca um crescimento compatível com o mercado.   Para os governos, a IA deve ser usada para combater à corrupção, aperfeiçoar e tornar mais eficiente as rotinas Fiscais e Jurídicas, otimizar as agências reguladoras e atender a população com rapidez.  Um dos  mais renomados futurista, o australiano Brett King, projeta mudanças na economia em decorrência da amplitude da tecnologia de IA . No livro "Bank 2.0: How Customer Behavior and Technology Will Change the Future of Financial Services" (Banco 2.0: como o comportamento do cliente e a tecnologia mudarão o futuro dos serviços financeiros), com três edições  em 2010,2014 e 2018. Entre outras previsões do impacto da IA no sistema financeiro, afirma que os assistentes de voz terão o papel de consultores financeiros e  " um quase confidente", com quem as pessoas irão compartilhar seus sonhos e apontar a melhor oferta na compra de um imóvel, carro etc. King também  aponta como  serão as instituições bancárias totalmente digitais. Para o autor australiano, em 2030 existirá um ecossistema híbrido que incluirá gigantes tecnológicos, que estarão ligados por bancos e serão apenas os produtores e a inteligência por trás de determinados serviços disponibilizados por outros fornecedores. Mas as pessoas já não irão ao balcão, à marca, ao site ou ao app do banco para obterem esses serviços, que estarão disponíveis em um ecossistema híbrido, incluindo fintechs e bancos tradicionais.  Depois do sistema bancário, King trata agora de analisar a crise climática em outra obra: "The Rise of Technosocialism: How Inequality, AI and Climate will Usher in a New World" (A ascensão do tecnossocialismo: Como Desigualdade, IA e Clima vão Moldar um Novo Mundo). Nesse livro também aborda as perspectivas futuras dos bancos centrais, que na sua opinião precisarão se tornar companhia de tecnologia para realizar a regulação com eficiência em um mundo digital. Na visão de King, a rejeição parcial à inteligência artificial pode se dar ainda pelo medo da criação de  um novo feudalismo ou  tecnossocialismo . Para ele não se trata de um socialismo clássico, como conceituado por Marx, pelo qual os meios de produção são dominados pelos trabalhadores, mas é o domínio da economia pela tecnologia, que estará ao alcance dos cidadãos, que terão suas necessidades atendidas. Nesse cenário, o capitalismo, os mercados e as corporações terão novo papel em um novo mundo. No mesmo livro, King alerta para o caos que as crises climáticas podem desencadear no mundo, como desemprego, fome, catástrofes ambientais e deslocamento das populações.  Para resolver esses problemas futuros, o escritor aposta no uso da inteligência artificial  por parte dos governos para encontrar soluções mitigadoras para a crise climática. King ressalta, ainda, que o uso da inteligência artificial pode acentuar as desigualdades entre as populações, pois com o uso da IA, à medida que cresce a demanda, haverá mais processos do sistema de produção autônomo. O nível de trabalho  na economia vem se  reduzindo e isso está acontecendo desde os anos 1980 , mas deve se acentuar , ainda mais,  em nível planetário. Por este motivo há uma alternativa racional como meio de barrar o tecnosocialismo, é a proposta do capitalismo humanista desenvolvido pelo Professor Ricardo Sayeg e Wagner Balera4. Com base em um direito natural integrado à norma jurídica, buscando criar uma economia humanista, "no qual os direitos humanos em todas as suas dimensões são reconhecidos e concretizados, em correspondência ao direito objetivo da dignidade da pessoa humana e planetária." Ainda os autores do Capitalismos Humanista apontam "que as profundas mazelas do capitalismo - como a exclusão de seres humanos e o esgotamento do planeta - só serão ultrapassados com a preservação da dignidade da pessoa humana, metassíntese da economia, da política e do direito, que, unidos e com sincronismo, devem implicar a sociedade fraterna". (Sayeg, Ricardo e Balera, Wagner. P.30)5 Em outubro de 2020, em plena pandemia do Covid-19 o então prefeito da Cidade São Paulo, Bruno Covas sancionou a Lei 17.481/20 que instituiu a declaração de direitos de liberdade econômica, garantindo livre mercado e a análise de impacto regulatório6. Foi criado então o índice de bem-estar econômico denominado ICapH, desenvolvido pelo Instituto do Capitalismo Humanista com a participação pelos professores Ricardo Sayeg (HSLAW) e Wagner Balera, o jurista e advogado Yun Ki Lee, em conjunto com o professor Manuel Enriquez Garcia da FEA/USP7, passando a ser considerado de utilidade pública como instrumento orientador de política pública no Município de São Paulo. Segundo o Instituto do Capitalismo Humanista, o índice ICaph tem como seu principal aspecto a satisfação da população, fator sem dúvida nenhuma que pode trazer benefícios contra a possíveis desigualdades que podem ser criadas devido aos avanços da tecnologia: "sob estas premissas, o Índice do Capitalismo Humanista (iCapH), correspondente ao índice de (in)satisfação popular de avaliação qualitativa, ou seja, do "maior ou menor grau de perfeição"  na concretização da economia capitalista associada ao bem-estar econômico, fundado percepção cognitiva e imagem da economia perante a população, no tocante à concretização da força resultante do conjunto destes doze (12) fatores econômicos e humanistas da ordem constitucional econômica consagradas no Artigo 170, da Constituição Federal.  Utilizando os doze (12) fatores da ordem econômica constitucional, no ambiente capitalista literalmente estabelecido na Carta Política brasileira, o iCapH está baseado nos critérios constitucionais, que são objetivos e seguros, quais seja, aqueles fixados pela soberania popular que os constituintes expressaram no pacto social nos termos do Artigo 170, da Constituição Federal."8 Estamos diante de uma das maiores ameaças contra a humanidade, se colocadas em mãos erradas ou que se tornem realidade as palavras de Brett, a humanidade pode ver o seu fim, o físico Stephen Hawking afirmou em entrevista que se os cientistas conseguirem atingir a criação de uma IA com equivalência à mente humana ou superior será o fim da raça humana9. Segundo ele, estamos limitados à evolução biológica, porém, por enquanto, as soluções envolvendo a IA são consideradas fracas e, enquanto isso, a conscientização e o debate para a criação de diretrizes e normas que determinem até onde se pode chegar serão fundamentais, a proposta do Capitalismo Humanista, porém, vai além, é uma proposta estrutural, centrada na dignidade do ser humano, um capitalismo transformador e necessário frente à evolução. __________ 1 Alexander Meireles da Silva é Doutor em Literatura Comparada pela Universidade Federal do Rio de Janeiro (2008), Mestre em Literaturas de Língua Inglesa pela Universidade do Estado do Rio de Janeiro (2003), Especialista em Educação a Distância pelo SENAI-RJ (2003), Especialista em Literaturas de Língua Inglesa (2000), Bacharel e Licenciado em Língua Inglesa e Literaturas Correspondentes (1998) pela Universidade do Estado do Rio de Janeiro. 2 FRANÇA, Júlio. "Medo". In: REIS, Carlos; ROAS, David; FURTADO, Filipe; GARCÍA, Flavio; FRANÇA, Júlio (Editores). Dicionário Digital do Insólito Ficcional (e-DDIF). Rio de Janeiro: Dialogarts. Acessado em 14/08/2022. 3 Ibidem. 4 Sayeg, Ricardo. Balera, Wagner. (Livro digital). O Capitalismo Humanista. Filosofia Humanista de direito econômico. KBR Editora Digital LTDA. 2011. 5 Ibidem. 6 Disponível aqui. 7 ibidem 8 Disponível aqui. 9 Disponível aqui.
A temática da inteligência artificial está intimamente relacionada com a proteção de dados no âmbito do que se denomina de "big data", já que grande parte das aplicações de IA utilizam-se de banco de dados. Como bem é apontado no livro "The rise of big data policing: surveillance, race, and the future of law enforcement"1 a governança de algoritmos deveria se pautar em algumas questões essenciais, de modo a se evitar o determinismo tecnológico, tais como: é possível identificar os riscos que a tecnologia escolhida está tentando endereçar? É possível defender os inputs do sistema (acurácia dos dados e idoneidade da metodologia)? É possível defender os outputs do sistema e como eles impactarão as políticas em prática e as relações comunitárias? É possível testar a tecnologia, oferecendo "accountability" e alguma medida de transparência? A política de uso da tecnologia respeita a autonomia das pessoas que elas irão impactar? Envolvendo tal questão foi proferida uma decisão judicial de 02/2020 pela Corte de primeira instância de Haia, acerca do sistema denominado de SyRI na Holanda (Systeem Risico Indicatie), com o objetivo de detecção de fraudes tais como sonegação e recebimento indevido de benefícios de seguridade social, a partir da construção de perfis de risco de suspeitos, por meio da utilização de base dados comportamentais registrados em diversos sistemas governamentais. Entendeu-se que o sistema não estabelecia as salvaguardas exigidas pela Convenção Europeia de Direitos Humanos (art. 8º, § 2º), no tocante à ponderação entre os interesses sociais e os potenciais danos quanto às liberdades e direitos fundamentais. Mais do que nunca é urgente que as temáticas do direito digital em sentido amplo se atentem às contribuições do Constitucionalismo Digital ("digital constitucionalism"), como apontam autores como Giovanni di Gregorio da Bocconi University, Gilmar Mendes, Edoardo Celeste, Claudia Padovani e Mauro Santaniello, frisando a necessidade de se postular pelo uso das estruturas e mecanismos do constitucionalismo moderno para guiar a governança do espaço digital, a fim de ser assegurado um maior equilíbrio das relações jurídicas e a proteção dos direitos fundamentais. Neste sentido Gunther Teubner2 traz uma importante contribuição ao mencionar a formulação tradicional da abordagem de direitos fundamentais sob uma perspectiva individualista de equilíbrio entre direitos individuais dos atores privados na esfera digital, a qual encontra-se desatualizada, não sendo mais suficiente, devendo ser abordada a dimensão coletivo-institucional dos direitos fundamentais. Isto porque as redes sociais, a exemplo do Facebook com seu Oversight Board ou "Suprema Corte do Facebook" estaria a exercer uma verdadeira função normativa. Wolfgang Hoffmann-Riem aponta para a importância no âmbito da inteligência artificial dos direitos fundamentais e da proporcionalidade para se compatibilizar a proteção e de outro lado não impedir a inovação, sugerindo a proposta de "responsabilidade pela inovação", ou "innovation forcing"3. Trata-se da definição normativa de objetivos ou padrões que ainda não podem ser cumpridos sob o padrão de desenvolvimento atual, mas que são plausíveis de serem cumpridos no futuro. Caso não haja tal implementação dentro de determinado período o desenvolvimento e uso da aplicação de IA em questão devem ser abandonados. É o que destaca também Laura Mendes em sua apresentação ao livro: "o professor Hoffmann-Riem nos ensina que a preocupação com a preservação e atualização dos direitos fundamentais deve ser constante, enxergando o Direito como um instrumento de limitação de poderes e de regulação da inovação, de acordo com os objetivos e os valores firmados no ordenamento jurídico, especialmente, os princípios constitucionais".4 É destacada a importância da transparência para a responsabilização, permitindo-se um controle externo eficaz, fundamentais para uma corresponsabilidade democrática. Nas palavras de Wolfgang Hoffmann-Riem: É importante tanto para os usuários como para as autoridades de controle e para o público em geral, enquanto portadores de corresponsabilidade democrática, que o tratamento de dados, incluindo a sua utilização no contexto da análise de Big Data, seja compreensível e controlável na medida em que interesses jurídicos individuais ou coletivos possam ser negativamente afetados. Os requisitos de transparência referem-se não só à possibilidade de perceber a superfície da comunicação, mas também ao conhecimento dos fenômenos que são importantes para compreender o funcionamento do controle baseado em algoritmos. Isso se aplica, por exemplo, ao design técnico e aos critérios e conceitos do uso de algoritmos. A transparência é um pré-requisito para garantir, em particular, a responsabilização. (...) A eliminação dos déficits de transparência pressupõe requisitos legais que garantam a disponibilidade de informação suficiente sobre o campo regulatório a ser influenciado, não apenas sobre os dados na posse de atores públicos ou privados, mas também sobre a forma como eles são gerados e utilizados e a medida em que cumprem os requisitos legais.5 O constitucionalismo digital possuiria uma natureza pré ou proto-constitucional por se referir a reações normativas difusas e que não se limitam ao âmbito do Estado-Nação, com foco na proteção dos direitos digitais, a limitação do exercício do poder em e através das obras da rede digital e à formalização dos princípios de governança para a Internet. Embora, algumas legislações formais sobre a internet se situem em um plano infraconstitucional, apresentam uma verdadeira natureza "pré" ou "proto-constitucional", uma vez que estabelecem verdadeiros blocos de interpretação das constituições formais na esfera digital. Seria algo como o constitucionalismo "societal" (social ou societário) de Sciulli, o qual adota e desenvolve Teubner. Por sua vez na área de IA fala-se em abordagem via risquificação, por meio de regulações que possuam uma parte principiológica e outra parte prevendo documentos importantes e que devem ser obrigatórios nos casos de elevados riscos ou moderados a direitos fundamentais, devendo prever igualmente seus requisitos e procedimento de elaboração. A heterorregulação, portanto, deverá ser complementada pela autorregulação regulada, por meio de boas práticas, "compliance", e via arquitetura técnica e design de IA. Um outro aspecto essencial é a conjugação da abordagem com base no risco (proteção) mas também em escala, visando não obstar a inovação. Diversos autores defendem a perspectiva da risquificação tais como Serge Gutwirth & Yves Poullet, Claudia Quelle e Alessandro Spina, Zanatta, com destaque dos instrumentos de regulação "ex ante", como códigos de conduta, certificações, auditorias independentes, e a elaboração de documentos de avaliação tais como DPIA - Relatório de Impacto de proteção de dados e LIA - Avaliação do Legítimo interesse e a Avaliação de algoritmos de IA. Refletem tal mudança de abordagem alguns importantes documentos regulatórios publicados pela Comissão Europeia como, por exemplo, a Resolução do Parlamento Europeu de 20/10/2020 e as Recomendações à Comissão Europeia sobre o regime de responsabilidade civil aplicável à IA de 2020 (2020/2014 INL) como se observa dos Considerandos 6 e 7 afirmando que não é mais necessário se conferir personalidade jurídica as aplicações de IA. No mesmo sentido o documento denominado "White paper on IA" publicado pela Comissão Europeia em 19/02/2020. Referido documento traz uma separação, para fins regulatórios entre IA de alto risco, de risco moderado e baixo. No caso de risco alto há uma série de condições-chave que deverão ser observadas (robustez, precisão e supervisão humana e garantia dos direitos fundamentais). No caso de risco baixo há a observância de regras padrão, de adesão voluntária ("voluntary labelling"), uma espécie de certificação e rotulagem voluntária, ou  selo de qualidade. Um dos mais importantes documentos da Comissão Europeia na linha da abordagem via risquificação, é o AI Act de 21/04/2021 da IA (Regulamento da IA) trazendo também a perspectiva do "human rights by design", "beneficial AI", "AI for good" e "HumanCentered AI". Referida regulação traz a separação entre aplicações de riscos inaceitáveis, com proibição expressa, risco alto, moderado e baixo. Uma das aplicações consideradas como de risco inaceitável é a tecnologia de vigilância do reconhecimento facial, com exceção da utilização por órgãos governamentais para a prática de investigação de crimes graves. O AI ACT - 04.2021: segue a ótica já traçada quando do GDPR -  Regulamento Geral de Proteção de Dados da União Europeia, das Recomendações do Parlamento Europeu à Comissão sobre disposições de Direito Civil sobre Robótica de 02/2017, da Estratégia Europeia para a IA de 04/2018 -"IA para a Europa" (COM/2018/237) buscando de um lado a proteção aos direitos fundamentais, e de outro não obstar a inovação. As abordagens devem ser conjuntas a fim de alcançarmos uma proteção sistêmica, via heterorregulação (com abordagem via risquificação), via arquitetura técnica (protection by design), mas trazendo também em consideração a coletivização, ou seja, a partir do reconhecimento da múltipla dimensionalidade dos direitos fundamentais, envolvendo aspectos individuais, coletivos e sociais. E como afirma Claudia Quelle, Univ. Tilburg as metodologias no caso de abordagens de risco serão influenciadas pela teoria do balanceamento de direitos fundamentais, diante de casos concretos. Neste sentido por exemplo, o European Data Protection Board (EDPB) ao comentar sobre os critérios de avaliação do risco para a elaboração do DPIA, na linha do GDPR (Consideranda 84 e art. 35), afirma a necessidade de se observar um procedimento envolvendo a avaliação da necessidade e da proporcionalidade. Isto porque estamos sempre falando de casos de possíveis colisões de normas de direitos fundamentais. Um segundo ponto fundamental da abordagem de proteção sistêmica refere-se à revisão de alguns documentos internacionais, no que tange à abordagem de proteção aos direitos fundamentais, senão vejamos. Ao observamos o AI Act de 21/04/2021 da Comissão Europeia, apesar de trazer a consideração do "human rights by design", "beneficial AI", "AI for good" e "Human Centered AI", ou seja, de uma abordagem "centrada no ser humano", trazendo o eixo valorativo da pessoa humana e da dignidade humana, encontra algumas falhas e omissões.  Apesar de uma abordagem via risquificação, procurando não impedir a competição internacional e a inovação, com uma lista de aplicações de IA de risco inaceitável, com proibição expressa, por afrontarem os valores da União Europeia, verifica-se que o uso de tecnologias de vigilância (sistemas de identificação biométrica à distância, em tempo real, e em espaços acessíveis ao público), apesar de proibida, traz algumas exceções, tal como no caso de investigação de crimes graves. As exceções são exaustivas e se fundam em motivos de interesse pu´blico abrangendo: procura de potenciais vi´timas de crimes, incluindo crianc¸as desaparecidas, ameac¸as a` vida ou a` seguranc¸a fi´sica de pessoas singulares ou ameac¸as de ataque terrorista, e a detecc¸a~o, localizac¸a~o, identificac¸a~o ou instaurac¸a~o de ac¸o~es penais relativamente a infratores ou suspeitos de infrac¸o~es penais, a que se refere a Decisa~o-Quadro 2002/584/JAI do Conselho, desde que puni´veis no Estado-Membro em causa com pena ou medida de seguranc¸a privativas de liberdade de durac¸a~o ma´xima na~o inferior a tre^s anos. Entre os crimes previstos no Quadro 2002 podem ser citados a participac¸a~o numa organizac¸a~o criminosa, terrorismo e o tra´fico de seres humanos.6  Apesar das aplicações de elevado risco submetem-se à observância de regras e obrigações rígidas, com destaque para os requisitos referentes a` elevada qualidade dos dados, a` documentac¸a~o e a` rastreabilidade, a` transpare^ncia, a` supervisa~o humana, a` exatida~o e a` solidez, há também a previsão da elaboração de uma avaliac¸a~o da conformidade "ex ante". A fragilidade do documento é refletida quando afirma que em regra tal avaliação será realizada pelo próprio fornecedor, salvo no caso dos sistemas de IA concebidos para serem utilizados para a identificac¸a~o biome´trica a` dista^ncia de pessoas. A própria exceção prevê a fragilidade de tal concepção, pois no caso único da exceção demandaria como exigência a participac¸a~o de um organismo notificado, o qual deverá estar submetido a uma se´rie de requisitos, nomeadamente em termos de independe^ncia, compete^ncia e ause^ncia de conflitos de interesse.  É o que assevera o Ada Love Lace Institute ao afirmar ser fundamental o respeito a um dos componentes constitutivos de uma avaliação de impacto, e necessário para inclusão em qualquer dessas avaliações de impacto em IA, qual seja, a necessidade de uma "fonte de legitimidade", isto é, que tais avaliações sejam realizadas por outra estrutura organizacional, institucional, tal como uma agência governamental, destacando que a maioria dos processos AIA são controlados e determinados pelos que tomam as decisões do processo algorítmico, podendo gerar documentos de avaliação também enviesados ("Algorithmic impact assessment: user guide"). Portanto, além de uma mudança de abordagem no design tecnológico, pensando-se a longo prazo, de forma sustentável, talvez na forma de um "design subversivo" ao invés do design dominante no sentido de um projeto colonizador,  também a regulamentação deverá rever estes pontos de fragilidade, trazendo o foco na proteção sistêmica e neste sentido é necessária uma reformulação do que se tem tratado como proteção de direitos fundamentais no âmbito da proteção de dados e da inteligência artificial, por ignorarem em muitos casos a construção epistemológica e metodológica da teoria dos direitos fundamentais enquanto teoria fundamental do direito, trazendo equívocos no que tange à natureza dos direitos fundamentais, e a correta resolução de colisão de normas de direitos fundamentais, via princípio da proporcionalidade, adequadamente entendido, o que ainda precisa ser melhor compreendido. __________ 1 Andrew Guthrie Ferguson, "The rise of big data policing: surveillance, race, and the future of law enforcement". Nova Iorque: New York University Press, 2017. 2 Gunther Teubner. "Horizontal Effects of Constitutional Rights in the Internet: a legal case on the digital constitution". Italian Law Journal, v. 3, n. 2, p. 485-510. 2017. 3 Wolfgang Hoffmann-Riem, "Teoria Geral do Direito Digital", Forense, ed. kindle, pp. 13-14; p. 150 e ss. 4 Laura Mendes, Ibidem, p. 04 e ss. 5 Wolfgang Hoffmann-Riem, "Big data e inteligência artificial: desafios para o direito", 6 Journal of institutional studies 2 (2020), Revista Estudos Institucionais, v. 6, n. 2, p. 431-506, maio/ago. 2020, p. 44. 6 Outros crimes citados são  explorac¸a~o sexual de crianc¸as e pedopornografia, tra´fico ili´cito de estupefacientes e de substa^ncias psicotro´picas, tra´fico ili´cito de armas, munic¸o~es e explosivos, corrupc¸a~o, fraude, incluindo a fraude lesiva dos interesses financeiros das Comunidades Europeias na acepc¸a~o da convenc¸a~o de 26 de Julho de 1995, relativa a` protecc¸a~o dos interesses financeiros das Comunidades Europeias, lavagem de dinheiro (branqueamento dos produtos do crime), falsificac¸a~o de moeda, incluindo a contrafacc¸a~o do euro, cibercriminalidade, crimes contra o ambiente, incluindo o tra´fico ili´cito de espe´cies animais ameac¸adas e de espe´cies e esse^ncias vege- tais ameac¸adas, auxi´lio a` entrada e a` permane^ncia irregulares, homici´dio volunta´rio, ofensas corporais graves, tra´fico ili´cito de o´rga~os e de tecidos humanos, rapto, sequestro e tomada de refe´ns,  racismo e xenofobia,  roubo organizado ou a` ma~o armada,  tra´fico de bens culturais incluindo antiguidades e obras de arte, burla, extorsa~o de protecc¸a~o e extorsa~o, contrafacc¸a~o e piratagem de produtos, falsificac¸a~o de documentos administrativos e respectivo tra´fico, falsificac¸a~o de meios de pagamento, tra´fico ili´cito de substa^ncias hormonais e outros factores de crescimento, tra´fico ili´cito de materiais nucleares e radioactivos, tra´fico de vei´culos roubados, violac¸a~o, fogo-posto, crimes abrangidos pela jurisdic¸a~o do Tribunal Penal Internacional, desvio de avia~o ou navio, sabotagem.
terça-feira, 19 de julho de 2022

Antifragilidade e os desafios da IA

Qual a relação entre a teoria  da antifragilidade de Nassim Taleb e a Inteligência Artificial? Taleb é um polêmico ensaista, filósofo e matemático, que entende a volatilidade do mercado financeiro como ninguém, porque atuou nele por décadas, com sucesso. É criador do best seller "Cisne Negro", que criou um conceito ligado a um fenômeno raro, imprevisível e com consequências extremas, caso da covid-19 e do 11 de setembro. Também criou um conceito que estende a ideia de resilência corporativa - a antifragilidade. O conceito de antifragilidade¹ vem destronar o conceito arraigado de resiliência do mundo corporativo. Da Física às Ciências Humanas, o conceito da resiliência veio evoluindo para explicar como as pessoas e as organizações conseguem superar situações adversas, de intenso estresse e imprevisibilidade. Para ser resiliente é preciso saber resistir, superar e até vencer situações adversas, como crises climáticas, crimes cibernéticos, ameaças pandêmicas, falha em cadeias de suprimentos e outras. A antifragilidade estende o conceito de resiliência discutindo como as organizações e pessoas podem usar situações adversas, aprender com elas e se recuperarem melhores do que estavam antes. Etimologicamente, a palavra resiliência vem do latim "resilio", que significa recuar, voltar, romper. Inicialmente, foi empregada como um fenômeno da física, que se referia à propriedade de alguns materiais de voltar à forma original, mesmo depois de terem sido submetidos à tensão e à pressão, demonstrando resiliência ou processo de resiliência. Guarda, portanto, a ideia de qualidades como flexibilidade, elasticidade etc. Ao ser um conceito incorporado pelas ciências humanas, a resiliência passou a se referir a indivíduos que conseguiam enfrentar adversidades de forma positiva, enfrentando conflitos de forma construtiva e mantendo o equilíbrio. Já Taleb entende que é possível ir além da resiliência pela transformação e disrupção através do caos. . A antifragilidade trata-se de um conceito para transpor a adversidade, a incerteza e a volatilidade das crises para se transmutar em um profissional ou uma empresa melhor. É como tirar lições do fracasso. Daí a proximidade com a IA - Inteligência Artificial, que nada tem de linear. O processo da machine learning tem grande proximidade como a teoria da antifragilidade porque se abre para inúmeras soluções possíveis. É o caso de se colocar uma máquina contra outra para executar determinado procedimento, na busca de um objetivo.   A etmologia da palavra "frágil" deriva da palavra latina fragilis,  significando pouca resistência, delicadez, sem solidez. Taleb explica como construiu o conceito: "Algumas coisas se beneficiam de choques; prosperam e crescem quando expostos à volatilidade, aleatoriedade, desordem e estressores e aventura amorosa, risco e incerteza. Ainda, apesar da onipresença do fenômeno, não há palavra para o exato oposto de frágil. Vamos chamá-lo de antifrágil. A antifragilidade está além da resiliência ou robustez. O resiliente resiste a choques e continua o mesmo; o antifrágil fica melhor. Esta propriedade está por trás de tudo que mudou com o tempo: evolução, cultura, ideias, revoluções, sistemas políticos, inovação tecnológica, sucesso cultural e econômico, sobrevivência corporativa, boas receitas (digamos, canja de galinha ou bife tártaro com uma gota de conhaque), a ascensão das cidades, culturas, sistemas jurídicos, florestas equatoriais, resistência bacteriana ... até mesmo a nossa existência como espécie neste planeta ". A antifragilidade, segundo Taleb, nos permite lidar com o desconhecido e é cheia de interdependências. Por exemplo, se o número de funcionários de uma determinada fábrica for dobrado, não se obterá o dobro da produção inicial e dois finais de semana na Filadelfia não são melhores do que um único. "Sistemas complexos feitos pelo homem tendem a desenvolver cascatas e cadeias de reações descontroladas que diminuem, até mesmo eliminam, a previsibilidade e causam eventos desproporcionais", explica em sua obra. As respostas que diversas organizações dão em momentos de crise, como a causada pela covid-19, mitigando efeitos negativos e possibilitando a retomada das atividades de forma melhor ao que se tinha antes da crise, denota a antifragilidade de uma organização, ou seja, sua capacidade de se reinventar a despeito de eventos adversos, minimizando impactos inesperados, aprendendo e voltando a operar mais fortes do que antes. "A antifragilidade está além da resiliência ou da robustez. O resiliente resiste aos choques e permanece o mesmo; o antifrágil melhora", ensina Taleb. O conceito é similar ao processo pelo qual passa a estrutura muscular de uma pessoa iniciante na atividade física da musculação. No seu primeiro dia, ela consegue levantar determinado peso, pois seus músculos não estão acostumados, nem com os movimentos, nem com a carga. Ao longo do segundo e terceiro dias, essa pessoa sente muitas dores como consequência do rompimento das fibras musculares ocasionadas pelo exercício. Nesse processo, os músculos se recuperarão fortalecendo sua estrutura para que os mesmos movimentos e cargas não mais ocasionem rompimento de suas fibras. Dessa forma, se essa pessoa estimula frequentemente seus músculos, fornece os nutrientes adequados na janela de tempo correta, dorme bem e tem uma boa saúde, os músculos se recuperam fortalecendo sua estrutura.  O conceito de antifragilidade se aplica à IA enquanto estivermos tratando da tecnologia do aprendizado autorregulado da máquina, sem interferência do fator humano, que poderia intervir nos dados/algoritmos iniciais e gerar falhas na saída. É um sistema próximo à teoria do caos, criada por Edward Lorenz, no qual temos flexibilidade, adaptação, transformação, disrupção e antifragilidade.  Por exemplo, uma empresa de serviços de streaming muito popular no país usa o conceito de chaos monkey para identificar vulnerabilidades e melhoras seus sistemas operacionais. Basicamente, estressa propositalmente seu sistema, verifica onde há pontos fracos e implementa medidas para fortalecer o sistema como um todo. Nesse sentido, os mecanismos de inteligência artificial tem sido usados para continuamente expor fragilidades de sistemas para melhorá-los através do aprendizado gerado pelo caos (ver Canonico et al., 2020). ______ 1 TALEB, Nassim N. Antifragile: Things That Gain from Disorder. New York: Random House, 2012.  2 Fernando Picasso é doutor em administração de empresas pela FGV, professor em gestão da cadeia de suprimentos no Insper, pesquisador nas áreas de risco e resiliência em cadeias de suprimentos e sustentabilidade em cadeias de suprimentos e consultor em gestão da cadeia de suprimentos.
Com as novas tecnologias digitais o presente vira um eterno agora, subtraindo o passado e antecipando o futuro, os rituais e a sua função de coesão social e memorização de valores e culturas se apagam no tempo do eterno retorno do agora, onde tudo que importa é o consumo imediato de mais e mais informação, um signo amorfo, informe e ágil (inform-e-ação), deslocando-se do mundo da vida, e da fundamentação em algum sentido outro para o viver além da superfície linear e da utilização instrumental e técnica. Mais e mais informação, sem um conhecimento e cognição correspondentes que impliquem em questionar o porquê e para quê, sem nos ajudar a um melhor viver e morrer, girando em um vazio existencial, perpetuador da náusea, angústia, de que já falava Sartre. Ao invés do "amor fati", compreendendo a vida e a si mesmo no que se tem de bom e de ruim, mas claro sempre tentando alcançar um ideal maior a nos iluminar, superando-se a infância dos povos de que falava Nietzsche, somos convocados verazmente as mídias sociais e ao metaverso, e a beleza e juventude eterna, onde teríamos a morte perfeita, a morte da morte, apostando ainda em um progresso aliado à pura tecnologia, a qual aliada ao capital, rotaciona ainda com mais velocidade o círculo vicioso de exclusão social e iniquidade, como se a própria tecnologia nos pudesse ensinar a nos tornarmos humanos ou pessoas melhores. A pós-modernidade, com suas razões de forma aperfeiçoadas em uma instância técnico-científica, seguem a linha da modernidade, na sua maior parte, no culto do positivismo e do formalismo cegos, onde a razão entrega-se ao irracional e o método científico converte-se em um fim em si mesmo, como já denunciara a Escola de Frankfurt, e em especial Max Horkheimer e Adorno, separando a razão instrumental e a razão crítica. O método científico, o positivismo, com seu vínculo e culto ao formalismo, utilizando-se do modelo das ciências naturais empíricas e matemáticas, e ao entender as leis da natureza como inexoráveis, e determináveis com um rigor geométrico, e posteriormente apostando no estudo da política e da ética também com base nestes mesmos critérios, como um sistema de causalidades racionais, com rigorosa exatidão ao se pautar por leis da natureza imutáveis, se fundamenta em um ideal irrealizável na prática. Assim, postula-se pela neutralidade e objetividade, em uma supervalorização do racional, do sujeito do conhecimento como instância última e única da verdade e como meio de domínio da natureza, ensejando ainda mais individualismo, antropocentrismo, eurocentrismo e outros ismos, e a perigosa alienação na técnica de que falava Husserl, quando a razão vira puro cálculo e o saber que importa é o produzido maquinalmente, e com vistas ao mercado. Contudo, a própria ciência não mais corresponde aos ideais da mecânica clássica de Isaac Newton, já que desde o início do século XX a teoria da relatividade de Einstein, a física quântica de Max Planck e o princípio da incerteza de Heisemberg quebraram as certezas até então tidas como dogmas irrefutáveis, em uma mentalidade mecanicista, desdogmatizando-se certezas, entre elas, a separação radical entre sujeito e objeto do conhecimento, já que a observação do observador influir no resultado observado, ou seja, o objeto se torna tal a partir do olhar do sujeito, sendo insuficiente apenas o conceituar como representação imprópria da coisa, ao contrário da intuição onde teríamos uma representação própria. Neste sentido também as contribuições de Husserl e a fenomenologia, ao afirmar que não já uma relação pura entre sujeito e objeto, pois é uma relação sempre intencional, reconhecendo-se também o ser humano como um ser de relação, abrindo-se as mônadas e saindo do estado de solipcismo, abrindo-se para o nós. Ao se propor a total separação da política, do direito, da ética e da religião, tendo como precursores Maquiavel e de certa forma o formalismo e individualismo já presente anteriormente em Okcham, um dos iniciadores da via moderna, ao lado de João Scotus, no sentido de busca da neutralidade e objetividade próprias do pensamento científico e positivista, evita-se o sincretismo metodológico em prol da certeza e objetividade, bem como questionamentos e a crítica, reduzindo-se as oportunidades de mudanças do status quo. Contudo, a própria matemática, que embasa tais conhecimentos, revela-se fragmentada, como aliás todo o pensamento fruto desta concepção não universalista, mas especializante da ciência moderna, trabalhando com o mundo ideal, não podendo em sua razão crescente de abstração, esquecer-se do movimento de retorno ao problema concreto, momento necessário da síntese. Há que se ter presente, pois, o divórcio existente entre cálculo e conhecimento, já que a matemática produz uma operação reiterada de signos de signos, apartando-se das evidências sensíveis, em uma crescente abstração e idealização, e sua correspondente pretensão de verdade absoluta, sem sequer assumir tais características e a presença sempre de ideologias por trás de todo ser humano produtor de qualquer tipo de conhecimento que seja. Outrossim, a teoria dos conjuntos formulada para resolver problemas da falta de fundamentação lógica da teoria das funções e do cálculo infinitesimal acaba por se revelar insuficiente, por apresentar resultados paradoxais, antinomias e contradições, apesar de se observar um procedimento lógica e matematicamente correto. Ou seja, como bem demonstraram os teoremas da incompletude de Kurt Gödel, concluindo que a falta de contradição não pode ser provada para a matemática como um todo, e que não se poderia demonstrar por seus próprios meios a falta de contradição do sistema axiomático, demandando o emprego de meios validados fora do sistema (GUERRA FILHO, Willis Santiago. Filosofia: uma introdução", Petrópolis: Editora Daimon, 2009). Portanto, além da própria Filosofia em certo momento desvincular-se da necessidade da busca da verdade como fim último, mesmo porque esta se daria sempre de forma relativa, além do seu caráter de aporia, próprio da filosofia, que não se diferencia dos mitos pela obrigatoriedade de formulação de um pensamento com base na razão, sem desvios, sem contradições. Agora vemos a necessidade também da matemática, e das ciências que se baseiam em tal conhecimento, aceitarem as contradições a antinomias, próprias de um discurso auto-referencial, como expos George Spencer-Brown, abandonando paradigmas já superados como o da separação entre sujeito e objeto do conhecimento, substituindo tal separação por uma unidade, ao invés de "ou", "e". Daí ao se considerar a importância de teorias trans-clássicas com foco na abordagem holística e não reducionista, típica das ciências modernas, como a cibernética, a semiótica, a teoria geral de sistemas, as teorias gerais da informação e da comunicação, e a cibernética de segunda ordem, tal como proposta por H. Von Foerster, ao descrever sistemas cibernéticos dotados de IA que se autorregulam. Ou seja, na base do conhecimento acerca da Inteligência artificial teríamos uma disciplina trans clássica, pós-moderna, fugindo-se do antropocentrismo e olhando para a diferença e o outro. Em sentido complementar tem-se por superada a compreensão de uma abordagem do Direito e da Filosofia apenas compreendendo as contribuições da sociedade ocidental, e uma perspectiva eurocêntrica, como ao se afirmar por exemplo, que no Oriente não se teria uma filosofia própria sendo esta apenas ocidental, já que a cientificidade necessária estaria atrelada a ideia de uma teoria inclusiva, que demandaria a análise e consideração de um maior número possível de abordagens e perspectivas, de forma democrática. Assim, os direitos humanos, por exemplo, não podem mais ser vistos sob uma única ótica, universalista, como sempre os mesmos para todo o gênero humano, em uma perspectiva etnocêntrica, ocidental, mas levando-se em consideração as diversas culturas e gêneros, havendo diversas concepções portanto, de direitos humanos, já que há uma diversidade cultural e social (comunitaristas e multiculturalistas). Em sentido complementar, os direitos fundamentais, no plano interno voltam-se também para uma natureza multidimensional, reconhecendo-se seu aspecto individual, coletivo e social, característica que fica clara ao pensamos em um vazamento de dados como equivalente de um vazamento de petróleo no oceano, causando danos muito além de individuais, já que relacionado à cidadania e à igualdade material dos tutelados. Daí se falar em poluição de dados (BEN-SHAHAR, Omri. Data Pollution, p. 133 e ss.), espécie de "direito ambiental da proteção de dados pessoais". Os danos são considerados coletivos, pois todo o ecossistema de dados é afetado pelas ações poluentes. Em sentido complementar Gunther Teubner, traz a advertência de que não basta uma perspectiva individualista na esfera digital, devendo ser buscada sua dimensão coletivo-institucional (TEUBNER, Gunther. 2017, p. 485-510). Como bem apontam alguns estudos na área de proteção de dados e de inteligência artificial, que analisaram conjuntos de propostas de codificações éticas para tais campos do saber, haveria uma ausência de propostas não eurocêntricas, bem como contradições e não compatibilidade quanto ao conceito de justiça, por exemplo, ou de dignidade humana. Em sentido complementar expõe Lucia Santaella ao afirmar a necessidade de ser reconhecida a atualidade do pensamento de Foucault, para se pensar os novos desafios e oportunidades da utilização das novas tecnologias digitais, em especial da IA, na interface com as humanidades, já que ele é um "divisor de águas" em relação ao estudo do sujeito e das relações de poder que o atravessam (2016, p. 18 e ss.). Propõe Foucault uma dessubjetivação (desantropologização - Favaretto, 2010, p. 5 e ss.), a partir da dissolução nietzschiana do homem, como uma vacina contra o sujeito antropológico e o "sono antropológico", contra o modelo antropocêntrico. A preocupação com a ética na área da inteligência artificial estaria já com seus dias contados, diante da possível ocorre^ncia da "lavagem ética" e da insuficie^ncia dos princi'pios éticos? Ocorreria a lavagem ética quando as empresas acabam desvirtuando a atenção acerca da necessidade também de uma regulação jurídica na área da inteligência artificial, ao afirmarem ser suficiente apenas um código de condutas, o que de certa forma não contribuiria para a resolução dos problemas, já que não há a necessária imparcialidade e coercitividade como no caso da heterroregulação, muitas vezes não passando de uma carta de boas intenções. Diante de tais problemáticas, fala-se no fim da era dos códigos de conduta (Luciano Floridi, "The end of an era: from self-regulation to hard law for the digital industry"). Jess Whittlestone neste sentido aponta para a urgência de se encontrar maneiras de incorporar a ética no desenvolvimento e na aplicação da IA, embora até o momento o catálogo de princípios éticos elaborados por diversos organismos internacionais e empresas tenha se concentrado em princípios gerais, não informando a solução no caso de conflito entre princípios éticos, afirmando a ineficácia dos princípios éticos gerais (TZACHOR, WHITTLESTONE, SUNDARAM, 2020). Corrobora tais assertivas o estudo denominado "Intelige^ncia Artificial com Princípios: Consenso de Mapeamento", elaborado pelo Berkman Klein Center for Internet & Society da Harvard Law School (FJELD et al., 2020), traçando um panorama mundial de princípios éticos da IA, concluindo pela existência de uma grande distância entre teoria e prática na articulação dos conceitos e a sua realização concreta; inexistência de elaboração de princípios orientados para aplicações específicas de IA; divergências quanto a conceitos essenciais como, por exemplo, acerca do que se entende por "justiça" É essencial  em uma regulamentação da inteligência artificial, fundada em uma construção epistemológica, que seja levado em consideração o  conceito de ética digital intercultural, as diversas concepções de dignidade humana e de justiça, olhando-se para as particularidades socioculturais do nosso país, fugindo-se de uma lógica ou viés antropocentrista e eurocêntrico, em atenção, outrossim, às Epistemologia do Sul, considerando-se o sul como categoria epistemológica e não geográfica (Boaventura de Souza Santos). A ética significa em seu sentido grego original "postura", traduzindo em uma postura em relação a` vida, a favor da vida, relaciona-se com a postulação epistemológica em termos de estudo, compreensão e de teoria do direito e da filosofia com fundamento nos valores da "poiesis", e, pois, da poética ( "Teoria Poética do Direito" - Willis S. Guerra Filho, Paola Cantarini), no sentido de abraçar a criatividade, a sensibilidade, a imaginação. Um direito e uma filosofia comprometidos com a alteração da realidade social, com os valores da democracia e da inclusão. Apesar de alguns filósofos apontarem, a exemplo de Heidegger, para o fim da filosofia após Hegel, é essencial a recuperação do pensamento reflexivo, crítico, interdisciplinar, zetético, indo além de um pensamento reprodutivo de uma série de informações, obtidas em escala crescente, pois este não se confunde com compreensão, cognição e reflexão, havendo em certo sentido uma relação antípoda entre informação e comunicação, isto é, quanto mais informação menos comunicação e compreensão, diante da inexistência de tempo e de silêncio para a construção do pensamento próprio e autóctone. É o que observou pioneiramente Vilém Flusser ("Vilém Flusser y la cultura de la imagen. Textos escogidos,«Lengua y realidad», Breno Onetto Muñoz, ed., Valdivia (Chile), Universidad Austral de Chile (UACh), 2016) apontando que as coisas estão desaparecendo dando lugar às informações, bem como Byung-Chul Han ("No- cosas") ao afirmar que estamos em uma fase de transição, da era das coisas para a era das não coisas. Antecipar princípios éticos, que levem em consideração também a diferenca e diversos conceitos de dignidade humana e de justiça, poderá servir para influenciar o design ético da tecnologia, quando valores são designados no design da tecnologia ("ethics by design"). As regulações europeia, canadense e americana já aprovaram princípios para os desenvolvedores de aplicações de IA com vistas ao estabelecimento de "framewoks" de "responsabily-by-design", "privacy-by-design" e "security-by design". Verifica-se, pois que é essencial a construção de um sistema de proteção proativo, abrangente e sistemicamente seguro, uma proteção sistêmica, o que envolveria a proteção desde a concepção tecnológica ("protection by design"), por meio da criação de arquiteturas de decisão adequadas a` proteção com o auxi'lio da concepção e de ferramentas tecnológicas, como forma de se implementar a segurança ("security by design"), falando-se em transparência do design tecnológico (projeto técnico) e dos algoritmos de IA, e não apenas na coleta e tratamento de dados pessoais. É fundamental se estabelecer um framework adequado de check and balances, de ponderação dentro da arquitetura e design tecnológico das aplicações de IA bem como uma avaliação de testagem, voltada a casos concretos, no que se destaca a importância da abordagem "Sandbox approach", como constante do AI Act da Comissão Europeia de 2021, e também prevista, embora de forma genérica e sem maiores especificações no PL 21/20, em seu artigo 7, VII quando cita os ambientes regulatórios experimentais ao lado da análise de impacto regulatório e das autorregulações setoriais. Ao invés de pensamos acerca da essência da técnica objeto de reflexões por parte de Heidegger, em especial ao seu texto de 1949 "A questão da técnica", não em um sentido apenas distópico, como fazendo parte dos dispositivos do biopoder ou do capitalismo de dados, mas, no sentido de refletir acerca da tecnodiversidade e da cosmotécnica, reconhecendo a existência de um pluralismo tecnológico e ontológico, evitando-se a simples oposição dualista entre natureza e técnica, como aponta Yuk Hui, sugerindo que seja repensada a descolonização a partir da perspectiva da tecnopolítica. Tal postulação reconhece e parte da insuficiência de uma visão eurocêntrica e antropocêntrica para se pensar  a relação técnica-humanos, tal como se verifica a exemplo das próprias Declarações Universais dos Direitos Humanos construídas sob uma ótica hegemônica ocidental, não sendo levadas em consideração geralmente as construções das Epistemologias do Sul. Há uma crise quanto aos direitos humanos, como se pode observar do retrocesso que vem ocorrendo em termos de conquista de direitos e preocupações humanitárias. Daí se falar da necessidade de uma nova compreensão e da reinvenção dos Direitos Humanos e pois, da IA, no sentido de integrar a diversidade cultural e as diversas concepções de justiça e de dignidade humana, a exemplo, das noções de "dharma" Hindu, de "umma" islâmica, de "pachamama" ou o "buen vivir" dos povos indi'genas da América Latina, do "ubuntu africano", do "Sumak Kawsay", ou o "Sumak Qamanã", trazendo o respeito aos direitos da natureza, passando do foco dos deveres ao foco aos direitos, e para uma nova concepção de comunidade, a exemplo da Constituição do Equador de 2008, como constitucionalismo transformador, voltada a concepção da tecnologia a favor da vida na Terra de futuras gerações, não apenas, pois "human-centered Ai", mas "planet centered"ou "life-centered", em uma visão cosmoética. Perguntas essenciais que devemos nos fazer por exemplo apontam para reflexões como "será que preciso de IA para determinada aplicação, considerando os riscos associados, alto grau e energia envolvido e custos? Será que seria possível resolver meu problema específico de outra forma? Algum efeito negativo poderia ser de fato mitigado com aplicação da prevenção e instrumentos adequados de compliance? O quanto de eficiência precisaria embutir em tal aplicação, em termos de custos ambientais envolvidos, como níveis de liberação de carbono e agressão ao meio ambiente? Tais propostas refletem e são fundamentadas no respeito à diferença, no respeito pela igualdade na diferença, por meio de um processo político  participativo, na  linha  do  que  se  denomina  de  "constitucionalismo transformador", trazendo a possibilidade de recuperação da cidadania anestesiada ou passiva, transformada em uma cidadania ativa, como exercício de direitos humanos/fundamentais, amplicando-se o acesso das parcelas vulneráveis da população em organismos de checagem de avaliações dentro de organismos independentes que sejam responsáveis por auditorias. Trata-se de uma renovação do pensamento jurídico à luz de uma Teoria (Fundamental) do Direito digital e da inteligência artificial, a fim de se possibilitar um maior respeito aos Direitos Fundamentais/Humanos, voltando-se a uma visão  dinâmica  do  ordenamento  juri'dico,  a  partir  de  uma  consideração  contextualizada,  caso  a  caso, assegurando-se um procedimento isento, de modo a alcançar decisões aptas a equalizar todos os interesses e/ou valores em conflito, trazendo harmonia e uma solução segura e justa, ante as múltiplas possibilidades de solução. Neste sentido a importância do princípio da proporcionalidade e da ponderação no caso de colisões de normas de direitos fundamentais, diante de conflitos nas áreas de proteção de dados e diante de aplicações de inteligência artificial. Tal fase e análise estará obrigatoriamente presente dentro da metodologia de um Relatório de Impacto de Direitos Humanos e Fundamentais de aplicações de IA, assim como se faz presente no Relatório de Impacto de proteção de Dados e na Avaliação do Legítimo Interesse.
terça-feira, 21 de junho de 2022

IA e a rota da seda digital

A inteligência artificial entrou definitivamente para o mundo da política depois que o bilionário e financista George Soros atribuiu à IA e outros novas tecnologias o ônus de viabilizar regimes autoritários e repressivos, constituindo - portanto - uma ameaça efetiva às democracias. No fórum de Davos deste ano, Soros foi bem explícito ao apontar que a IA possibilita a governos autoritários a criação de instrumentos de controle das populações, nunca antes pensados, com a possibilidade do aprendizado das máquinas (machine learn) e que foram colocados em prática e aprimorados durante a pandemia da covid 19. Sem poupar adjetivos, Soros disse com todas as letras que as companhias de tecnologia estão atuando como possíveis facilitadoras do autoritarismo, ao empregar uma sinergia entre projetos corporativos e governamentais. Temos o exemplo de uma das Big techs que está desenvolvendo sistemas de IA com uma universidade militar. Soros, com seu poder de influência, elegeu alguns regimes mais totalitários, com tecnologias de inteligência artificial avançada, como exemplos de riscos para a segurança democrática de todo o planeta. Até que ponto as tecnologias de IA podem controlar os cidadãos? Vimos durante os dois primeiros anos da pandemia da covid-19, que diante da extensão do contágio do vírus e seu alto grau de perigo não se questionou as políticas públicas de controle, nem as tecnologias utilizadas para atingir esse objetivo. Nesse ponto, o mundo mostrou-se dispostos a abrir mão parcialmente dos direitos à privacidade e controle dos dados pessoais para a vigilância propiciada pelas novas tecnologias no sentido de que pudessem ajudar a controlar e combater o novo coronavírus. As tecnologias de inteligência artificial conseguiram desenvolver uma série de atividades fundamentais, além contribuir para o desenvolvimento de vacinas e medicamentos e vigilância proativa de infectados: "Os pesquisadores usam um AI para as tarefas relacionadas ao resultado do paciente, como avaliar a gravidade do covid-19, prever o risco de mortalidade, seus fatores associados e o tempo de internação hospitalar. A IA foi usada para infodemiologia para aumentar a conscientização sobre o uso de água, saneamento e higiene. A técnica de IA mais usada foi uma rede neural convolutiva seguida pela máquina de suporte".¹ A China, citada explicitamente por Soros, utilizou durante a pandemia a plataforma Dingxiangyuan, que recebeu mais de 2,5 bilhões de visitas, que tinha como função propiciar informações sobre a pandemia ao público, mas também empregou plataforma de rastreamento de IA que fazia o gerenciamento do infectados, isolados ou que corriam alto risco.  A população também passou a usar aplicativos de triagem on-line, com informações práticas sobre o que fazer.  A IA pode usar dados de dispositivos inteligência, como celulares, câmeras, relógios, geolocalização etc. Isso possibilitou, por exemplo, que um motorista de táxi chinês positivado para a covid-19 tivesse todos os passageiros rastreados pelo pagamento on-line. De acordo com a política da China, todos os passageiros de trem foram obrigados a registrar um celular pessoal quando compraram passagem para facilitar o rastreamento e possíveis transmissões. O uso de algoritmos sustentados por Inteligência Artificial propicia suporte à governança de dados e mais uma vez traz à tona o desequilíbrio entre Estado e cidadãos. As novas tecnologias estão munindo governos de aparato de controle sobre suas populações nunca vistos, que superam quaisquer sistemas de segurança anteriormente implantados. Quanto mais dados são produzidos, mais a vigilância se amplia e se torna intrusiva. Embora haja críticas, a China está exportando tecnologia de IA para fins de vigilância para mais de 50 países. Na verdade, a China parece estar mais interessada em dominar esse segmento bilionário do mercado de IA, do que com os aspectos políticos do mesmo. Todos sabem que essa avançada tecnologia de vigilância está sendo usada em larga escala internamente, em províncias do Tibete e Xinjiang, para gerenciar populações que possam se rebelar contra o controle político da potência asiática e pode sinalizar o surgimento de algo parecido com uma "era orwelliana", inspirada no livro "1984", onde Orwell consegui prever uma sociedade distópica controlada pelo grande irmão. A China leva vantagem sobre os demais países, porque suas tecnologias podem acessar big datas de mais de um bilhão de pessoas, sem ter de observar o controle de privacidade dos titulares desses dados e isso contribuir para que os algoritmos aprendam mais rápido e cheguem a soluções mais assertivas. É o que vem sendo chamada de "a rota da seda digital", numa clara referência aos investimentos chineses em investimentos em infraestrutura, transporte, energia, tecnologia etc., conectando vários continentes, bem mais ampla que a histórica Rota da Seda, um trajeto de comércio entre Ásia e Europa. Nessa nova Rota da Seda, o governo chinês está construindo em países da Ásia, África e América Latina redes de cidades "seguras" com efetiva vigilância pública com reconhecimento facial, com base em um banco nacional de imagens. Quando chegar a conta, esses países podem - ou não - sofrer pressões para um alinhamento futuro com os chineses, como quer fazer crer Soros. A tese de Soros divide o mundo entre bons e ruins e a tecnologia de IA está além disso, porque pode ser usada por regimes autoritários para controle político doméstico e por governos democráticos, da mesma forma, para gerir ameaças terroristas. Atualmente, os investimentos da maioria dos países têm sido gigantescos nessa tecnologia. Dessa forma, a declaração de Vladimir Putin, o governante russo que começou uma guerra não só contra a Ucrânia - mas contra boa parte do mundo democrático - tem um fundo de verdade:  quem for o líder da tecnologia de IA governará o mundo. Um sistema de IA pode ajudar as forças políticas a detectar ameaças decorrentes de postagens em redes sociais, como pode produzir vídeos e áudios falsos (deepfakes) que minam o julgamento dos cidadãos, porque tornam impossível para nós separarmos o joio do trigo, a verdade da mentira, com manipulação de imagens e sons, e isso pode ser o fiel da balança em momentos importantes, como as eleições presidenciais, principalmente em países democráticos. Temos de ter muito claro que o uso de IA no campo da comunicação pode ser igualmente alarmante, ameaçando os direitos de privacidade dos titulares dos dados e que embute grande impacto político. Nas redes sociais, por exemplo, temos um contingente de "soldados" de bots e trolls para espalhar mensagens que se deseje, sejam fake news ou não, ou até promover campanhas de desinformação. Com diz George Orwell, "quanto mais a sociedade se distancia da verdade, mais ela odeia aqueles que a revelam". _____ 1 Disponível aqui.
Vivemos na era da infoesfera (Pierre Lévy) da vida na web, 4.0, à beira da sétima revolução cognitiva do homo sapiens (Lucia Santaella), por prestes a entramos na fase da internet de tudo, onde tudo e todos estarão conectados. Cada vez mais a IA molda todos os aspectos da vida, impactando na pergunta sobre o que define o ser humano, já que a interação homem-máquina e as experiências na produção de verdadeiros cyborgues já não são mais ficção, falando-se atualmente do neo-humano e do inforgs (Luciano Floridi), com a morte dos objetos, substituídos pela informação, na nossa sociedade datificada. Ingressamos na fase da hiperhistória ocorrendo a depende^ncia de nosso bem estar das tecnologias da informação e comunicação, o que diferencia da fase histórica antecedente, na qual indivíduos apenas se relacionavam com tais tecnologias (Luciano Floridi), sem que estivéssemos ainda possui'dos por o que se pode chamar de "infomania" (Byung-Chul Han). É a fase da sociedade da informação, do capitalismo de informação, da economia de dados ("data-driven economy"), do desaparecimento progressivo das coisas, do real, pois dados e informações as substituem cada vez mais amplamente, pelo virtual dos dados informatizados, digitalizados. A era da 4ª revolução industrial, da indústria 4.0 ou era do silício caracteriza-se, principalmente, pela utilização da inteligência artificial em todos os setores de nossas vidas, com o aumento da intensidade de interconexões técnicas de todas as espécies. A linguagem escrita é substituída pela linguagem ciberoral. Há o extraordinário avanço tecnológico, em particular da inteligência artificial, em todos os setores de nossas vidas, com o aumento da intensidade de interconexões técnicas, e a correspondente aceleracção do tempo, bem como a correlata transformação de nossa subjetividade. A inteligência artificial gera transformações sociais, culturais, éticas, e jurídicas, bem como interfere no conceito de democracia, cidadania e de soberania, relacionando-se intimamente com a proteção de dados. Há um grande impacto da utilização em massa de dados pessoais, donde se ter de atentar para a associação da inteligência artificial com a proteção de dados, sendo essencial a análise acerca da necessária mudança de paradigma quanto à regulamentação nestas áreas, com foco na regulação pela arquitetura técnica e design tecnológico, relacionando-se com as temáticas da risquificacção e coletivização, já que apenas a base legal do consentimento, por exemplo quando se fala de proteção de dados, revelou-se insuficiente e frágil, perdendo, pois sua primazia quando se fala em proteção de direitos fundamentais nesta seara. A IA é uma das mais importantes tecnologias do mundo hoje, impactando todos os setores da sociedade, e em especial o futuro do trabalho e do Direito. Uma das temáticas mais importantes da atualidade relaciona-se com o direito digital, humanismo digital e inteligência artificial, govtech e a nova infraestrutura do futuro, sendo importante a compreensão de tais temas através de uma abordagem interdisciplinar, holística, crítica e pela ótica das humanidades. Trata-se de construirmos uma ponte entre tais universos paralelos, da tecnologia e das humanidades, e aproximarmos a academia, das empresas, e do público em geral, por meio de uma linguagem acessível, mas que não deixe de ser uma análise responsável, científica e aprofundada. Para alguns pesquisadores como Kai-Fu Lee a IA poderá nos ajudar na compreensão de questões fundamentais, filosóficas por excelência, tais como o que nos torna humanos, como queremos viver, quais valores nos são fundamentais como sociedade, e também caberia questionar o que a IA poderá fazer pelos seres humanos, olhando para ambos os lados, da utopia e da disrupção, o lado das oportunidades, e o lado dos desafios. A inclusão e a diversidade andam de mãos dadas como pilares de inovação, sendo estas imprescindíveis para se adaptar aos novos paradigmas e mudança de mindset necessários para a vida 3.0 e o Direito 4.0. Como a IA como a mais disruptiva das tecnologias irá afetar o futuro do trabalho e a forma como nós experienciamos o mundo? Grande parte da população que não tiver condições nem tempo de se adaptar as novas oportunidades de emprego viverá como uma classe considerada inútil, dependendo de economias que podem fornecer uma renda mínima, utilizando-se o tempo do ócio criativo em realidades virtuais que ampliam a gamificação da vida, de modo a substituirmos ansiedade e preocupações com o futuro da própria subsistência com um eterno mundo virtual onde tudo é possível e todos os desejos são realizados a um só click como no caso do metaverso. Bem vindos ao Congresso Futurista do Real. A digitalização da sociedade precipitou-se e agudizou-se de maneira imprevisível, impulsionada pelo evento ainda em andamento da pandemia. O emprego massivo da inteligência artificial (IA) torna os dados o petróleo dos dias atuais, tendo o "big data" invadido praticamente todos os setores econômicos, passando-se a falar cada vez mais em economia de dados ou capitalismo de dados. Para além do saber especializado e próprio da área das exatas, consideramos imprescindível uma arena de diálogo democrático abrangendo a área das humanidades, buscando-se ali uma compreensão alargada, livre de polaridades, como a que contrapõe uma visão idílica, utópica ou apenas disruptiva, com aquela sombria, reativa e distópica. Trata-se, pois do da necessidade da revalorização da ética, tal como se deu em certo sentido com o pós-positivismo, aproximando-se o Direito da moral e reconhecendo as limitações do positivismo e da busca da certeza e objetividades no Direito, sendo esta ética que se torna necessária próxima do seu sentido original grego, presente em outras culturas, tanto antigas como contemporâneas, a saber, o de nos fornecer uma vida boa, por justificada, de conforto interno, contribuindo ao mesmo tempo para a recuperação desta característica da antiga ética grega, etopoética, um saber viver, levando-se em consideração o outro, a diferença, ao contrário de um guia de éticas baseado e construído por partes parciais, seguindo seu próprio conceito de ética, o que seria insuficiente. Por conseguinte, em um segundo momento torna-se imprescindível a transformação de tais princípios éticos em práticas concretas, afastando-se a denominada "lavagem ética", e ao mesmo tempo transformando os mesmos também em princípios jurídicos, de forma a dar efetividade e tornar tais mandamentos vinculantes, e de outro lado não engessar a legislação, bem como prevendo cláusulas gerais, já que permitem uma interpretação mais aberta, e uma maior flexibilidade. Sobretudo, entendemos como imprescindível a recuperação do raciocínio crítico, de modo a possibilitar a obtenção de uma visão ampla dos aspectos teóricos e práticos relacionados aos temas da IA e da proteção de dados, em uma visão holística, interdisciplinar e inclusiva, superando-se uma visão analítica, linear e bipolar, bem como dogmas já tidos como superados, tais como o da neutralidade e objetividade considerados fundamentos das ciências modernas e do pensamento científico. A ética relacionada à IA, portanto, vai muito além de guidelines publicados por grandes empresas, ou entender a IA como um fim utilitário, a favor do progresso, sem se questionar o porquê, e para quem, contribuindo para uma maior exclusão social e concentração de renda, sendo essencial sua abordagem e construção por uma equipe interdisciplinar, imparcial, e com representantes de parcelas vulneráveis da população. Neste sentido a ética é entendida como um saber, enquanto tal, teórico, mas ao mesmo tempo prático, avesso à separação e "purificação" do saber, para ser científico, decorrente do formalismo predominante na modernidade. Portanto, a discussão acerca de temas afetos à IA poderá nos ajudar a repensar e compreender questões essenciais, também para nos orientar no Direito, como o que é o ser humano, como queremos viver, o que nós como sociedade entendemos como valores fundamentais para uma sociedade democrática e inclusiva. Seria possível com a IA alcançarmos uma justiça e decisões judiciais mais imparciais, diante da mencionada característica de neutralidade das tecnologias? Quais os requisitos essenciais de uma justiça algorítmica? Como seria a elaboração de uma "ética 4.0", relacionada com a ética como parte da razão prática, e também poética, para a regulação da IA? Com a rápida aceleração tecnológica, de um lado diversos empregos e funções são substituídas pela Inteligência artificial, a exemplo de funções mentais repetitivas, como no caso de advocacia de massa, com trabalhos de assistentes jurídicos que se limitam a copiar e colar usando modelos de petições já pré-existentes. As atividades repetitivas e rotineiras já são substituídas em alguns escritórios que se utilizam de IA, como no caso do advogado artificial inteligente (ROSS), criado a partir do computador da IBM Watson, desenvolvido por pesquisadores da Universidade de Toronto. Por outro lado, surgem diversas novas áreas e especialidades estratégicas para o trabalho do jurista, devendo haver um prévio empoderamento tecnológico do jurista por meio de estudos específicos a fim de bem desempenhar tais novas funções, com destaque para: head de inovação; empreendedor em Lawtechs/Legaltechs; desenvolvedor de negócios em Lawtechs; gerentes de privacidade; dpos e especialistas em proteção de dados e big data; engenheiro jurídico; especialista em segurança cibernética; compliance pro; gerente de risco jurídico; proteção de ativos digitais; consultor de e-Discovery; analista de dados. Como também aponta Kai-Fu Lee em aproximadamente 15 anos 40 % dos empregos serão substituídos por IA, contudo, as máquinas nunca serão criativas ou capazes de expressar empatia, o que será um diferencial aos profissionais humanos. Corrobora tal informação estudo realizado pela UNB apontando que 30 milhões de postos de trabalho poderão ser substituídos por máquinas e softwares no Brasil até 2026, sobretudo, aqueles tipicamente com funções rotineiras e não cognitivas, ao contrário de ocupações associadas a valores humanos como empatias, cuidado e interpretação subjetiva.  Consultores jurídicos estariam na faixa percentual de 54% de chance de serem substituídos, já que as competências para a função envolveriam práticas facilmente automatizadas, como análise de documentação básica, com exceção da parte de interpretação das normas jurídicas e a utilização da  criatividade. Michael Osborne da Universidade de Oxford aponta em seu artigo científico para o percentual de 47% dos empregos dos EUA que estariam comprometidos no futuro. Com o Direito 4.0 típico da sociedade e do capitalismo de dados, e da revolução digital que os acompanha, e comprovando o impacto as novas tecnologias, em especial da IA (big data) em todos os setores da sociedade, o direito transformar-se a cada dia, aproximando-se das demais tecnologias distuptivas, sendo denominado de direito disruptivo. A tecnologia é considerada um instrumento de transformação dos negócios, sendo que o conhecimento e a disrupção caminham juntos como bem aponta Steven Johnson em seu livro "Wher god ideas come from". Diversas áreas e funções de um departamento jurídico de uma empresa e de um escritório de advocacia estão sendo automatizadas, com algoritmos de IA produzindo petições e decisões judiciais automatizadas, a exemplo do conhecido sistema COMPAS utilizado em alguns estados dos EUA. Os advogados precisam se preocupar cada vez mais com o desenvolvimento, portanto, de capacidades que são tipicamente humanas e que jamais serão substituídas por robôs, tais como a criatividade e o pensamento crítico, os quais são considerados como um diferencial competitivo e de transformação digital. É o que aponta Marta Gabriel aponta justamente enfatizando para a importância do pensamento crítico, o qual aproxima-se de certa forma da proposta de pensamento voltado para uma abordagem zetética muito mais do que apenas dogmática, ou seja, preocupada em pensar de forma interdisciplinar em múltiplas alternativas, mas não se fechar em dogmas como verdades absolutas e únicas respostas possíveis, ainda mais em tempos de contínua aceleração e modificação dos paradigmas. Uma necessária mudança cultural, educacional e de mindset será necessária, portanto. Neste sentido ao invés de uma ciência do Direito estrita, teríamos uma de forma mais completa, como propunha Theodor Viehweg ao se postular pela conjugação da dogmática com a zetética, considerando-se o próprio sistema jurídico como aberto, e não auto-suficiente, dependente da realidade sócio-cultural e com um fim específico, qual seja a concretização da dignidade humana de todos. Para o profissional da Advocacia 4.0 será necessário desenvolver uma habilidade de administrador e estrategista, sendo crescente os desafios humanos no contemporâneo, como ressalva Patrícia Peck: 'Na sociedade digital, o advogado tem de ser um estrategista (PINHEIRO, 2016, p. 563)". Marta Gabriel (Você, eu e os robôs, pequeno manual do mundo digital), por sua vez aponta para a importância do pensamento crítico como um diferencial que jamais será substituído pelas máquinas. Precisamos ser mais perguntadores, pois "o papel de responder é muito melhor desempenhado pelas máquinas. A resposta consolida e é ponto final. Nesse sentido, habilidades criativas, de questionamento e reflexão para fazer as melhores associações tornam-se cada vez mais essenciais". (Ibiden, p. 28) Precisamos ser cocriadores e nos adaptar às novas exigências e desafios que acompanham a transformação digital, envolvendo o constante estudo e atualização, e estudos que envolvam uma visão interdisciplinar, holística e crítica, indo além de abordagens apenas dualistas ou lineares. Para isso o pensamento crítico e a criatividade são essenciais, bem como reaprender a pensar e refletir, diante do ineditismo e da complexidade dos problemas na nossa sociedade atual, reconhecendo-se um caráter emancipatório do direito. A fim de entender e aplicar corretamente as novas ferramentas digitais, bem como fornecer um serviço jurídico de qualidade é essencial o estudo das legislações afetas as novas tecnologias, como big data e inteligência artificial, com destaque para a LGPD, a Estratégia Brasileira de IA e o Marco Legal da IA no Brasil - PL 21-20, analisando sempre o direito comparado, além de temas atuais relacionados com a sociedade da informação, sociedade de dados e sociedade 5.0 (Japão), tais como segurança cibernética, segurança da informação, justiça digital,  legal hacking, smart cities, smart contracts, criptomoedas, legal techs, lawagile (metodologias jurídicas ágeis), legal data science, legal design, litigation 4.0, envolvendo o desenvolvimento de novas habilidades denominadas de soft skils, voltadas para o contexto 4.0. É essencial a análise e discussão acerca dos impactos da crescente utilização da Inteligência Artificial no campo das humanidades, analisando-se os pontos positivos e os negativos, as oportunidades e os desafios, conjugando-se o estudo teo'rico com casos práticos paradigmáticos e jurisprudenciais, bem como analisando-se o Direito comparado, como essencial na busca de uma ana'lise cienti'fica do Direito. Visa-se verificar como seria possível compatibilizar a boa governança digital, e a minimização ou regulação dos riscos por meio do Direito frente aos desafios crescentes da IA, de modo a na~o impossibilitar, por outro lado, a dina^mica da IA quanto à novas oportunidades, inovações e benefícios.
terça-feira, 24 de maio de 2022

IA avança na Justiça e em outras frentes

De forma inédita, o  STF começou a utilizar uma ferramenta de Inteligência Artificial, a RAFA 2030 (Redes Artificiais Focadas Na Agenda 2030) para promover a classificação dos processos judiciais com base nos 17 Objetivos de Desenvolvimento Sustentável (ODS) da Agenda 2030 da ONU, no sentido de poder priorizar e vencer os desafios de um mundo mais sustentável e equânime. Esse é um exemplo bem próximo das infinitas possibilidade que a  IA pode oferecer, contribuindo com o ecossistema judicial, nesse caso voltado a propiciar mais eficiência no cruzamento de ações e os 17 ODS's: erradicação da pobreza, fome zero e agricultura sustentável, saúde e bem-estar, educação de qualidade, igualdade de gênero, água potável e saneamento, energia acessível e limpa, trabalho decente e crescimento econômico, indústria, inovação e infraestrutura, redução das desigualdade, cidade e comunidade sustentáveis, consumo e produção responsáveis, ação contra mudança global do clima, vida na água , vida terrestre, paz, justiça e instituições eficazes, parcerias e meios de implementação. A inteligência artificial (IA) constitui a soma da utilização da grande massa de informações (big data) e o conjunto de instruções para realizar uma tarefa, produzindo um resultado final, tudo em uma equação matemática, o algoritmo. A versão singular da máquina ainda está longe de existir, é a máquina dos padrões de escolha absolutamente autônomos, os padrões assinalados por Yuval Noah Harari "Sapiens - A Brief History of Humankind", adaptados para reconhecer a mesma capacidade que o ser humano tem para processar suas intuições, o que levaria à catástrofe: "a revolução tecnológica pode em breve excluir bilhões de humanos do mercado de trabalho e criar uma nova e enorme classe sem utilidade, levando a convulsões sociais e políticas com as quais nenhuma ideologia existente está preparada para lidar." Contudo, o emprego da IA parece não ter limites. Na Índia, vem sendo utilizada uma ferramenta de IA, chamada Supace (Supreme Court Portal for Assistance in Court's Efficiency) que tem várias funções, inclusive auxiliar na tradução  de julgamentos para idiomas regionais, o que aumenta o acesso à justiça, tornando o trabalho do tribunal mais rápido e eficiente. Contudo, paralelamente ao incremento do uso de IA, crescem as preocupações com a proteção de dados e privacidade, além da garantia dos direitos humanos. Na Estônia, para eliminar o acervo de processos, já  está em operação o juiz de IA  para julgar disputas de pequenas causas, abaixo de 7 mil euros. Igualmente no Canadá, a IA tem sido empregada para resolver disputas de baixo valor. Há muita polêmica em torno deste uso, mas torna-se igualmente  importante testar a IA para ver se os resultados refletem justiça e transparência no andamento processual, além de reduzir custos e tempo dos processos.  Em outros setores, a IA está igualmente ganhando diferentes usos. A empresa Ghostrobotics, por exemplo, desenvolveu o cão robô para uso militar, semelhante a um cachorro, tem quatro "patas", pode andar em terrenos sinuosos, subir e descer, monitorar incansavelmente regiões de risco, desativar bombas e atuar em substituição ao soldado em diversas tarefas, evitando colocar em risco o militar. Os drones possibilitam também o monitoramento de áreas de difícil acesso e evitam riscos, são utilizados em dezenas de tarefas inclusive de transporte, mas erros aconteceram, em 2021 um show de luzes na China com drones teve problemas técnicos e dezenas caíram nos espectadores; os Estados Unidos admitiram um ataque com drones em local errado matando 10 civis no Afeganistão. Passando para o uso de algoritmos de geolocalização, a Predpol promete revolucionar a segurança das regiões contratadas pela empresa, com base nas ocorrências policiais o algoritmo prevê a incidência do próximo crime: o que; onde e quando acontecerá, simplesmente pela estatística avançada na análise preditiva. O uso das ferramentas de biometria é controverso e precisa ser analisado à luz da Lei Geral de Proteção de Dados, mas foi utilizado em Moscou para pagamento de metrô, o Face Pay, lançado em 2021.   São Paulo prevê a instalação de câmeras de reconhecimento facial para auxiliar na redução da criminalidade. Um procurado por homicídio foi reconhecido por uma câmera de reconhecimento facial no Carnaval de Salvador, em 2019. Isso é somente o começo porque a máquina pode aprender com a experiência à medida que recebe mais dados, o que também ajuda a reduzir os vieses. A linguagem corporal padrão de alguém que comete um delito pode ser identificada através de uma nova tecnologia japonesa de câmeras que detectam os movimentos e o algoritmo avalia se haverá um delito, é a análise preditiva em ação. Em 2018, uma reportagem do The Economist, em parceria com O Estado de S. Paulo, publicou uma matéria dizendo que computadores têm sido utilizados para ajudar em decisões judiciais nos Estados Unidos, porém, o que dizer do caso do cidadão afro-americano Robert Julian-Borchak Williams, detido, preso e acusado injustamente por um sistema de algoritmo de inteligência artificial. No Jornal El País, a manchete, "os robôs sexuais já estão aqui. Deveria haver leis que os regulem?", são os sexbots, como ficam a ética e a privacidade diante de um robô com formas infantis? Em contrapartida aos exemplos citados , todos aptos a uma sabatina de análises técnicas envolvendo legislação, ética e privacidade, a máquina traz benefícios em diversos setores, inclusive os citados além da educação; medicina; diagnóstico; gestão; segurança entre outros, o relógio mais recente da Apple salvou a vida de um americano ao detectar uma embolia pulmonar. Diante do avanço exponencial da tecnologia e suas aplicações para que se possa evitar os erros e utilizar de maneira correta, o desafio é a regulamentação. Diversas iniciativas vêm sendo aplicadas para prevenir e evitar que os mecanismos de decisão adotem padrões incorretos, até mesmo discriminatórios. Os programadores do Reino Unido têm o código de ética para o desenvolvimento prevendo em poucas palavras que se evite a predição incorreta incluindo um humano sempre que possível; o monitoramento das ferramentas deve permitir a compreensão do que está sendo decidido e, por fim, deve permitir a transparência nas decisões. A Microsoft também publicou os princípios da IA contendo justiça; confiabilidade e segurança; privacidade; inclusão; transparência e responsabilidade. A Comunidade Europeia publicou as diretrizes para uma IA de confiança "Ethics Guidelines for Thustworthu AI", basicamente prevendo a intervenção e supervisão humana; robustez e segurança e a privacidade e governança de dados. O Senado Americano tem como base o manual de ética em IA para aplicação a todos os projetos de IA não aceitando modelos sem explicação e que sejam compreendidos quais dados são utilizados. Aqui, no Brasil, um passo foi dado, além da Lei Geral de Proteção de Dados, com  o Marco Legal da IA, estabelecendo a criação do relatório de impacto de IA e seus agentes, projeto inspirado na Recomendação sobre Inteligência Artificial da Organização dos Estados para o Desenvolvimento Econômico (OCDE). A  IA pode ser usada em benefício da sociedade, seguindo os padrões ESG (melhores práticas ambientais, sociais e de governança) e em busca do atingimento das metas da Agenda 2030 da ONU,  através da governança focada nas pessoas e na sustentabilidade em busca da prosperidade para todo o mundo.
terça-feira, 3 de maio de 2022

Desenvolvimento da IA e interesse público

Há muita polêmica acerca da  proposta pioneira da Comissão Europeia para regular a Inteligência Artificial (AI Act)¹, uma vez que o viés escolhido foi da aplicação dos riscos, consolidado desde o primeiro estudo nesse sentido, contido nas sugestões prévias do White Paper de 2020. A crítica está centrada no desequilíbrio dessa balança de regulação, que coloca em um prato os direitos fundamentais dos usuários e a  proteção de seus dados pessoais e no outro, os interesses do Poder Públicos e de empresas. A avaliação de riscos da IA aos direitos humanos na esfera pública deveria ter um peso maior. A utilização dos sistemas de IA nos serviços públicos e processos administrativos se justifica no sentido de serem empregados como instrumentos para facilitar a tomada de decisões de gestores públicos e  para agilizar os serviços prestados aos cidadãos, observando seus direitos fundamentais. Além do Judiciário brasileiro, uma série de órgãos públicos tem sua inteligência artificial, como a Dataprev, responsável pelo processamento de todos os dados pessoais e sociais da população brasileira, que utiliza o Isaac, voltado a agilizar a análise de processos do Instituto Nacional do Seguro Social (INSS) . A Datraprev, a exemplo de outras empresas públicas, vem ampliando o desenvolvimento da  IA em outros serviços. A tecnologia de IA vem se desenvolvendo em todas as áreas do conhecimento humano e a proteção legal terá dificuldade em acompanhar o ritmo de expansão dessa tecnologia e seus possíveis impactos sociais, éticos e jurídicos. A  Resolução 332/20 do Conselho Nacional de Justiça³, por exemplo,  traz como conceito de inteligência artificial , um  "conjunto de dados e algoritmos computacionais, concebidos a partir de modelos matemáticos, cujo objetivo é oferecer resultados inteligentes, associados ou comparáveis a determinados aspectos do pensamento, do saber ou da atividade humana". Podemos, também, sintetizar o conceito de  IA como sendo a soma da utilização de grande massa de informações (big data) e o conjunto de instruções para realizar uma tarefa, produzindo um resultado, tudo em uma equação matemática, o algoritmo. No Brasil, o Marco Legal do Desenvolvimento da Inteligência Artificial (PL 21/20)² foi aprovado no ano passado e, a despeito de ser considerado generalista, trouxe segurança jurídica ao consolidar fundamentos, objetivos e princípios gerais  para o uso da IA no país.  No art.12, o Marco Regulatório aponta que que o Poder Público deve facilitar a adoção de sistema de IA à  Administração pública e na prestação de serviços públicos. O uso da IA na esfera pública está diretamente imbricada na observância dos direitos fundamentais dos cidadãos. No capítulo sobre Direitos Fundamentais da proposta  do Regulamento do Parlamento Europeu  sobre IA  explicita essa preocupação:" A utilização da IA com as suas características específicas (por exemplo, opacidade, complexidade, dependência de dados, comportamento autónomo) pode afetar negativamente vários direitos fundamentais consagrados na Carta dos Direitos Fundamentais da UE . A presente proposta visa assegurar um elevado nível de proteção desses direitos fundamentais e visa abordar várias fontes de riscos através de uma abordagem baseada no risco claramente definida". A mitigação de riscos é importante, mas vem sendo questionada enquanto cerne  da nova regulamentação europeia,  principalmente diante das decisões automatizadas dos sistemas de IA. No Brasil, embora a  Lei Geral de Proteção de Dados (lei 13.709/18), não discipline o uso da IA, traz no art.20 os parâmetros de seu uso: "O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade". Dentre os principais riscos do desenvolvimento da IA está a violação ao direito à privacidade e proteção de dados, especialmente no caso de eleições, com o uso de robôs (social media bots) que  conseguem interagir com outros usuários  e influenciar nos principais debates que podem decidir um pleito presencial, sem falar das chamadas "bolhas ideológicas" por meio das quais os usuários só entraram em contato com publicações que expressem as opiniões que tenham similaridades às suas. Esses tipos manipulações constituem  um risco paras as eleições livres e a democracia O ideal da regulação vem sendo a  defesa dos direitos fundamentais. Um dos desafios dessa perspectiva está no projeto polêmico , chamado iBorderCtrl, que emprega IA para analisar microexpressões de pessoas nas fronteiras europeias, buscando detectar se o indivíduo abordado está mentindo  ou não ao responder a  um script definido. É a nova versão do detector de mentiras , que usa tecnologia avançada de IA, mas é um projeto considerado de pouca transparência, que vem sendo questionado. Outro exemplo de sistema de IA considerado de risco e que visa à vigilância em massa é o SyRI do  governo holandês. Este sistema  de investigação algorítmica detecta suspeitas de fraude em benefícios, subsídios ou impostos, sendo que os cidadãos não são avisados do procedimento, mesmo tendo seus dados sensíveis tratados, uma vez que  envolvem informações relativas a trabalho, propriedade, dívidas, aposentadoria isenções etc. Falta, portanto, transparência , o que demandou uma campanha pública chamada " Suspeito desde o início".  Uma das funções SyRI  mais questionadas era busca detectar fraudes nos subsídios  de aluguel social por meio da mensuração do uso de água corrente.  Quando muito baixo, depreende-se que o beneficiado  não estaria mais naquele endereço , mas continuaria usufruindo dos benefícios de forma fraudulenta. Contudo, outros fatores podem explicar esse baixo consumo, como reaproveitamento da água da chuva. Essa ação atingia prioritariamente bairros de baixa renda, o que já constitui uma discriminação social, embora a justificativa do poder público tenha sido de melhorar a qualidade de vida dessa população. O SyRI foi suspenso pelo Tribunal holandês de Haia por violar o art. 8 da Convenção Europeia de Direitos Humanos , que trata dos sistemas de IA de alto risco, que estabelece a observância de quatro pontos: identificação e análise dos riscos conhecidos e previsíveis, avaliação de acordo com a finalidade a que se destina o sistema de IA, avaliação de outros riscos com base na análise de dados recolhidos no sistema e adoção de medidas de gestão de risco, com base nos efeitos e possíveis interações. No uso da tecnologia de IA na área pública, um ponto fundamental é aplicar uma legislação transparente , assegurando a privacidade dos dados pessoais dos cidadãos e que, ao mesmo tempo, responda se  observa os  marcos de direitos humanos  que propiciam as salvaguardas necessárias. A questão da vigilância em massa  estatal com uso da IA teve no Reino Unido um exemplo bem claro , com a criação em  2016 da Lei de Poderes de Investigação, que admitia a coleta de dados em massa, que vieram a público pela denúncia de Edward Snowden, que apresentou documentos sobre a agência de inteligência britânica GCHQ, que utiliza programa de espionagem para armazenamento de dados em massa de todo tráfego da internet e repositório de mis de 1 trilhão de eventos (e-mails, mensagens instantâneas, mídia social etc.). Contudo, em 2018, o Tribunal Europeu de Direitos Humanos decidiu que  esse programa de interceptação de massa violava a Convenção Europeia de Direito Humanos e é considerado o primeiro julgamento sobre a matéria que colocou um freio ético no uso da IA na esfera pública. No Regulamento do Parlamento Europeu , o poder público e empresa parceiras  também não estarão escudados pela caixa preta da "segurança nacional" para  evitar comunicar incidentes no âmbito da IA.  Segundo o art. 62, os fornecedores de sistemas de IA de alto risco  ( identificação .biométrica, gerenciamento e operação de infraestrutura crítica; emprego, gestão de obras e acesso ao trabalho autônomo; acesso a serviços e benefícios públicos; migração, asilo e gestão de controle de fronteiras; administração da justiça etc.) devem  comunicar as autoridades de fiscalização qualquer incidente ou avaria  que venha a violar direitos fundamentais. A notificação deve ser feita tão logo se estabeleça o  nexo de causalidade entre o sistema de IA e o incidente ou avaria. Os arts 22  e 23 do Regulamento enfatizam o dever de informação e cooperação com as autoridades. Como já afirmava o Conselho de Direitos Humano da ONU em 2016, " os direitos humanos que as pessoas têm off-line devem também ser protegidos on-line".4 _____________ 1 Proposta do Regulamento do Parlamento Europeu sobre IA. Disponível aqui 2 Disponível aqui. 3 Disponível aqui. 4 Disponível aqui.
Introdução Vivemos na sociedade da informação, sociedade de dados e sociedade 5.0 (Japão), atrelada aos conceitos de pós-humanismo e de transumanismo, falando-se ainda em "virada do não humano", um conceito macroscópico segundo Grusin, trazendo repercussões sociais de alta magnitude1, com foco no descentramento do humano da biosfera, para se tornar verdadeira força geológica, a provocar a era do antropoceno. Surgem ao mesmo tempo novos desafios e oportunidades com as novas tecnologias na interface com as humanidades, em especial com a utilização da chamada inteligência artificial (IA), sendo certo que as diretrizes éticas devem ir de mãos dadas com as questões legais, no âmbito da governança de algoritmos. O Projeto de Lei 21/20 que cria o marco legal do desenvolvimento e uso da Inteligência Artificial (IA) é uma importante iniciativa de regulamentação da IA no Brasil, ao lado da Estratégia Brasileira de IA no Brasil, Instituída pela Portaria MCTI nº 4.617, de 6 de abril de 2021, apesar de algumas falhas e omissões, imprecisões técnicas, ausência de obrigações substantivas e processuais, ausência de parâmetros mínimos de procedimentalização e previsão de instrumentos de governança algorítmica,  em especial se comparamos com as regulamentações internacionais. Há também uma falha a ser destacada no tocante ao processo democrático de deliberação, já que houve um curto período de tempo para contribuições por parte da sociedade civil, ao contrário, por exemplo, do Marco Civil da Internet, lei 12 965/2014, o qual contou com um período bem mais extenso de discussão democrática e inclusiva. Um amplo período de debate envolvendo diversos grupos da sociedade civil é essencial e possui relação com o conceito de ética digital intercultural, trazendo ao diálogo os grupos vulneráveis e todos os setores da sociedade. Justamente ética digital intercultural e o estabelecimento de frameworks concretos para tradução de princípios éticos abstratos em práticas concretas são pontos a serem desenvolvidos, devendo contar com a contribuição de uma equipe interdisciplinar e multistakeholder, e, sobretudo, independente. O Projeto de Lei 21/20 que cria o Marco Legal da IA no Brasil é uma importante iniciativa no sentido de regulamentação da IA, já que cada vez mais se fala no fim da era dos códigos de conduta (autorregulação), como bem aponta Luciano Floridi, no recente artigo "The end of an era: from self-regulation to hard law for the digital industry".2 Isto porque a autorregulação pelas empresas, não seria eficaz nem tampouco contribuiria para o aspecto da confiança, já que muitas vezes tal iniciativa colide com a busca de fins públicos e com a proteção de direitos fundamentais e humanos, voltando-se primordialmente para os valores de mercado, não sendo iniciativas pautadas na transparência e imparcialidade. Em muitos casos há aqui uma concepção proprietária dos diretos envolvidos, a busca da inovação e de valores econômicos acima de outros valores democráticos, envolvendo a elaboração de conteúdo unilateral e seletivo em termos de interesses, na linha de uma análise econômica do Direito, voltada para eficiência do mercado. Clique aqui e confira a coluna na íntegra. __________ 1 Grusin, Richard. Introduction. In: Grusin, Richard (org). The nonhuman turn. Minneapolis, mn: University of Minnesota Press, 2015. p. vii-xxxi, Grusin, 2015, Conferência realizada em 2012, "A Virada do Não Humano nos Estudos do Século XXI", Center for 21st Century Studies, Universidade de Wisconsin-Milwaukee. 2 Floridi, Luciano, The end of an era: from self-regulation to hard law for the digital industry (November 9, 2021). Available at SSRN.
terça-feira, 5 de abril de 2022

Metaverso e gamificação da vida

De que forma o surgimento de novas formas de representação do mundo, no sentido de um empoderamento através e por meio das tecnologias, não apenas vendo o lado negativo e os problemas, mas alternando o foco no sentido de encontrar uma solução para os problemas que as novas tecnologias nos colocam em conjunto com a crise ambiental e de sentido, podem contribuir para uma multiplicidade de alternativas? Como expõe Yuk Hui ("Technodiversity", Ubu Editora, 2020, p. 154), o reconhecimento da existência da cosmotécnica, da diversidade técnica, podem ajudar no empoderamento ao invés do enfraquecimento humano? Ou tal visão seria utópica demais, ao se considerar que qualquer modelo e espécie tecnológica estariam aprisionadas dentro do sistema poder-saber, envolvidas nas redes de poder, restando muito pouco espaço para a resistência, mesmo sabendo que onde há poder também há resistência (Deleuze)? A realidade virtual (XR) seria como sonhar com os olhos abertos, gerando uma intensa experiência que seria absorvida e experienciada como "presença"? (Kai-Fu Lee. "AI 2041". Ebbok, Apple). Tais questões são inseparáveis, a ética da IA e a dinâmica do poder, já que o poder "providencia os meios para influenciar quais casos são relevantes, quais problemas são prioritários e a quem as ferramentas, os produtos e os serviços são feitos para servir" (JOHNSON, Khari. AI ethics is all about power. Em https://venturebeat.com/2020/02/21/google-launches-tensorflow-library-for-optimizing-fairness-constraints/, 2019. Acesso: 10/08/2021). Como o resistir poderá perdurar no tempo e se multiplicar permanecendo resistência e não ser aglutinada no sistema dominante, retroalimentando o sistema, virando também um produto de consumo? O dobrar, a superdobra no sentido de se pensar o lado de fora, uma nova linha de fuga, a experiência do fora como uma forma de resistência, trazendo a possibilidade de novos devires. Uma reconversão do pensamento (metanoia) é do que se trata, no sentido de se escapar do modo de ser do discurso da representação, e trazer a possibilidade de novas subjetividades. Buscar a experiência do fora no sentido de colocar o sujeito como objeto para si mesmo, projetado para fora de si, e com isso conseguir voltar a si mesmo, através de um esquecimento. Para Foucault, a resistência é uma ação política revolucionária, capaz de questionar ou pelo menos refletir e ter consciência sobre os regimes de verdade e dispositivos de poder, sendo o artista considerado como um intercessor. Intercessor, nos dizeres de Gilles Deleuze, é o movimento, a força da alavanca, ao contrário da força da onda, que logo se esvai. O intercessor é aquela figura (na filosofia, nas artes, nas ciências) que, mediante o que pensa, o que cria ou inventa, instala, no cenário da vida, um distúrbio, à altura de forças um passo à frente. Em outros termos, o intercessor obriga, por sua intervenção, a romper a cômoda realidade regida pela lógica, instaurando um terceiro modo de ver e de ler a trama dos acontecimentos, o enredo da vida. Quais são os fundamentos e bases epistemológicas e hermenêuticas para pensar tais questões, por um lado, respeitando as diferenças, numa perspectiva multicultural e, por outro lado, como estabelecer os fundamentos e marcos teóricos para a regulamentação harmônica das tecnologias digitais em nível internacional? Quais são as possíveis bases epistemológicas e hermenêuticas para se repensar a relação da técnica com os humanos? Desta forma, procuramos observar e compreender o objeto de estudo em questão de outra perspectiva, de outro ponto de vista, mas, sobretudo, através de uma visão não polarizada, não dualista e não representativa, mas sim holística e inclusiva, a fim de repensar ambivalências e contradições. A tecnologia muda a cultura, o ser humano e o conceito de ser humano, e com isso o conceito do que significa continuar sendo humano. Vivemos em uma condição pós-moderna, em uma sociedade pós-moderna, na pós-modernidade, na sociedade da informação ou sociedade informacional, sociedade de dados, e passamos da fase da histórica à fase hiperhistórica, (FLORIDI, Luciano. "The Logic of Information: A Theory of Philosophy Philosophy as Conceptual Design", Oxford: OUP, 2019). Na fase da hiper-história, o nosso bem-estar cada vez mais depende das tecnologias de informação e comunicação (TIC), o que difere da fase histórica, na qual apenas nos relacionávamos com tais tecnologias, já havendo pessoas que afirmam que suas vidas estão agora completas após um novo modelo de Iphone ser lançado no mercado. Em tal fase, há um excesso de informação, com uma redução de nossa capacidade reflexiva e do conhecimento, já que estes demandam tempo, e estamos aprisionados na velocidade alucinante e exponencial dos tempos atuais. As tecnologias da informação e comunicação se tornam forças ambientais, antropológicas, sociais e interativas, criando e moldando nossa realidade e autocompreensão, modificando a forma como nos relacionamos uns com os outros e com nós mesmos, e a forma como interpretamos o mundo. O que é o ser humano, pergunta formulada por Sócrates a Alcibíades, retratada por Platão em uma de suas obras (Platão, Alcibíades, I, 129E)? Um conceito que é mutável através do tempo e das culturas, e também alterado pela tecnologia, que por sua vez também muda a cultura e todas as outras manifestações sociais. Qual seria então o conceito de ser humano adequado para a 4ª revolução e a época "onlife", diante de uma realidade e história gamificadas? Diante da insuficiência do homem prático (homo practicus/homo index), inundado por avalanches de informações que comprometem sua capacidade interpretativa e sensível, informações que substituem corpos e coisas, memórias e rituais, precisamos repensar as bases epistemológicas, hermenêuticas, ontológicas e fundacionais de nossa nova realidade. A memória possui um valor essencial de resistência, como aponta Foucault ("Ditos e escritos", vol. III, p. 386-387), sendo um importante fator de luta (é, de fato, em uma espécie de dinâmica consciente da história que as lutas se desenvolvem), então, se a memória das pessoas é mantida, mantém-se seu dinamismo, sua experiência, seu saber sobre as lutas anteriores. Segundo Santaella, a plasticidade implicada na rápida adaptação da memória humana está nos tornando simbio'ticos com nossos computadores, na convivência com sistemas interconectados que nos levam a saber menos sobre o conteúdo específico das informações em contrapartida ao muito que possamos a saber (SANTAELLA, Lucia, "Culturas e artes do pós-humano: da Cultura das Mídias à Cibercultura", Paulus Editora; 1ª. Edição, 2003). Diante da insuficiência do "homo linguisticus" de Barthes, com seu "eu" fora de si mesmo, permanecendo na linguagem, depois que a linguagem deixou a equação, para onde o sujeito foi expulso? Uma nova forma surge, o "phylum maqui'nico", termo forjado por Gilles Deleuze e Felix Guattari, mencionando o silício no agenciamento contemporâneo homem-natureza (DELEUZE,  Gilles. "Foucault", Editora Brasiliense, 1988, São Paulo). Um novo Super-Homem, um "Ubermensch": o Objeto? O homo poiético? "Cibercultura", "pós-humanismo", "singularidade" e outros termos famosos atualmente podem ser entendidos como tentativas de dar sentido ao nosso novo tempo. A era da 4ª revolução industrial, da indústria 4.0 ou da era do silício, com a superação da era do carbono, no "Império Cibernético", quando chegamos ao pensamento-máquina, vem caracterizada principalmente pelo uso da inteligência artificial em todos os setores de nossas vidas, com crescente intensidade de interconexões técnicas de todos os tipos. Luciano Floridi fala em "pan-computacionalismo", já que, em um determinado nível de abstração, qualquer coisa pode ser apresentada como um sistema de informação (Luciano Floridi, "Problemas abertos na filosofia da informação". Metafilosofia, v. 35, n, 4, pp. 554-582 et seq.), e assim qualquer coisa, como nós seres humanos podem ser calculados, em uma análise preditiva voltada à máxima eficiência e produtividade. A digitalização generalizada, impulsionada pela inteligência artificial, impacta a construção do direito, redimensionando questões relacionadas ao direito privado e ao direito público, os direitos humanos e os direitos fundamentais. Como ressalta Nestor Garcia Canclini, em seus livros "Hybrid Cultures" e "Ciudadanos reemplazados por algoritmos" (Bielefeld University Press, 2019, p. 10-18) ocorre o advento da governabilidade algorítmica, tornando o espaço público opaco e distante. A cidadania é radicalizada, enquanto alguns setores se reinventam e ganham batalhas parciais, como a luta pela igualdade de gênero, embora os usos neoliberais das tecnologias aprofundam as desigualdades crônicas do capitalismo. Partiremos então da reconsideração da filosofia e de seu papel ético, não apenas como uma prática teórica, mas uma prática capaz de trazer modificações ou contribuir para modificações da realidade, unindo-se a prática e a teoria. Como tocar as margens do impensável e do inominável, no sentido da construção e um pensamento filosófico próprio, autóctone, por não envolver apenas a reprodução do já falado antes, e continuar o caminho do pensamento, fazendo um experimento com a linguagem e pensamento, em uma linguagem poética do pensamento.             Como se daria uma filosofia da IA, da informação com base nos valores construcionistas do "Homo eroticus poeticus"?           A recuperação de Eros através da recuperação do outro, e, portanto, da diferença seria ainda possível em nossa sociedade do positivo? Eros que se manifesta no Outro está quase morto, com a morte ou exclusão do outro e de sua negatividade em nossa sociedade da performance, que contraditoriamente apaga os rituais e as memórias, e assim passamos de seres de relação para seres autocentrados, onde não há a negatividade do outro para se opor a nós mesmos. Por isso para Byung-Chul Han vivemos na era do pós-imunológico, um excesso de positividade do mesmo, matando a negatividade e a diferença, sendo o Outro que permitiria que nosso corpo produzisse anticorpos. Diante da nova cultura eletrônica e novas formas de arte, como arte generativa, arte computacional, arte digital, 3DP-Art, com processos de impressão 3D e prototipagem, R-ART, criação de robôs artísticos, e VR-Art, imersão em um mundo criado totalmente via computador, entre outras modalidades, a arte provavelmente já se transformou em algo totalmente outro, abandonando seus conceitos e características tradicionais. Tudo já havia virado arte com o Pop Art, como se observa das obras de Andy Warhol, e agora tudo virando informação, teremos a totalização da arte. Arte total? Qual a relação entre IA, criatividade e arte? Podem as artes produzidas por inteligência artificial serem consideradas arte, a exemplo de arte generativa, quando esta é criada independentemente de qualquer intervenção humana, quanto ao output, a exemplo do "AARON" criado por Harold Cohen, produzindo pinturas diretamente dos algoritmos de IA, ou seja, no sentido do ser humano não controlar e não prever o futuro do output, fugindo do seu controle? O que o aparelho enxerga? O que o acaso na arte computacional através de uma proposta de aparatos com "memórias" poderá nos desafiar em jogos de criatividade? Como a arte produzida em co-autoria entre homem-máquina poderá ser vista de forma "positiva", no sentido de uma complementação ou majoração da criatividade humana? Não se trata de trazer então uma visão pessimista e distópica, em comparação com uma utópica, pois a dualidade é bem mais pobre do que a multiplicidade, mas de procuramos a lógica diagonal, na linha de Michel Foucault em seu "Teatro Filosófico", na linha de uma polifonia, quando a diferença estaria libertada. Mesmo porque, quando se fala que a IA irá substituir o ser humano em diversas atividades profissionais, também isto, segundo alguns, poderia ser visto como "positivo", já que teríamos mais tempo disponível sem se preocupar com o trabalho, e assim aproveitar o ócio "criativo", mesmo que sem reflexão e sem busca por um maior conhecimento ou cultura, apenas com diversão e gamificação, já que o universo virtual nos preencheria de emoções mais intensas e gratificantes.  Ante o atual reconhecimento de um corpo real ligado a um corpo virtual, conectado ao mundo por meio de um fluxo de ele'trons, nosso corpo e nossa mente sa~o redimensionados, perdemos a refere^ncia tempo e espac¸o. Mas, o que iremos fazer de fato com o tempo disponível e em "maior liberdade". O conceito de liberdade se acha em questão, pois esta envolve deliberação autônoma, responsabilidade e vínculo com o Outro, o que para alguns filósofos já seriam fatores em extinção. Mais tempo disponível para ficar mais e mais em plataformas digitais e no Metaverso e em jogos de realidades virtuais, com a total gamificação da vida, levando outras vidas, mesmo que não vividas, sonhadas, mas representadas algoritmicamente? A arte produzida por IA, mesmo que acompanhada da criatividade humana em co-participação, poderá ser qualificada como uma criação de uma narrativa, mesmo que quantificada e calculada? A arte considerada como forma de conhecimento poderia ser produzida por uma IA que trabalha com o excesso de informações e não é capaz ainda de um verdadeiro conhecimento, trabalhando apenas com regras e não com princípios, ou seja, sem uma análise adequada valorativa, já que para tanto englobaria uma série de qualidades propriamente humanas? Mas, não seria a própria arte uma forma de conhecimento? É possível uma arte que não esteja relacionada à poiética, à poiesis, aos valores construcionistas do Homo eroticus poieticus? É possível uma arte produzida a partir de bits, números, cálculos, que não mais nos dialogue com a incompletude, e que nos faça sentir o assombro, o êxtase, que nos faça ficar de joelhos como dizia Hegel o que estava bastante presente na arte trágica? Por isso Hegel teria mencionado o fim da arte, não mais possível para se capturar o movimento e a complexidade do espírito humano, com o advento do Cristianismo, quando então a arte perde sua relação com o espirito humano e passa apenas a ser mera recreação, entretenimento e forma de decoração do ambiente. Uma arte aprisionada em uma mentalidade voltada para a eficiência e rapidez e vinculada à representação, no sentido de seus efeitos de questionamento, crítica, nos ajudaria a refletir sobre nós mesmos e nossa condição existencial, a refletir sobre nossa relação com a técnica e no que esta nos afeta? Uma arte morta e não vinculada às potências da vida, pois não produzida por um ser vivente? Aqui trazemos mais questionamentos e provocações do que respostas, pois estas também já nos são fornecidas mais facilmente pela IA, sendo de se considerar as respostas apenas como alternativas dentre as demais possíveis, um ponto de partida para inúmeras outras possibilidades, assim como o conceito. Talvez precisemos reconsiderar e redesenhar nosso vocabulário conceitual e nossas formas de dar sentido e fazer sentido ao mundo (nossos processos e práticas de semantificação), o que, por exemplo, poderia ocorrer ao reconhecer a capacidade da IA em fazer atribuições semânticas de sentido e ao produzir narrativas. Há que se falar em criatividade sem o "logos", sendo este o que nos faz humanos e distintos dos demais animais políticos, na formulação clássica de Aristóteles, como abelhas e lobos, substituído pelo calcular, mesmo sendo o cálculo uma eterna repetição do igual? O cálculo, o calcular é o oposto do pensar, pois o pensar lança-se no aberto, ao contrário de uma prévia determinação de asseguramento (em especial no sentido de uma proposta filosófica, vinculada também à zetética, opondo-se à dogmática neste sentido, por se pautar pelo questionar, pelo duvidar. Daí a crítica de Karl Popper no desenvolvimento de sua filosofia da ciência, característica do racionalismo crítico, no sentido de ser o direito uma pseudociência, isto na sua versão apenas dogmática, ao contrário da zetética. A abordagem zetética diferencia-se da análise apenas dogmática, ou seja, de uma abordagem tecnicista, permitindo-se uma crítica e alargada; tal diferenciação foi trabalhada pioneiramente por Tércio Sampaio Ferraz Jr., seguindo os desenvolvimentos de Theodor Viehweg, seu professor no doutorado na Alemanha, preocupando-se mais com as perguntas, com o questionar, do que com as respostas, tidas como dogmas ou verdades absolutas, afirmando a relatividade e precariedade de todo o conhecimento (Acerca da diferença entre dogmática e zetética ver Tércio Sampaio Ferraz Júnior, "Teoria da Norma Jurídica", Editora Atlas, 5ª. Edição, 2016, p. 21 e ss.). Trata-se de buscarmos a recuperação do erotismo e com isso, da poiesis, da criatividade, restituindo-se o valor erótico, de Eros, para que copulemos com a linguagem, recuperando a outricidade básica da linguagem, contrária a atual vulgarização da mesma, restituindo-se o valor diacrítico e dialógico da linguagem com a valorização do outro, da diferença, do valor de indicação, de nomeação, recuperando-se, outrossim, a natureza simbólica, já que hoje em dia a linguagem se tornou mais símbolo, sendo superficial e vazia. É preciso inventar com o corpo, com seus elementos, suas superfícies, seus volumes, suas densidades, um erotismo não disciplinar: o do corpo em estado volátil e difuso, com seus encontros ao acaso e seus prazeres não calculados".1 Uma sociedade sem o outro é uma sociedade sem Eros. A mesma crise poderíamos ver também nas artes, uma crise de amor (Eros). A IA e a arte produzida com a IA poderiam nos ajudar a sair da visão antropocêntrica de domínio da natureza e também da técnica como domínio e ver uma tecnodiversidade e cosmoética e cosmotécnicas, a serviço e a favor do ser humano, ou a técnica sendo também uma produção humana a que poucos terão acesso iria majorar ainda mais a percepção antropocentrista e reduzir a inclusão digital? É possível se pensar na técnica sem ligação a uma relação de domínio e de poder, desconsiderando que ela se relaciona com os que possuem os meios de "produção" atuais, no caso do "big data" e de computadores eficientes que podem fazer a mineração de dados e extrair dai predições e outros produtos? O mundo digital, contudo, é paradoxalmente desprovido de olhar, ao mesmo tempo em que tudo é exposto ao olhar. Apesar do panóptico digital, com sua luz por todos os lados, inclusive interior, não deixando nada escapar ao seu olhar, raramente nos sentimos contemplados ou expostos a um olhar (do Outro). O inteiramente Outro ilude qualquer previsão ou cálculo e se manifesta como um olhar, e neste olhar, nos vemos a nos mesmos. O mundo digital carece de qualquer qualidade de olhar. As janelas são uma janela sem vista, nos protegendo do olhar. Ao sairmos, preferimos tirar selfies e fotos de todos os detalhes e instantes, ao invés de olharmos com nossos próprios olhos e aproveitar o momento presente. No virtual, e também talvez com a arte produzida por IA iremos "habitar" um espaço sem olhar, no qual não é possível nenhuma experiência do Outro, nenhum olhar do Outro relacionando-se ao erotismo, à alteridade, a Eros. O olhar está desaparecendo em diversos níveis. Agora, o panóptico digital funciona de forma espectral, sem pontos cegos, não deixando escapar sequer os pensamentos e as emoções, os quais são também codificados e englobados em processos preditivos voltados ao consumo ou para fins políticos, ao contrário do anterior Panopticon, de Bentham, representativo da sociedade da disciplina foucaultiana, que ainda se baseava no domínio do olhar, centrado no olhar do supervisor, que tudo via sem ser visto, dissociando o ver/estar visto. A frase mais apropriada quando se fala no Metaverso é "be all you want to be", aproximando-se da frase mais popular durante a época dos libertinos do século XVIII, voltados para uma cultura do prazer, ridicularizando os valores do século e vivendo no excesso, qual seja "tudo é valido e tudo é permitido". Tudo é possível. Para Heidegger, o tudo é possível representaria uma experiência vivida [Erlebnis]  em torno de uma maquinação [Machenschaft], ou calculabilidade (Berechenbarkeit)  em um local onde não mais cabem questionamentos, ou seja, onde tudo é possível, o que também anunciaria o fim da filosofia, após Hegel, e no seu lugar, a cibernética, como aponta Heidegger em "The End of Philosophy and the Task of Thinking" em 1964 e na entrevista de 1966 para "Der Spiegel" (Martin Heidegger, Contribuições para a Filosofia (do Evento), trans. Richard Rojcewicz e Daniela Vallega-Neu (Bloomington e Indianapolis: Indiana University Press 2012), §51, 86). Contudo, o Metaverso é comemorado como um inventivo para a inclusão social, para uma maior igualdade, pois as pessoas se encontrariam de maneira digital, com inúmeras camadas que ampliam a experiência humana. Com a arte computacional, eArte (arte 3D), arte produzida por IA, e arte em ambiente de realidade aumentada, tais domínios irão se separar de vez, aparentando se fundir, produzindo-se uma nova dimensão ou um destes domínios cederá totalmente à existência do mais forte? Com a realidade aumentada cria-se um estímulo exponencial de sensações, impossível de se competir com a realidade, cada vez mais vazia e sem sentido. Contudo, ao invés de resolver a causa do problema, tenta-se atacar a consequência, trazendo o risco de maior desorientação e alienação ao comprometer a capacidade de apreensão e de incorporação da experiência na dimensão mais profunda do sujeito. Em tal arte não há mais espaço para o silêncio, para o estranhamento profundo e, pois, a possibilidade de questionamento interno que seria um incentivo à transformação pessoal. O digital representa o excesso de significado sem qualquer correspondência com significantes, e a sedução (eros) significa o excesso de significantes, que não podem ser reduzidos ao significado. A arte relacionada à poética, e ao erotismo, é uma forma de comunicação, sendo que não há nada mais pro'ximo do erotismo do que a comunicação, a qual envolve a linguagem em contato intrínseco com o erotismo. A arte aqui que se postula, como bem apontado por Walter Benjamin, e' aquela responsa'vel por nos fazer recolher diante da obra de arte e nos abismar dentro dela, ao contra'rio da arte como simples distração e divertimento, quando seri'amos consumidos por ela. O erotismo como a mais real forma de criatividade artística, se relaciona à arte não como divertimento, entretenimento, mas com o potencial de nos fazer maravilharmos novamente, ou nos apiedarmos, com o potencial de transformação. É o que já propunha Aristóteles em sua Poética, prevendo a arte como forma de salvação do ser humano e através da arte, a vida (Aristóteles, Poética, trad. Eudoro de Souza. 3. ed. São Paulo: Ars Poética, 1993.) Em sentido semelhante Nietzsche, ao propor a arte como a forma mais elevada de atividade metafísica, através da qual a vida é tornada possível e digna de ser vivida, a arte que salva e pela arte a vida nos reconquista (Nietzsche, O nascimento da Tragédia, São Paulo: Editora Escala, 2013, coleção essência de Nietzsche). A poética permitiria a presentidade, a imediatividade, saindo da linearidade, e entrando na espiral, nos aproximando do resto, permitindo uma abertura. O erotismo como a mais real forma de criatividade artística, se relaciona à arte não como divertimento, entretenimento, mas com o potencial de nos fazer maravilharmos novamente, ou nos apiedarmos, com o potencial de transformação.  ___________ CANTARINI, Paola. Tese de doutorado em Filosofia, PUCSP, 2021, "Theatrum philosophicum - O teatro filosófico de Foucault e o Direito". ________. "Teoria Erótica do Direito", Rio de Janeiro: Lumen Juris, 2017. _______. E GUERRA FILHO, Willis S. "Teoria inclusiva dos direitos fundamentais e direito digital", Clube de Autores, 2020; _______."Teoria Fundamental do Direito digital: uma análise filosófico-constitucional, Paola Cantarini, Clube de Autores, 2020. DELEUZE,  Gilles. "Foucault", Editora Brasiliense, 1988, São Paulo. FERRAZ JR., Tércio Sampaio. "Teoria da Norma Jurídica", Editora Atlas, 5ª. Edição, 2016. FLORIDI, Luciano. "The Logic of Information: A Theory of Philosophy Philosophy as Conceptual Design", Oxford: OUP, 2019. FOUCAULT, M. "Ditos e escritos". Tradução de Vera Ribeiro. Rio de Janeiro: Forense Universitária, v. I (Problematização do sujeito: Psicologia, Psiquiatria e Psicanálise), 2002. _______. "Ditos e Escritos" - Vol. II - Arqueologia das Ciências e História dos Sistemas de Pensamento, Editora Forense Universitária; 3ª edição, 2013. ________. "Nascimento da biopolítica", curso no Collège de France (1978-1979). trad. Eduardo Brandão. São Paulo: Martins Fontes, 2008.  _______."O governo de si e dos outros: curso dado no Collège de France (1982-1983) (E. Brandão, Trad.). São Paulo: Martins Fontes, 2011. ______."História da sexualidade III: O cuidado de si, Editora Paz & Terra; 5ª edição, 2014. ____. "As palavras e as coisas", Editora  Martins Fontes, 10ª, Nova Edição, 2016. _____."Theatrum Philosophicum", São Paulo: Principio Editora, 1997, tradução de Jorge Lima Barreto. GUERRA FILHO, Willis Santiago; CANTARINI, Paola. Teoria poética do direito. Rio de Janeiro: Lumen Juris, 2015. HEIDEGGER, Martin. "A questão da técnica". Emmanuel Carneiro Leão (trad.), in: Id., Ensaios e conferências. Trads. Emmanuel Carneiro Leão, Gilvan Fogel e Marcia Sá Cavalcante Schuback. 6.ed. Petrópolis: Vozes, 2010. HERMETES, Reis de Araújo, "Apresentação, in Tecnociência e Cultura. Ensaios sobre o tempo presente", São Paulo: Estação Liberdade, 1998, p. 12). HUI, Yuk. "Technodiversity", Ubu Editora, 2020. JOHNSON, Khari. AI ethics is all about power. Em https://venturebeat.com/2020/02/21/google-launches-tensorflow-library-for-optimizing-fairness-constraints/, 2019. Acesso: 10/08/2020. LEE, Kai-Fu. "AI 2041", 2022. Ebbok, Apple. SANTAELLA, Lucia, "Culturas e artes do pós-humano: da Cultura das Mídias à Cibercultura", Paulus Editora; 1ª. Edição, 2003. SERRES, Michel. "The Parasite", Editora : University of Minnesota Press; First edition, 2007. TEUBNER, Gunther. "O direito como sistema autopoietico". Tradução e prefácio de Jose Engrácia Antunes, Lisboa: Fundação Gulbenkian, 1989. VIRILIO, Paul, "O espac¸o cri'tico", Sa~o Paulo: Editora 34, 2014 WISNIK, José Miguel. "O som e o sentido. Uma outra história das músicas", São Paulo: Companhia das Letras, 2017.  ___________ 1 M. Foucault. "Ditos e escritos", vol. III, p. 424. Somos dominados por conceitos alienantes, e em um segundo momento por imagens técnicas que nos alienam e subjugam, pois nos fazem crer serem a realidade, quando na verdade se distanciam ainda mais dela do que os conceitos. Em assim sendo, representam, como abstração matemática, um fim em si mesmo, e nos levando a cair na armadilha de estarmos presos no domínio técnico dos aparelhos, sem perceber.
"É muito difícil colocar a inteligência artificial de volta na garrafa", disse Bill Gates, um dos homens que comandam uma das maiores big techs do mundo e que expressa nesta frase as suas dúvidas sobre o potencial de crescimento disruptivo da IA. Seria como comparar seu uso em carros autônomos ou em um sistema de armas autônomas, que pode ou não valorar a vida humana. Que impactos teria em uma guerra como da Ucrânia? Embora, seja comum ouvirmos falar que o gênio só atende 3 pedidos de Aladim,  na verdade, segundo a história original de "As Mil e Uma Noites"1, o gênio pode satisfazer pedidos infinitos para quem detém a garrafa mágica, similar à  tecnologia de IA, porque não tem limites e detém a capacidade de aprender por si mesma (machine learning). O aprendizado das máquinas nos processos de negócios em todos os campos é praticamente ilimitado. Daí, as preocupações com os riscos que cercam o crescimento da IA em ritmo exponencial, com investimentos que devem chegar a US$ 203 bilhões até 2025, segundo a Fortune Business Insights. Embora a IA ainda esteja na seara de tarefas específicas, como  pilotar um avião, controlar um marcapasso, sistemas de busca na internet,  fazer um reconhecimento fácil, trabalhos com chatbots,  evitar ataques cibernéticos, criar criptografias, aumentar benefícios econômicos com o incremento da eficiência em diferentes setores; a IA tem um  potencial  difícil de mensurar  quando atingirmos  a fase das máquinas superinteligentes, capazes de executar  qualquer tarefa cognitiva acima da capacidade humana, promovendo autoaperfeiçoamentos. Como mitigar esses riscos? Certamente, a regulamentação é um caminho, porque permite que todos os atores interessados participem do debate. No Brasil, o Marco Legal da IA2, aprovado pela  Câmara dos Deputados, está estruturado em princípios gerais que regulam a matéria, fundamentos, direitos e deveres das partes e diretrizes para o Poder Público. O Marco Legal é sem dúvida um grande passo para a definição de aplicação ética do uso adequado da IA, tendência que vem sendo seguida pela União Europeia. Uma definição assertiva do que representa esse marco é a de que "as normas sociais, embora não necessariamente gerem sanções jurídicas, regulam o comportamento do indivíduo e dos grandes agentes econômicos, pois sua inobservância pode gerar represálias".3 .No projeto nacional, a IA é definida como "sistema baseado em processo computacional que pode, para um determinado conjunto de objetivos definidos pelo homem, fazer previsões e recomendações ou tomar decisões que influenciam ambientes reais ou virtuais". Já a União Europeia adota uma definição de IA com base em sistema, portanto, seria um software desenvolvido para um conjunto de objetivos visando gerar conteúdo, previsões, recomendações etc. No final das contas, estamos em busca da busca de um padrão ético. O Marco Legal brasileiro assegura em seu artigo 4º que não pretende retardar ou impedir o desenvolvimento tecnológico, inovação, livre iniciativa e livre concorrência, embora esteja previsto no texto que o poder público tem a prerrogativa de promover intervenção subsidiária, quando for necessário criar regras específicas; atuação setorial voltada a cada segmento e gestão baseada em risco, que devem levar em conta a probabilidade de riscos e potenciais benefícios. Temia-se que a lei tivesse a capacidade de se tornar um cipoal burocrático, servindo de obstáculo ao desenvolvimento da IA, o que não aconteceu. Para avaliações de conformidade, o Marco Legal brasileiro criou os agentes de IA, "pessoas físicas ou jurídica, de direito público ou privado, e entes sem personalidade jurídica". Os agentes de desenvolvimento participam do planejamento e design, coleta e processamento de dados e construção de modelos, verificação e validação. Destaque para o termo design, que toma forma como privacy by design; privacy by default; privacy by security e assim por diante, trazendo conceitos de segurança na concepção e execução dos projetos. Já os agentes de operação são todos aqueles que integram a fase de monitoramento e operação do sistema de IA.  O novo Marco Legal também propõe dialogar com Leis correlatas, como a Lei Geral de Proteção de Dados (LGPD), Marco Civil da Internet, Código de Defesa do Consumidor e a Lei de Acesso à Informação (LAI) para criar uma nova cultura voltada a entender as tecnologias disruptivas e mitigar seus impactos sobre o bem-estar dos indivíduos. A exemplo do modelo europeu em desenvolvimento, o Marco Legal brasileiro guarda preocupações com os direitos humanos, aliás, seu principal objetivo, valores democráticos, não discriminação, preservação de direitos individuais e coletivos. Os requisitos regulatórios buscam estabelecer controle, até porque algumas decisões da IA, não são interpretáveis e podem ser opacas até mesmo para seus criadores. Nesse sentido, a UE propõe alguns requisitos para os sistemas de IA, como utilizar os valores da União Europeia no treinamento de algoritmos; manter registros usados para treinar sistemas de IA; informar os cidadãos quando estão interagindo com um sistema de IA; adotar medidas para minimizar danos; utilizar identificação biométrica com salvaguardas e manter a supervisão humana para o sistema de IA. A indústria de IA inclui uma gama vasta de segmentos de interesses globais. Por isso mesmo, já estamos vendo o início de conflito regulatório entre a União Europeia e os Estados Unidos. Os europeus4 estão propondo regras para uso de sistemas e algoritmos de IA, com um arcabouço legal que cria o chamado "ecossistema de confiança" que irá estruturar a confiabilidade da IA. O argumento da UE é que a regulamentação suprirá as "lacunas" deixadas pelo mercado, que envolveriam risco à segurança e danos aos usuários, como fins maliciosos do uso da IA.  No projeto europeu, há quatro tipos de riscos: "mínimos" (videogames), "limitados" (chatbots ou assistente de voz) "altos" (identificação biométrica, gestão de infraestrutura, educação, emprego, controle de fronteiras, administração da justiça etc.) e "inaceitáveis" (sistemas de identificação biométrica em tempo real, pontuação social, técnicas subliminares). Ao contrário da União Europeia, os Estados Unidos têm adotado um regulamento fragmentado da IA cabendo às agências reguladoras fazer o seu monitoramento. Embora esteja vivo o sonho da Comissão Europeia de construir com o governo do presidente americano Joe Biden um acordo sobre IA, dificilmente os Estados Unidos adotarão uma regulamentação abrangente como a dos europeus. Essa estrutura regulatória, caso venha a se concretizar, teria um peso e influências globais. A complexidade da IA estar no fato de que é uma tecnologia emergente em todas as frentes do conhecimento humano. Ao deixar o gênio sair da garrafa,  corremos o risco de ir além do previsível, talvez explorando o potencial e possíveis impactos adversos da IA; sendo que o senso comum nos adverte que não devemos desejar à toa, nem deixar de sonhar. Assim, na pior das hipóteses, a Lei para regrar a IA pode ser o argumento certo para desafiar o gênio a se controlar e até voltar para a garrafa, se necessário. ___________ 1 GALAND, Antoine (versão). As Mil e uma Noites. São Paulo: Ediouro, 2001 2 Disponível em https://www.camara.leg.br/propostas-legislativas/2236340 3 Direito e Inteligência Artificial: Fundamentos: vol.1 / Willis Santiago Guerra Filho. [et al] organizadores - Rio de Janeiro: Lumen Juris, 2021. Artigo "A proteção de dados como fator ético intrínseco aos modelos de negócios baseados em IA", Dora Kayfman e Priscila do Amaral S. Reis. 4 Disponível em White Paper - "On Artificial Intelligence: A European Approach to Exclence and Trust". Disponível em https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt-BR&_x_tr_pto=nui,sc