Domingo, 16 de dezembro de 2018

ISSN 1983-392X

Inteligência artificial, algoritmos e decisões injustas: é hora de revermos criticamente nosso papel em face da tecnologia

terça-feira, 31 de outubro de 2017

Vivemos nossas vidas não apenas por decisões tomadas por nós, mas também por decisões de outras pessoas, como, por exemplo, em processos seletivos para empregos, admissões para cursos de graduação e pós-graduação, empréstimos bancários, etc. E, quando nos submetemos a estas decisões de terceiros, esperamos que sejam decisões equânimes, justas. Claro que muitas vezes tais decisões são parciais e isso não é propriamente uma novidade, mas o momento é de maior reflexão.

É que estamos nos deparando com aumento significativo das decisões baseadas em big data e algoritmos, o que faz com que muitos processos sejam automatizados, inclusive decisões sobre as nossas vidas. Como exemplo, podemos citar um caso julgado pela Suprema Corte de Winconsin em julho de 2016, quando Eric Loomis pretendeu a reforma de sentença de primeiro grau em razão da mesma tê-lo considerado um possível reincidente criminal, o que foi feito com o uso de um software, o COMPASS. Naquela ocasião Loomis alegou que não teve acesso às fórmulas matemáticas do software e que, por isso, não poderia se defender adequadamente. A fabricante do software, a Northpointe, Inc. mantêm sob forte sigilo seus algoritmos que processam o sistema de pontuação.

Este episódio ilustra o cenário de que o uso de inteligência artificial pode ser mais eficiente e menos custoso que outras ferramentas, além de ser mais preciso que o ser humano. Não surpreende, portanto, que cada vez mais se fale em decisões algorítmicas.

O grande problema é que os algoritmos são processos complexos e obscuros, já que constantemente significam um segredo de negócios. E, por serem obscuros no sentido de não serem auditáveis (não porque seja tecnicamente impossível, mas, como dissemos, por ser economicamente um dado sigiloso), podem ser tendenciosos e preconceituosos. Quanto a isso, lembramos o episódio da Microsoft que, em março de 2016 apresentou ao mundo a conta no Twitter @TayandYou, que era de sua "chatbot" (programas computacionais que simulam um humano na conversação com outras pessoas). Neste caso, o perfil ficou menos de um dia no ar, tendo sido desativado em razão das mensagens racistas, homofóbicas, misóginas que o perfil passou a fazer após interagir com humanos e absorver deles os entendimentos preconceituosos e lamentáveis expressados publicamente naquela rede social.

Isso nos obriga a refletir sobre consequências do uso da inteligência artificial e das suas repercussões. Afinal, caso as coisas não saiam bem como o imaginado, de quem será a responsabilidade? Para casos envolvendo humanos, constantemente nos valemos das nossas leis para tentar sanar as injustiças, oportunidade que buscamos tratamentos equitativos.

Os algoritmos que nos avaliam, deveriam, sob esta perspectiva, sujeitar-se aos critérios de avaliação justa que buscamos. Mas isso não é bem o que acontece, seja porque consideramos que eles são mais precisos do que realmente são, seja porque permitimos que sigam nos julgando obscuramente. É curioso como uma testemunha que não possa explicar seu pensamento acaba sendo alvo de desconfiança de um magistrado, mas, quando o assunto são algoritmos o sentimento parece ser um tanto diverso.

Algoritmos têm sido ferramentas que diminuem o ônus sobre as instituições, inexistindo paridade entre eles e decisões humanas. É fundamental questionar, assim, se é esse o objetivo que esperamos encontrar nas inovações. Devemos automatizar pela simples automação? Ou cabe aqui uma reflexão ética sobre injustiças algorítmicas? Vamos questioná-los e enfrentar decisões supostamente injustas, ou vamos manter a ideia de que são processos livres de falhas, ignorando injustiças e outros males?

Não é a primeira vez e nem será a última que vamos cobrar uma agenda para discutir algoritmos, apesar da realidade fática ter demonstrado que isso parece estar saindo do nosso alcance. Para o bem da humanidade, precisamos saber mais sobre os processos de decisões baseados em algoritmos. É um debate mais abrangente e profundo do que simplesmente entendê-los como um segredo de negócios. A questão é: conseguiremos?

Coriolano Aurélio de Almeida Camargo Santos

Coriolano Aurélio de Almeida Camargo Santos é Ph.D. Advogado. Diretor Titular Adjunto do Departamento Jurídico da FIESP. Conselheiro Estadual eleito da OAB/SP (2013/2018). Presidente da Comissão de Direito Digital e Compliance da OAB/SP. Mestre em Direito na Sociedade da Informação e certificação internacional da "The High Technology Crime Investigation Association (HTCIA)". Doutor em Direito com certificado internacional em Direito Digital pela Caldwell Community College and Technical Institute. Professor e coordenador nacional do programa de pós-graduação em Direito Digital e Compliance da Faculdade Damásio. Professor convidado dos cursos de pós-graduação da USP/PECE, Fundação Instituto de Administração, Univeridade Mackenzie, Escola Fazendária do Governo do Estado de São Paulo Fazesp, Acadepol-SP, EMAG e outras. Desde 2005 ocupa o cargo de juiz do Egrégio Tribunal de Impostos e Taxas do Estado de São Paulo. Professor convidado do curso superior de Polícia da Academia de Polícia Civil de São Paulo. Professor da Escola Nacional dos Delegados de Polícia Federal - EADELTA.

Marcelo Crespo

Marcelo Crespo é sócio no Patricia Peck Pinheiro Advogados. É doutor e mestre em Direito Penal pela USP, com especialização em Direito Penal e também em Segurança da Informação pela Universidade de Salamanca. É Certified Compliance and Ethics Professional International (CCEP-I) pela Society of Corporate Compliance and Ethics (SCCE). É, ainda, coordenador do curso de pós-graduação em Direito Digital e Compliance no IBMEC Damásio e professor na Faculdade de Direito de Sorocaba, onde coordena grupo de estudos em Direito, Tecnologia e Inovação. Também é autor de diversos artigos sobre Direito Digital e colunista do Observatório do Marco Civil da Internet – OMCI.