MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Desafios legais na era da inteligência artificial: responsabilidade civil, leis especiais e uma pitada de humor

Desafios legais na era da inteligência artificial: responsabilidade civil, leis especiais e uma pitada de humor

Preparemo-nos, pois o futuro está prestes a desabrochar, repleto de robôs bem-humorados, leis intrincadas e, quem sabe, uma IA com número de identidade própria.

quinta-feira, 25 de janeiro de 2024

Atualizado às 13:58

O conteúdo a seguir é produto de reflexões pessoais e insights gerados durante o curso do meu programa de MBA.
As opiniões aqui expressas são inteiramente pessoais e não representam a posição ou opinião oficial do meu empregador.
Quaisquer correlações estabelecidas entre o conteúdo acadêmico e o contexto profissional não são intencionais.

Em um mundo onde a Inteligência Artificial (IA) se tornou a estrela do espetáculo tecnológico, adentrar o labirinto da responsabilidade civil é como assistir a uma peça teatral complexa, repleta de enigmas jurídicos. A questão principal? "Quem é o culpado?" - uma incógnita mais intrigante do que os casos de Sherlock Holmes.

Vamos começar nosso drama nos palcos dos carros autônomos, onde a Tesla protagoniza uma cena legal digna de um Oscar. Recentemente, a empresa saiu triunfante de um processo, argumentando que, quando as coisas dão errado na estrada, a culpa é daquele amigo confiável chamado motorista. "Sorry, not sorry". Um enredo que nos leva a questionar: quem é o verdadeiro condutor nessa autopista legal?1

Entretanto, recentes desenvolvimentos lançam uma luz crítica sobre as práticas da Tesla. Uma juíza na Flórida descobriu "evidências razoáveis" de que o CEO Elon Musk e outros gestores tinham conhecimento das falhas no sistema Autopilot dos veículos da empresa, mas mesmo assim permitiram que os carros fossem conduzidos de maneira insegura.2

Essa revelação acrescenta uma nova camada de complexidade ao desafio de estabelecer um arcabouço legislativo abrangente, destacando a interseção crítica entre a responsabilidade legal e a ética no desenvolvimento e implementação da Inteligência Artificial em veículos autônomos.

Em 2018, um carro autônomo da Uber decidiu que podia fazer um "stunt" e atropelou uma pedestre. Resultado? Perguntas sobre quem paga a conta quando a IA está dirigindo e a necessidade de regras mais claras e seguras.3

Segundo especialistas norte-americanos, a lei tem sido relativamente lenta em regulamentar a IA, apesar de alguns precedentes a respeito da regulamentação de robôs computadorizados. Aqui desconsideremos o sistema jurídico em questão, mas em benefício do precedente, vale destacar o caso Jones v. W + M Automation, Inc., onde a queixa do demandante contra um fabricante e programador de um sistema de carregamento robótico por defeito do produto foi rejeitada pela Divisão de Apelações de Nova York.

Mas não pense que a trama se limita às estradas. No Canadá, um tribunal testemunhou um episódio inédito de Inteligência Artificial maquinando casos legais fictícios - um verdadeiro thriller jurídico na era digital4.

Nesse contexto, em seu relatório de final de ano, o Chefe de Justiça dos Estados Unidos, John G. Roberts Jr., alertou sobre a crescente influência da Inteligência Artificial5, especialmente no âmbito jurídico. Chamando-a de "a mais recente fronteira tecnológica", o Chefe de Justiça Roberts destacou o potencial transformador da IA na pesquisa jurídica, afirmando que métodos tradicionais podem em breve se tornar "inimagináveis" sem a assistência das tecnologias de IA.

Apesar de reconhecer sua capacidade de aprimorar o acesso à informação, ele enfatizou os riscos inerentes à IA, alertando sobre possíveis invasões de interesses de privacidade, e a desumanização da lei. As observações do Chefe de Justiça lançam luz sobre o delicado equilíbrio entre os notáveis avanços oferecidos pela IA e a necessidade premente de lidar com suas implicações éticas e sociais, especialmente no contexto jurídico.

Por isso, a discussão sobre a responsabilidade civil da Inteligência Artificial transcende os limites de uma única esfera jurídica, abrangendo uma ampla gama de setores industriais e tecnologias. A complexidade deste debate reside na natureza multifuncional da IA, que pode desempenhar papéis variados e impactar diversas áreas do direito.

Criar um arcabouço legislativo abrangente torna-se uma tarefa desafiadora, uma vez que uma única tecnologia pode influenciar relações jurídicas em setores tão diversos quanto o Direito do Consumidor, o Direito Marcário, o Direito Autoral, e, dentre outros, até mesmo aspectos da regulamentação para o uso da Internet e de proteção de dados. Diante dessa complexidade, torna-se evidente a necessidade de uma abordagem cuidadosa e flexível na formulação de normas legais que se adaptem à dinâmica e à diversidade do cenário da Inteligência Artificial.

Alguns estudiosos defendem que, mesmo diante do desafio de algumas questões relacionadas à Inteligência Artificial que ainda não se enquadram nos limites tradicionais das previsões normativas, é incumbência do intérprete desempenhar um papel proativo na busca por soluções.Argumentam, ainda, que é essencial que se empreendam esforços para encontrar fundamentos nos valores do ordenamento jurídico, de modo a elucidar, dentro dos institutos já estabelecidos pela civilística, respostas para os novos desafios apresentados pela Inteligência Artificial.

Surge, assim, a indagação sobre se as leis especializadas estão devidamente preparadas para abordar de maneira adequada a responsabilidade civil no âmbito da Inteligência Artificial.

No Brasil, o Código Civil assume o papel de diretor nesse drama, onde o ato ilícito se destaca como a estrela principal. Quem imaginaria que algoritmos precisariam de advogados? A definição de ato ilícito como uma ação imprudente da IA nos faz ponderar: serão os programadores os personagens principais dessa trama jurídica?

No cenário do consumidor, por exemplo, o Código de Defesa do Consumidor (CDC) surge como protagonista, impondo ao fornecedor a responsabilidade por falhas na entrega de produtos ou serviços, mesmo que a culpa não seja evidente. Em meio a debates sobre transparência e explicabilidade da IA, surge a indagação: as leis que regem a Inteligência Artificial conseguirão manter a responsabilidade civil nas relações com os consumidores em sintonia com as rápidas evoluções tecnológicas?

Enquanto isso, o Marco Civil da Internet (MCI) entra em cena quando conteúdos gerados por terceiros causam danos. A responsabilidade do provedor de internet pelos danos decorrentes de conteúdo gerado por IA é debatida em um terreno movediço, especialmente quando se trata de conteúdo impulsionado por algoritmos. O desafio reside na interseção entre tecnologia e responsabilidade civil, criando um enredo complexo e desafiador.

E os Bots nas redes sociais, que ao que tudo indica, estão agindo como cupidos diabólicos, espalhando mentiras e causando tumulto7. O conceito de notícia falsa por si só já é intrigante, mas a pergunta é: como controlar esses trapaceiros digitais e quem deve ser responsabilizado por seus truques?

Como diria Shakespeare, "ser IA ou não ser IA, eis a questão"!

Na esfera dos direitos autorais, a Lei de Direitos Autorais (LDA) introduz um ciclo de responsabilidade relacionado à produção criativa das IAs. Quem será responsável quando uma IA reproduzir obras sem autorização: o usuário autor, o programador ou a própria máquina? Enquanto o Departamento de Direitos Autorais dos EUA nega direitos autorais a selfies de animais não humanos, a dança entre humanos e algoritmos continua.8

No cenário do direito marcário, a responsabilidade assume contornos peculiares quando uma IA utiliza indevidamente uma marca registrada pertencente a terceiros. A identificação clara do responsável torna-se desafiadora, especialmente quando a máquina é autônoma em suas decisões. A recente decisão da Suprema Corte do Reino Unido, que negou à IA o status de 'inventor' de uma patente, adiciona mais complexidade a esse balé legal.9

A Lei Geral de Proteção de Dados (LGPD) emerge como uma sentinela quando uma IA lida com informações pessoais de maneira imprudente, negligente ou com violação de direitos. A LGPD estabelece regras claras sobre o tratamento de dados pessoais, tornando-se crucial em situações de coleta excessiva, uso não autorizado ou falhas de segurança em sistemas de IA. No entanto, será que a complexidade gerada pela autonomia algorítmica dificulta a atribuição de responsabilidade em casos de violações?

Enquanto pensamos em respostas, não é segredo que questões como discriminação, privacidade e acesso a benefícios sociais podem ser impactadas por decisões automatizadas, como evidenciado pelo caso da Amazon em 2018.

A Amazon e o Rekognition, um sistema de reconhecimento facial, causaram uma confusão ao identificar rostos de pessoas negras de forma discriminatória. Resultado? Acusações e até prisões injustas.10

A Amazon também resolveu entrar na área de recrutamento com uma ferramenta de IA, mas o resultado foi desastroso11. Parece que a Inteligência Artificial deles resolveu dar aquela forcinha extra para contratar homens em trabalhos técnicos, e as candidatas, principalmente as mulheres negras, acabaram sendo prejudicadas.

Temos que estar atentos até na privacidade de uma sala cirúrgica. Médicos agora têm companheiros de trabalho digitais, mas às vezes esses assistentes são péssimos conselheiros. Quem paga a conta quando uma IA dá um diagnóstico errado? A confiança dos médicos está em jogo.12

Mas pelo menos no setor financeiro. ledo engano, algoritmos financeiros estão brincando de casinha com nosso dinheiro. Quando não acertam o aconselhamento quem deve pagar a conta? A IA está virando a mesa nas finanças, mas às vezes derruba tudo.13

E tem muito mais acontecendo mundo afora. Na China, as câmeras estão trabalhando horas extras com o reconhecimento facial. Agora, temos um dilema ético sobre privacidade e liberdades individuais. A IA está sendo usada para o bem ou para o controle total?14

E parece que não estamos safos em local algum. Até os assistentes virtuais estão sendo mais curiosos do que deveriam, gravando conversas e infringindo a privacidade. Quem é o culpado: a empresa que fez o assistente ou nós que falamos demais?15

A moral da história é que a IA não está para brincadeira, e precisamos ficar de olho nela. Esses casos são apenas exemplos reais de como a Inteligência Artificial pode bagunçar a vida das pessoas de verdade. Ou seja, precisamos equilibrar o avanço tecnológico com uma proteção firme dos dados pessoais. Afinal, ninguém quer ser vítima de um sistema de reconhecimento que não consegue reconhecer alguém, né? Temos que ficar de olho, porque a IA é poderosa, mas nós também somos!

Ao navegar por este intrincado labirinto jurídico da Inteligência Artificial, é imperativo recordarmos a antiga máxima: "se a vida te oferecer dados desfavoráveis, faça uma piada." Pois, ao final do dia, mesmo com algoritmos e regulamentações, uma pitada de humor se revela como o mais eficaz escudo contra os desafios apresentados pela Inteligência Artificial. Que a dança prossiga, e que o ritmo seja sempre impregnado de graça!

No ano de 2023, o extenso relatório16 da CJSUBIA (Comissão Jurídica de Subsídios para IA no Brasil), que mais se assemelha a uma trilogia jurídica de Senhor dos Anéis, com mais de 900 páginas, foi transformado no PL 2338/2317, apresentado pelo Senador Rodrigo Pacheco. Parece que o Brasil decidiu ingressar no ringue da Inteligência Artificial de vez, agora amparado por juristas sérios.

A novidade? O Projeto de Lei estipula que, em caso de danos causados pela Inteligência Artificial, independentemente da independência do sistema, o responsável deverá arcar com os custos e remediar a situação. Para as IAs mais propensas a comportamentos questionáveis ou arriscados, a responsabilidade é direta e proporcional aos estragos causados pelo fornecedor. Quanto às IAs mais inofensivas, a culpa do agente causador é presumida, poupando a vítima de maiores encargos.

Entretanto, vale ressaltar que nem todos os infortúnios podem ser atribuídos à IA. Caso o agente prove que não colocou a IA em circulação, não se beneficiou dela ou que o estrago foi exclusivamente culpa da vítima ou do destino, então não haverá responsabilidade.

O Projeto de Lei também estabelece que as responsabilidades por danos em transações online seguem as diretrizes do Código de Defesa do Consumidor. Parece que a IA terá que aprender a jogar limpo e respeitar os direitos do consumidor.

Não obstante eventuais pensamentos discordantes sobre o regime escolhido pelo legislador brasileiro, é valioso reconhecer a importância das propostas de regulação avaliarem regras diferentes dependendo do quão arriscada é a tecnologia, considerando que níveis variados de risco exigem restrições proporcionais. E o PL, ao menos lista propósitos de uso considerados de alto risco, deixando a autoridade competente responsável por atualizar essa lista de acordo com critérios específicos.

No grandioso palco global, a União Europeia protagoniza uma marcha real através do AI Act, uma cavalgada legislativa destinada a manter a Inteligência Artificial sob guarda18. Quatro níveis de risco, assemelhando-se a um concurso de talentos, determinam quem emergirá como o grande vencedor da responsabilidade: de inaceitável a mínimo, colocando cada instância de IA em sua devida prateleira.

A Diretiva de Responsabilidade Civil da União Europeia para Inteligência Artificial procura estabelecer um sistema claro de responsabilidade19, presumindo que a IA seja responsável pelos danos causados. Especialmente para IAs consideradas de alto risco, a proposta insta os países membros a implementarem regulamentações mais rigorosas. Embora a diretiva ainda esteja em processo de negociação, evidencia-se a determinação do bloco europeu em criar uma legislação robusta para a Inteligência Artificial.

Os Estados Unidos, a terra do Tio Sam e das gigantes tecnológicas, estão imersos na corrida global da IA, mas até o momento, a única legislação federal é uma lei modesta de Nova York que exige auditorias de viés em processos de contratação automatizados.

A Casa Branca emitiu uma Ordem Executiva, acompanhada por um esboço de uma Carta de Direitos da IA, expressando preocupação com a discriminação, seja ela originada por humanos ou máquinas. Ao que parece, nos Estados Unidos, a legislação ainda está em um estágio incipiente, com cada estado formulando sua própria abordagem legislativa.

A FTC (Comissão Federal de Comércio) lançou inclusive um blog com diretrizes para usuários ou licenciadores de IA. A regra fundamental é a transparência, especialmente quando se trata de atribuir pontuações de crédito aos consumidores. A vigilância será uma virtude!

No entanto, é possível observar que as responsabilidades da Inteligência Artificial nos Estados Unidos estão evoluindo. Uma certeza se destaca: nos EUA, a determinação da responsabilidade de uma empresa pela sua IA está vinculada à presença de defeitos no momento do lançamento. Por outro lado, na União Europeia, a avaliação de responsabilidade está associada à classificação do risco da aplicação - com o Brasil mais alinhado ao percurso do bloco europeu.

Por falar na União Europeia, há por lá até discussões sobre conferir personalidade jurídica a robôs autônomos. Imaginem, robôs com números de CPF! Embora a discussão possa parecer peculiar, os europeus estão divididos entre os que enxergam isso como uma revolução e os que o veem como uma trama de ficção científica.

A verdade é que o futuro da IA assemelha-se a uma fusão entre Jurassic Park e Black Mirror. Alguns personagens jurássicos, interfaces cerebrais vestíveis, qubits lógicos em pleno funcionamento20, máquinas aprendendo a esquecer21 e até robôs que tentam compreender piadas. Parece que os legisladores terão que atualizar seu arsenal jurídico para lidar com tamanha revolução tecnológica.

E a empreitada em busca de uma legislação eficaz e equilibrada para a responsabilidade civil da Inteligência Artificial deve ser conduzida com cautela. Essa abordagem requer a incorporação de uma perspectiva flexível, que não apenas resguarde os interesses das vítimas, mas também estimule a inovação e o desenvolvimento tecnológico. A manutenção de um diálogo constante com a sociedade civil se revela crucial para abordar de maneira abrangente as complexidades e desafios associados a essa interseção entre evolução jurídica e progresso tecnológico.

Portanto, preparemo-nos, pois o futuro está prestes a desabrochar, repleto de robôs bem-humorados, leis intrincadas e, quem sabe, uma IA com número de identidade própria. Resta-nos apenas rir, participar do processo e aguardar para ver qual será o desfecho regulatório disso tudo.

___________

1 https://www.theguardian.com/technology/2023/oct/31/tesla-autopilot-crash-california#:~:text=Tesla%20on%20Tuesday%20won%20the,similar%20lawsuits%20across%20the%20country.

2 https://www.reuters.com/legal/judge-finds-evidence-that-tesla-musk-knew-about-autopilot-defect-2023-11-22/

3 https://brasil.elpais.com/brasil/2018/03/19/tecnologia/1521479089_032894.html

4 https://www.cbsnews.com/news/colombian-judge-uses-chatgpt-in-ruling-on-childs-medical-rights-case/

5 https://www.euronews.com/next/2024/01/01/ai-us-chief-justice-warns-of-technologys-potential-and-shortcomings-in-legal-profession

6 https://www.nexojornal.com.br/externo/2023/09/09/Os-desafios-para-regulamentar-o-uso-da-intelige%CC%82ncia-artificial

7 https://www.tecmundo.com.br/internet/136479-estudo-revela-bots-espalham-fake-news-massivamente-segundos.htm

8 https://www.theartnewspaper.com/2023/09/02/artificial-intelligence-lawsuit-decision-us-copyright-law

9 https://olhardigital.com.br/2023/12/20/pro/reino-unido-decide-que-ia-nao-pode-ser-nomeada-como-inventora/

10 https://www.theguardian.com/technology/2018/jul/26/amazon-facial-rekognition-congress-mugshots-aclu

11 https://www.theguardian.com/technology/2018/oct/10/amazon-hiring-ai-gender-bias-recruiting-engine

12 https://valor.globo.com/empresas/noticia/2023/03/20/quem-vai-pagar-pelos-erros-medicos-da-inteligencia-artificial.ghtml

13 https://www.infomoney.com.br/mercados/errar-e-humano-e-robotico/

14 https://www.estadao.com.br/internacional/hipervigilancia-da-china-causa-preocupacao-no-ocidente-mas-cidadaos-veem-como-natural-e-segura/

15 https://gauchazh.clicrbs.com.br/tecnologia/noticia/2019/07/google-admite-que-grava-e-ouve-conversas-do-seu-assistente-virtual-com-os-usuarios-cjy028oiw00yb01pix2pzbglx.html

16 https://www.stj.jus.br/sites/portalp/SiteAssets/documentos/noticias/Relato%CC%81rio%20final%20CJSUBIA.pdf

17 https://www25.senado.leg.br/web/atividade/materias/-/materia/157233

18 https://commission.europa.eu/publications/white-paper-artificial-intelligence-european-approach-excellence-and-trust_en

19 https://commission.europa.eu/business-economy-euro/doing-business-eu/contract-rules/digital-contracts/liability-rules-artificial-intelligence_en

20 https://br.cointelegraph.com/news/harvard-scientists-darpa-mit-breakthrough-advent-of-early-error-corrected-quantum-computation

21 https://www.google.com/url?q=https://www.mundoconectado.com.br/google/google-lanca-o-primeiro-desafio-de-desaprendizado-de-maquina/&sa=D&source=docs&ust=1706148299003166&usg=AOvVaw1XohlLddJ203v6KiCANHvx 

Rafael Batista

Rafael Batista

Advogado e estudante de MBA pela USP, com ênfase em estudos sobre Inteligência Artificial.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca