MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Migalhas de peso >
  4. Implicações legais para organizações que desenvolvem e utilizam sistemas de IA

Implicações legais para organizações que desenvolvem e utilizam sistemas de IA

Questões legais que afetam as organizações envolvidas no desenvolvimento e utilização de sistemas de IA, com foco na complexidade regulatória que surge com a adoção dessa tecnologia.

segunda-feira, 7 de outubro de 2024

Atualizado às 14:12

O avanço tecnológico tem transformado diversos setores da economia, com a IA - Inteligência Artificial  sendo uma das principais ferramentas disruptivas. As organizações que desenvolvem e utilizam sistemas de IA encontram-se na vanguarda dessa transformação, mas, ao mesmo tempo, enfrentam uma série de desafios legais e éticos. O uso dessas tecnologias levanta questões complexas sobre responsabilidade civil, proteção de dados, discriminação algorítmica, e conformidade regulatória, exigindo das empresas uma cuidadosa análise jurídica para evitar riscos.

O uso de IA por empresas pode ocorrer em várias formas, desde sistemas de automação até algoritmos complexos de tomada de decisão. Do ponto de vista jurídico, esses sistemas podem afetar vários campos do direito, como o direito civil, o direito do consumidor, o direito à privacidade, e a regulação antidiscriminatória.

Todavia, o principal desafio legal reside no fato de que as legislações existentes não foram criadas com as peculiaridades da IA em mente. Muitas jurisdições ainda estão em fase de discussão e desenvolvimento de uma regulamentação específica para IA, deixando as empresas em um cenário de incerteza sobre como suas atividades serão reguladas no futuro.

Em países como o Brasil, a ausência de uma regulamentação específica sobre IA implica na aplicação de normas gerais, como o CC, o CDC e a LGPD - Lei Geral de Proteção de Dados Pessoais, por exemplo. Em outros contextos, como na União Europeia, os desenvolvimentos legislativos têm se concentrado no  GDPR - Regulamento Geral sobre a Proteção de Dados e em propostas específicas, como o regulamento europeu de inteligência artificial (AI Act). Organizações que desenvolvem e utilizam IA devem, portanto, estar atentas à sobreposição de diferentes regimes jurídicos e à forma como suas atividades podem ser interpretadas à luz das legislações atuais.

Um dos principais riscos enfrentados por empresas que desenvolvem sistemas de IA é a responsabilidade por danos causados por defeitos de software ou erros cometidos por algoritmos. A responsabilidade civil pode se aplicar tanto na forma objetiva quanto subjetiva, dependendo da natureza do sistema e da legislação local. Como exemplo prático, podemos citar a Tesla e veículos autônomos. Em 2021, um acidente fatal envolvendo um carro autônomo da Tesla nos EUA levantou questões sobre a responsabilidade da empresa. A investigação preliminar indicou que o sistema Autopilot estava em uso no momento do acidente, o que trouxe à tona a discussão sobre se a Tesla deveria ser responsabilizada por falhas no software de direção autônoma. A complexidade do caso envolveu, também, a análise de até que ponto os motoristas confiam excessivamente em sistemas autônomos e como as empresas devem educar seus consumidores sobre o uso correto dessas tecnologias.

Outro risco significativo envolve a discriminação algorítmica, eis que muitos sistemas de IA utilizam aprendizado de máquina baseado em grandes volumes de dados históricos, o que pode resultar na perpetuação de vieses preexistentes. Empresas que utilizam IA para decisões relacionadas a emprego, crédito, ou até mesmo para análise de consumidores podem ser acusadas de práticas discriminatórias caso seus algoritmos resultem em decisões enviesadas. Como exemplo prático, podemos citar o caso da Amazon e seu sistema de recrutamento automatizado. Em 2018, foi revelado que o sistema de IA utilizado pela Amazon para selecionar currículos discriminava mulheres, uma vez que o algoritmo, treinado com dados históricos, "aprendeu" a priorizar candidatos do sexo masculino, baseando-se nos perfis predominantes em setores historicamente masculinizados. Este caso exemplifica como o uso inadequado de IA pode levar à responsabilização legal por discriminação, especialmente em mercados como o de trabalho, que têm regulações rígidas contra práticas discriminatórias.

A proteção de dados pessoais é um campo em que o uso de IA apresenta grandes desafios, já que algoritmos que analisam dados de usuários para criar perfis ou prever comportamentos muitas vezes precisam lidar com grandes quantidades de informações pessoais, o que levanta questões de conformidade com legislações de privacidade e de proteção de dados, como a LGPD no Brasil e o GDPR na Europa. Como exemplo prático, trazemos o caso da Clearview AI e reconhecimento facial. A Clearview AI, uma empresa que desenvolve tecnologia de reconhecimento facial, enfrentou uma série de processos e investigações em vários países por violar leis de privacidade. A organização foi acusada de coletar fotos de pessoas sem o consentimento adequado e de usá-las em seu banco de dados para vender serviços de reconhecimento facial a governos e empresas. O caso evidenciou o risco que empresas de IA enfrentam ao lidar com dados sensíveis sem o cumprimento rigoroso das normas de proteção de dados.

Também, organizações que utilizam IA em setores regulados, como saúde, finanças e transportes, enfrentam desafios adicionais relacionados à conformidade com regulamentos setoriais específicos. A adoção de IA nesses setores deve seguir normas rigorosas para garantir a segurança, a equidade e a proteção dos direitos dos consumidores e pacientes. Como exemplo prático, temos a IBM Watson Health, que foi criticada por alegações de que seu sistema de IA de suporte à decisão médica oferecia recomendações incorretas ou não confiáveis para tratamentos contra o câncer. O uso de IA no setor de saúde é altamente regulado, e falhas como essa podem levar a implicações legais severas, especialmente se resultar em danos aos pacientes. As empresas que desenvolvem tecnologias para a saúde precisam, portanto, garantir a validação rigorosa de seus sistemas antes da implementação.

Em que pese as empresas estarem sujeitas a várias legislações existentes, muitos desafios permanecem em relação à regulação de IA. A principal dificuldade está em equilibrar a necessidade de inovação com a proteção dos direitos dos cidadãos e consumidores. Agentes reguladores estão enfrentando o desafio de criar normas que sejam ao mesmo tempo flexíveis e eficazes para tratar das especificidades da IA.

A União Europeia tem liderado o debate sobre a regulação da IA com o regulamento Europeu de IA, que classifica os sistemas de IA em diferentes categorias de risco (baixo, médio e alto) e impõe obrigações específicas para cada categoria, com foco na segurança, transparência e supervisão humana. Tal regulamento pode servir de modelo para outras jurisdições e afetará diretamente as empresas que desenvolvem e utilizam IA dentro da União Europeia, exigindo conformidade com padrões rigorosos para evitar sanções e multas.

No Brasil, a discussão sobre uma legislação específica para IA ainda está em andamento, com destaque para o PL - Projeto de Lei 21/20, que estabelece diretrizes para o desenvolvimento e uso de sistemas de IA no país, buscando promover a inovação ao mesmo tempo em que protege os direitos fundamentais, incluindo a privacidade, a não discriminação e a segurança. Ainda, há o PL 2.338/23, que regulamenta o desenvolvimento e o uso da IA no Brasil, estabelecendo princípios e direitos sobre a IA, e obrigando o fornecedor ou operador de sistema de IA a reparar integralmente qualquer dano causado.

Diante disso, organizações que operam no Brasil ou que utilizam IA no país devem acompanhar de perto os andamentos dos referidos PLs, pois ambos poderão impactar diretamente suas operações e estratégias de conformidade.

Logo é notório que a regulação da IA está em processo de desenvolvimento em várias jurisdições, e empresas que buscam estar na vanguarda da inovação precisam também investir em estratégias robustas de compliance e gestão de riscos jurídicos. À medida que o ambiente regulatório evolui, será crucial para as organizações manterem-se atualizadas e prontas para adaptar suas práticas, minimizando os riscos legais e reputacionais enquanto aproveitam as oportunidades trazidas pelo uso de IA em seu dia a dia.

Mariana Sbaite Gonçalves

Mariana Sbaite Gonçalves

Advogada especialista em privacidade, CIPM/IAPP, CDPO/IAPP, DPO/EXIN, AI governance Manager, Coautora dos livros "LGPD e Cartórios" e "Mulheres na Tecnologia" e mestranda em Science in Legal Studies.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca