Migalhas de Direito Médico e Bioética

Inteligência Artificial e Direito Médico: Os impactos do anteprojeto de Marco Legal da IA do Senado Federal

No último dia 6 de dezembro, a Comissão de Juristas do Senado Federal entregou ao presidente da Casa, senador Rodrigo Pacheco, o anteprojeto do texto para regular a Inteligência Artificial no Brasil.

9/12/2022

No último dia 6 de dezembro, a Comissão de Juristas do Senado Federal, da qual tive a honra de fazer parte como membro, entregou ao Presidente da Casa, senador Rodrigo Pacheco, o anteprojeto do texto para regular a Inteligência Artificial no Brasil. Sob presidência do Ministro do STJ Ricardo Villas Bôas Cueva e relatoria da Professora Laura Schertel Mendes, o texto é fruto do intenso trabalho da Comissão ao longo dos últimos meses, contando com ampla participação de diversos setores da academia, mercado e sociedade civil por meio de audiências públicas e seminário internacional. O presente artigo não se revela, sob nenhuma circunstância, em manifestação de caráter institucional, nem pretende fazer uma defesa do texto apresentado. Seu único objetivo é fornecer alguns subsídios para o debate que continua agora que o anteprojeto foi entregue ao Senado Federal. Quais são os seus possíveis impactos para o Direito Médico?

O texto, como dispõe seu artigo 1º, "estabelece normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico." Tem-se, assim, como grandes pilares a centralidade da pessoa humana e a preocupação com a concretização de direitos, ao mesmo tempo em que se busca estabelecer diretrizes mínimas para a governança em relação à utilização desta tecnologia que se espraia pelos mais diversos meios da vida social.

Os avanços da Inteligência Artificial no campo da Saúde têm sido amplamente difundidos, assim como os seus riscos. Algoritmos inteligentes atuam na prevenção de doenças, no diagnóstico e, até mesmo, na escolha das terapêuticas mais adequadas. A IA aplicada à robótica já é capaz de performar atos cirúrgicos que demandam intensa precisão1, sem mencionar a assistência à saúde em sentido amplo, que abrange, por exemplo, os tão difundidos robôs cuidadores. Nos exames, veja-se o caso do "Dio.io", criado pela sociedade empresária Healthy.io em parceria com a Siemens Healthineers, que "permite que pacientes possam fazer seu exame de urina no conforto de suas casas. Aprovado recentemente pela agência norte-americana de fármacos FDA, o produto é um é um kit que coleta e analisa amostras com ajuda de machine learning e visão computacional."2

No entanto, apesar dos inúmeros e inequívocos avanços proporcionados pela Inteligência Artificial na área, não há como escapar dos eventuais danos aos pacientes, nem mesmo de dilemáticas questões éticas, que desafiam a cada dia mais a relação médico-paciente. Apesar de não contar com regulação específica sobre as aplicações da Inteligência Artificial na Saúde, o anteprojeto apresentado pela Comissão de Juristas prevê a adoção de algumas normas com significativa repercussão.

Em primeiro lugar, destaca-se que o anteprojeto se estrutura numa abordagem de regulação da Inteligência Artificial a partir dos riscos. Em seus artigos 14 a 16, disciplina o chamado "risco excessivo", que, no fundo, abrange aquilo que na dogmática europeia tem sido referido por vezes como "risco inaceitável". Trata-se, em última análise, de aplicações vedadas pela legislação, já que o ordenamento jurídico pátrio não as toleraria. Como exemplos, pode-se citar os sistemas de IA3: "que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir a pessoa natural a se comportar de forma prejudicial ou perigosa à sua saúde ou segurança ou contra os fundamentos desta lei" (art. 14, inciso I); "que explorem quaisquer vulnerabilidades de um grupo específico de pessoas naturais, tais como associadas à sua idade ou deficiência física ou mental, de modo a induzi-las a se comportar de forma prejudicial à sua saúde ou segurança ou contra os fundamentos desta lei" (art. 14, inciso II) e que sejam utilizadas "pelo poder público para avaliar, classificar ou ranquear as pessoas naturais, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional (art. 14, inciso III)".

Além do risco excessivo, o anteprojeto disciplina, em seus artigos 17 e 18 os chamados sistemas de IA de "alto risco", descritos taxativamente em hipóteses atualizáveis pela autoridade competente4 – a ser designada por lei – por meio da observância de critérios descritos no artigo 18. E é precisamente no "alto risco" que o anteprojeto enquadra os sistemas de IA utilizados para as finalidades de "aplicações na área da saúde, inclusive as destinadas a auxiliar diagnósticos e procedimentos médicos" (artigo 17, inciso IX).

São grandes os impactos da previsão deste inciso (de natureza exemplificativa, haja vista o emprego do vocábulo "inclusive") no rol dos sistemas de IA de alto risco, tanto para a governança, como também para a Responsabilidade Civil. Um primeiro impacto mais imediato reside na exigência de que a "documentação técnica de um sistema de IA de alto risco deve ser elaborada antes da disponibilização no mercado ou de seu uso para prestação de serviço e deve ser mantida atualizada durante sua utilização." (artigo 19, §2º). Além disso, prevê o artigo 20 uma série de outras medidas de governança, a exemplo de testagem, medidas de gestão de dados para mitigar e prevenir vieses discriminatórios, bem como a supervisão humana efetiva (effective human oversight), que abrange até mesmo o dever de considerar o chamado automation bias ou viés de automação, que consistiria na “ciência da possível tendência para confiar automaticamente ou confiar excessivamente no resultado produzido pelo sistema de IA" (artigo 20, § único, inciso II). Ainda em termos de governança, o artigo 7º prevê que as "[p]essoas afetadas por sistemas de inteligência artificial têm o direito de receber, previamente à contratação ou utilização do serviço de IA, informações claras e adequadas quanto" às "as medidas de segurança, não-discriminação e confiabilidade adotadas, incluindo acurácia, precisão e cobertura" (inciso VI).

Digna de nota também é a regra relativa à chamada "avaliação de impacto algorítmico de sistema de IA", que, segundo disposto no artigo 22, será obrigatória aos agentes de IA "sempre que o sistema for considerado como de alto risco pela avaliação preliminar." Além disso, conforme previsão do parágrafo único do dispositivo, "[a] autoridade competente deverá ser notificada sobre o sistema de alto risco, mediante o compartilhamento da avaliação preliminar e de impacto algorítmico." Por derradeiro, o artigo 43 prevê que "[c]abe à autoridade competente a criação e manutenção de uma base de dados de IA de alto risco, acessível ao público, que contenha os documentos públicos das avaliações de impacto, respeitados os segredos comercial e industrial, nos termos do regulamento."

Em relação ao regime de responsabilidade civil,5 o anteprojeto acabou por realizar um duplo recorte: objetivo e subjetivo. Assim, objetivamente, confere-se resposta distinta a depender do grau de risco da IA e, subjetivamente, o regime legal aplica-se apenas aos fornecedores e operadores de IA, descritos pela lei como "agentes de IA".6 Com efeito, para danos causados por agentes de IA que operem sistemas de alto risco ou risco excessivo, o regime de responsabilidade civil será de natureza objetiva. Para os demais níveis de risco, o regime terá natureza subjetiva com presunção de culpa e inversão do ônus da prova em favor da vítima do dano. Os agentes de IA, segundo o artigo 28, somente não serão responsabilizados quando: "I - comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de IA; II - comprovarem que o dano é decorrente de fato exclusivo da vítima ou de terceiro, assim como de caso fortuito externo."

Nada obstante, segundo previsão expressa do artigo 29, "As hipóteses de responsabilização civil decorrentes de danos causados por sistemas de IA no âmbito das relações de consumo permanecem sujeitas às regras previstas no Código de Defesa do Consumidor, sem prejuízo da aplicação das demais normas desta Lei." Ademais, os usuários de IA que não se enquadrem nos conceitos de fornecedor e operador continuarão regidos pela legislação pertinente, a exemplo do que ocorrerá com o Estado, que tem seu regime de responsabilizado fixado pelo parágrafo 6º do artigo 37 da Constituição da República. Como consequência, danos causados por hospitais e médicos em relação aos pacientes, em princípio, continuarão regidos pelas normas consumeristas. Vislumbra-se aplicação do regime do anteprojeto, por exemplo, em casos de litigância entre agentes empresariais, como entre hospitais que forneçam tecnologias uns para os outros, havendo sempre que se verificar a existência de vulnerabilidade apta a atrair a incidência da legislação consumerista.

Outros destaques ainda podem ser feitos para o Direito Médico. Em especial, ganham relevo a centralidade do ser humano e os direitos associados à informação, além dos seguintes princípios elencados ao longo do rol do artigo 3º: autodeterminação e liberdade de decisão e escolha; participação humana no ciclo da inteligência artificial e supervisão humana efetiva; não discriminação; transparência, explicabilidade, inteligibilidade e auditabilidade; prestação de contas, responsabilização e reparação integral de danos; prevenção, precaução e mitigação de riscos sistêmicos derivados de usos intencionais ou não intencionais e efeitos não previstos de sistemas de inteligência artificial; não maleficência e proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas dos sistemas de inteligência artificial.

O princípio da não maleficência, colhido da bioética, tem relevante aplicação para o Direito Médico, assim como a necessidade de inteligibilidade. Esta última se projeta, por exemplo, no consentimento livre, esclarecido e informado dos pacientes que devem ser amplamente advertidos quando o tratamento envolver alguma ferramenta de Inteligência Artificial. Tal princípio ainda se projeta e se aprofunda ao longo da lei por meio de disposições como a do artigo 7º, §3º, segundo a qual: "Os sistemas de IA que se destinem a grupos vulneráveis, tais como crianças, adolescentes, idosos e pessoas com deficiência, devem ser desenvolvidos de tal modo que essas pessoas consigam entender o seu funcionamento e seus direitos em face dos agentes de IA." No fundo, não basta que um idoso saiba que está sendo operado por um robô que utilize IA: é preciso que inequivocamente compreenda o que isso significa, bem como os seus direitos.

Outrossim, merece atenção o artigo 11, segundo o qual: "[e]m cenários nos quais as decisões, previsões ou recomendações geradas por sistemas de IA tenham um impacto irreversível ou de difícil reversão ou envolvam decisões que podem gerar riscos à vida ou à integridade física de indivíduos, deve haver envolvimento humano significativo no processo decisório e determinação humana final." Sobre este artigo deverá se debruçar a doutrina do Direito Médico e a jurisprudência, a fim de interpretar como conciliar a norma com a eventual realização de cirurgias robóticas. Deve-se, assim, construir padrões de governança e boas práticas que tenham em primeiro plano sempre os princípios éticos que governam a relação médico-paciente.

Como se pode notar nas tímidas considerações deste brevíssimo artigo, o anteprojeto apresentado pela Comissão de Juristas inaugura importante debate na seara legislativa, que agora tende a ser aprofundado com a tramitação no Congresso Nacional. Não há dúvidas de que o texto avança em pontos sensíveis, buscando concretizar direitos e garantias mínimas para o desenvolvimento tecnológico seguro e que tenha a pessoa humana em seu centro. Resta aguardar os próximos passos.

__________

1 KFOURI NETO, Miguel; NOGAROLI, Rafaella. Responsabilidade civil pelo inadimplemento do dever de informação na cirurgia robótica e telecirurgia: uma abordagem de direito comparado (Estados Unidos, União Europeia e Brasil). In: KFOURI NETO, Miguel; NOGAROLI, Rafaella (Coord.). Debates contemporâneos em direito médico e da saúde. São Paulo: Thomson Reuters Brasil, 2020.

2 ALVEZ, Rafael. 5 aplicações da Inteligência Artificial na Medicina. Portal Telemedicina. 30 nov. 2018. Disponível aqui. Acesso em 12 out. 2022.

3 "Art. 4º. Para as finalidades desta Lei, adotam-se as seguintes definições:

I - sistema de inteligência artificial (IA): sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões, que possam influenciar o ambiente virtual ou real. (...)"

4 "Art. 4º. Para as finalidades desta Lei, adotam-se as seguintes definições: (...)

V - autoridade competente: órgão ou entidade da Administração Pública Federal responsável por zelar, implementar e fiscalizar o cumprimento desta Lei em todo o território nacional; (...)"

5 Em visão mais aprofundada sobre os impactos para a Responsabilidade Civil, consinta-se remeter a MEDON, Filipe. Inteligência Artificial e Responsabilidade Civil: autonomia, riscos e solidariedade. São Paulo: Juspodivm, 2022, 2. ed. (3ª edição a ser publicada no primeiro semestre de 2023).

6 "Artigo 4º: (...)

II - fornecedor de sistema de IA: pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva um sistema de IA, diretamente ou por encomenda, com vistas à sua colocação no mercado ou sua aplicação em serviço por ela fornecido, sob seu próprio nome ou marca, a título oneroso ou gratuito;

III - operador de sistema de IA: pessoa natural ou jurídica, de natureza pública ou privada, que empregue ou utilize, em seu nome ou benefício, sistema de IA, salvo se o sistema de IA for utilizado no âmbito de uma atividade pessoal de caráter não profissional.

IV - agentes de IA: o fornecedor de sistema de IA e o operador de sistema de IA."

Veja mais no portal
cadastre-se, comente, saiba mais

Colunistas

Fernanda Schaefer tem pós-Doutorado no Programa de Pós-Graduação Stricto Sensu em Bioética da PUC/PR, bolsista CAPES. Doutorado em Direito das Relações Sociais na UFPR, curso em que realizou Doutorado Sanduíche nas Universidades do País Basco e Universidade de Deusto (Espanha) como bolsista CAPES. Professora do UniCuritiba. Coordenadora do Curso de Pós-Graduação em Direito Médico e da Saúde da PUC/PR. Assessora Jurídica CAOP Saúde MP/PR.

Igor de Lucena Mascarenhas é advogado e professor universitário nos cursos de Direito e Medicina (UFPB / UNIFIP). Doutorando em Direito pela UFBA e doutorando em Direito pela UFPR. Mestre em Ciências Jurídicas pela UFPB. Especialista em Direito da Medicina pelo Centro de Direito Biomédico vinculado à Faculdade de Direito da Universidade de Coimbra.

Miguel Kfouri Neto é desembargador do TJ/PR. Pós-doutor em Ciências Jurídico-Civis junto à Faculdade de Direito da Universidade de Lisboa. Doutor em Direito das Relações Sociais pela PUC/SP. Mestre em Direito das Relações Sociais pela UEL. Bacharel em Direito pela Universidade Estadual de Maringá. Licenciado em Letras-Português pela PUC/PR. Professor-Doutor integrante do Corpo Docente Permanente do Programa de Doutorado e Mestrado em Direito Empresarial e Cidadania do Centro Universitário Curitiba (UNICURITIBA). Coordenador do grupo de pesquisas "Direito da Saúde e Empresas Médicas" (UNICURITIBA). Membro da Comissão de Direito Médico do Conselho Federal de Medicina.

Rafaella Nogaroli é assessora de desembargador no TJ/PR. Mestre em Direito das Relações Sociais pela UFPR. Especialista em Direito Aplicado, Direito Processual Civil e Direito Médico. Supervisora acadêmica do curso de especialização em direito médico e bioética da EBRADI. Coordenadora do grupo de pesquisas "Direito da Saúde e Empresas Médicas" (UNICURITIBA), ao lado do prof. Miguel Kfouri Neto. Diretora adjunta e membro do IBERC.

Wendell Lopes Barbosa de Souza é juiz de Direito do TJ/SP desde 2003 e Membro Titular da COMESP (Coordenadoria Estadual da Mulher em Situação de Violência Doméstica e Familiar do TJ/SP). Pós-doutor e professor da temática "Feminicídio" na pós em "Direitos Humanos, Saúde e Justiça" pelo POSCOHR, sediado na Faculdade de Medicina da Universidade de Coimbra. Especialista em Direito Penal pela Escola Paulista da Magistratura. Mestre e doutor em Direito Civil Comparado pela PUC/SP. Pesquisa e Curso de Introdução ao Direito Americano na Fordham University – NY/EUA. Professor em diversas instituições. Autor de livro e publicações. MBA Executivo em Gestão da Saúde pela FGV.