A incorporação de sistemas de inteligência artificial à prática médica vem alterando progressivamente a estrutura tradicional da tomada de decisões clínicas. Ferramentas de auxílio diagnóstico, softwares de interpretação automatizada de exames, algoritmos preditivos, sistemas de triagem e plataformas de apoio terapêutico passaram a integrar, de maneira cada vez mais intensa, a rotina hospitalar contemporânea. Em poucos anos, a inteligência artificial deixou de ocupar posição meramente experimental para assumir protagonismo relevante dentro da dinâmica assistencial, influenciando diretamente condutas médicas, fluxos hospitalares e estratégias de gestão em saúde.
Esse fenômeno, embora represente avanço tecnológico expressivo, inaugura também uma das mais complexas discussões jurídicas da medicina contemporânea: afinal, quem responde pelo erro decorrente da utilização de sistemas algorítmicos na prática médica?
A questão ganha especial relevância porque a lógica tradicional da responsabilidade médica foi historicamente construída sobre a premissa de uma atuação essencialmente humana. O Direito sempre operou a partir da ideia de que o ato médico decorre da manifestação intelectual e técnica direta do profissional de saúde, circunstância que permitia identificar, com relativa clareza, os elementos subjetivos da conduta, o nexo causal e os limites da imputação jurídica. A expansão da inteligência artificial altera profundamente essa estrutura, criando um ambiente decisório híbrido, no qual a atuação humana passa a coexistir com recomendações automatizadas produzidas por sistemas cuja lógica interna, muitas vezes, sequer é plenamente compreendida por seus próprios usuários.
É justamente nesse ponto que emerge uma das maiores inquietações jurídicas relacionadas à chamada “medicina orientada por algoritmos”. Em muitos casos, os sistemas de inteligência artificial operam mediante mecanismos de aprendizado de máquina cuja capacidade de processamento supera significativamente a compreensão técnica do profissional que os utiliza. O médico recebe uma sugestão diagnóstica, uma classificação de risco ou uma recomendação terapêutica produzida por um sistema estatístico altamente sofisticado, mas nem sempre possui condições concretas de compreender integralmente os critérios internos utilizados pelo algoritmo para chegar àquela conclusão.
Forma-se, assim, um cenário de opacidade decisória que desafia categorias jurídicas clássicas da responsabilidade civil, penal e ética.
Embora o avanço tecnológico frequentemente seja acompanhado pelo discurso de aumento da segurança assistencial, redução de falhas humanas e otimização diagnóstica, é juridicamente equivocado imaginar que a incorporação da inteligência artificial transfira automaticamente ao sistema tecnológico a responsabilidade pelos eventos adversos eventualmente produzidos. Ao menos sob a perspectiva normativa atualmente vigente no Brasil, a utilização da inteligência artificial permanece subordinada ao dever de supervisão humana, circunstância que mantém o médico em posição central dentro da estrutura de responsabilização jurídica.
Isso ocorre porque a inteligência artificial, no atual estágio regulatório brasileiro, não possui autonomia jurídica própria. O algoritmo não assume responsabilidade ética, não responde disciplinarmente perante Conselhos Profissionais, não possui culpabilidade penal e tampouco pode ocupar posição subjetiva dentro da relação processual sancionatória. A consequência prática dessa realidade é relativamente clara: diante da ocorrência de dano ao paciente, a tendência inicial das estruturas de responsabilização continuará recaindo sobre os agentes humanos envolvidos na cadeia assistencial.
O problema, contudo, torna-se substancialmente mais complexo quando se observa que a própria lógica operacional dos sistemas algorítmicos pode influenciar diretamente a formação da convicção médica. Em determinadas situações, sobretudo em ambientes hospitalares de alta demanda, o profissional passa a confiar intensamente na acurácia estatística do sistema tecnológico, incorporando suas recomendações como elemento central da tomada de decisão clínica. Surge, então, o risco da chamada automatização acrítica da conduta médica, fenômeno em que o médico gradualmente reduz sua autonomia intelectual em razão da crescente dependência tecnológica.
Sob essa perspectiva, o debate jurídico ultrapassa a mera análise do erro individual e passa a envolver uma discussão estrutural sobre os limites éticos da delegação decisória às tecnologias algorítmicas.
A questão torna-se ainda mais delicada quando se analisa a possibilidade de responsabilização penal decorrente da utilização inadequada desses sistemas. No campo criminal, a imputação exige demonstração concreta de culpa, previsibilidade objetiva e nexo causal entre a conduta do profissional e o resultado lesivo produzido. Entretanto, em ambientes tecnologicamente mediados, a própria identificação da origem do erro pode revelar-se extremamente difícil. O evento adverso decorreu de falha médica? De deficiência do software? De alimentação inadequada do sistema? De erro estatístico do algoritmo? De falha estrutural hospitalar? Ou da interação simultânea entre todos esses fatores?
Essa fragmentação causal desafia diretamente os modelos clássicos de imputação penal.
Não parece juridicamente adequado, por exemplo, atribuir automaticamente ao médico toda responsabilidade decorrente de falhas produzidas por sistemas cuja arquitetura técnica extrapola sua própria capacidade de compreensão operacional. Ao mesmo tempo, também não se mostra razoável admitir completa exoneração de responsabilidade do profissional que, de maneira acrítica, delega integralmente sua atividade intelectual ao sistema automatizado.
A tendência contemporânea, portanto, aponta para modelos de responsabilidade compartilhada, envolvendo não apenas o profissional médico, mas também hospitais, operadoras de saúde, empresas desenvolvedoras de tecnologia e instituições responsáveis pela implementação dos sistemas algorítmicos.
Essa perspectiva ganha ainda mais relevância diante da crescente utilização de inteligência artificial em atividades de triagem, classificação de risco e definição de prioridade assistencial. Em cenários de urgência e emergência, pequenos desvios algorítmicos podem produzir consequências clínicas extremamente graves, especialmente quando associados à superlotação hospitalar e à precarização estrutural do sistema de saúde. Nesses contextos, o risco de transferência indevida da responsabilidade sistêmica ao profissional individual torna-se particularmente elevado.
Além disso, a utilização massiva de inteligência artificial na medicina também provoca importantes reflexões relacionadas à proteção de dados pessoais sensíveis. Os sistemas algorítmicos operam mediante processamento de grande volume de informações médicas, circunstância que impõe incidência direta da lei Geral de Proteção de Dados Pessoais. O tratamento automatizado de dados clínicos, especialmente em plataformas privadas de inteligência artificial, levanta discussões relevantes acerca de consentimento informado, compartilhamento de informações sensíveis, segurança digital e responsabilidade por vazamentos de dados médicos.
Não por outra razão, a discussão contemporânea sobre inteligência artificial na medicina deixou de ocupar espaço periférico dentro do debate jurídico. Trata-se, em verdade, de uma transformação estrutural da própria lógica assistencial contemporânea, capaz de alterar profundamente os critérios tradicionais de responsabilização profissional, autonomia médica e controle ético da atividade médica.
A medicina contemporânea ingressa, gradualmente, em uma realidade marcada pela coexistência entre decisão humana e processamento algorítmico. Entretanto, embora a tecnologia avance em velocidade exponencial, o Direito ainda busca compreender quais serão os limites jurídicos dessa nova arquitetura decisória. Até que surjam modelos regulatórios mais claros e específicos, permanece indispensável preservar a centralidade da supervisão humana, evitando que a promessa de eficiência tecnológica produza progressivo esvaziamento da autonomia médica e das garantias fundamentais relacionadas à responsabilização jurídica.
O direito como sendo uma ciência humana, acompanha as mudanças sociais, adaptando-se para melhor atender a sociedade, este tema como é ainda muito recente não possui implicância na jurisprudência pátria, não havendo ainda a formação de entendimento sobre tão delicado ponto.
Ao final, talvez a pergunta mais relevante não seja propriamente quem responderá pelo erro da inteligência artificial, mas sim até que ponto a sociedade contemporânea está disposta a transferir às máquinas decisões que historicamente pertenciam à esfera ética, técnica e humana da medicina.