Breves reflexões sobre a regulamentação da inteligência artificial na medicina a partir da resolução CFM 2.454/26
quarta-feira, 4 de março de 2026
Atualizado em 3 de março de 2026 09:40
No dia 27 de fevereiro de 2026, foi publicada a resolução CFM 2.454/26, por meio da qual o Conselho Federal de Medicina passou a normatizar, de forma específica e sistematizada, o uso da IA - inteligência artificial na prática médica. Trata-se de um marco regulatório relevante no cenário brasileiro, pois estabelece parâmetros éticos, deveres profissionais e diretrizes de governança voltados à incorporação de sistemas decisionais automatizados no cuidado em saúde.
Propomos, neste estudo, analisar o documento sob uma perspectiva sistemática, organizando seus dispositivos em três eixos estruturantes que permitam compreender o ato normativo e sua inserção no debate contemporâneo internacional sobre responsabilidade médica na era da IA. A leitura aqui proposta parte da premissa de que a resolução não deve ser interpretada como um conjunto fragmentado de comandos, mas sim uma arquitetura regulatória integrada, estruturada a partir de três núcleos interdependentes: 1) a preservação da autonomia decisória do paciente, do médico e da sua responsabilidade ética indeclinável; 2) o reforço dos deveres de transparência algorítmica, informação e esclarecimento na relação assistencial; e 3) a institucionalização de mecanismos de governança, vigilância contínua e accountability voltados à gestão preventiva dos riscos tecnológicos em saúde.
A tabela evidencia que a Resolução projeta uma visão sistêmica da governança tecnológica na medicina, ao articular fundamentos, autonomia decisória, transparência, vigilância e gestão de risco. O texto consolida, assim, um modelo de responsabilidade profissional fortemente orientado pela prevenção e proteção de direitos fundamentais.
Essa construção dialoga diretamente com reflexões já desenvolvidas em nossas obras “Responsabilidade civil médica e inteligência artificial: culpa médica e deveres de conduta no século XXI” (Thomson Reuters Brasil, 2023)1 e “Medical liability and artificial intelligence: Brazilian and European legal approaches” (Springer Nature Switzerland, 2025)2, nas quais sustentamos que a inteligência artificial não desloca o centro decisório da Medicina, mas eleva o patamar de diligência exigido do profissional, ressignificando deveres de conduta.
Em outras palavras, a partir dessa leitura sistemática, torna-se possível perceber que a resolução não cria deveres novos, mas ressignifica deveres tradicionais - como informação, documentação, cuidado e vigilância - à luz das especificidades dos sistemas decisionais automatizados (IA). A inovação reside menos na criação de categorias inéditas e mais na atualização de deveres clássicos diante das novas exigências éticas de maior transparência, explicabilidade, auditabilidade e controle humano.
É justamente nesse ponto que se estabelece o diálogo com a matriz principiológica por nós anteriormente desenvolvida nas obras já mencionadas, nas quais relacionamos os princípios éticos da inteligência artificial (propostos em 2021 pela OMS - Organização Mundial da Saúde) aos tradicionais deveres jurídicos de conduta do médico, decorrentes da boa-fé objetiva contratual, que passam a ser ressignificados neste cenário.
Ao colocarmos lado a lado a matriz principiológica da tabela 2 e a sistematização normativa promovida pelo CFM (tabela 1), evidencia-se uma convergência significativa entre evolução doutrinária e consolidação regulatória. A proposta destas breves reflexões é analisar conjuntamente as duas tabelas apresentadas neste estudo: de um lado, a matriz principiológica anteriormente desenvolvida, que relaciona os princípios éticos da IA e seus reflexos nos deveres jurídicos de conduta médica; de outro, a sistematização normativa da resolução CFM 2.454/26, organizada em eixos estruturantes que evidenciam seus fundamentos, deveres e mecanismos de governança.
Vale ressaltar que a segunda tabela não foi construída por nós de modo isolado ou meramente especulativo. Dialoga com normas e diretrizes estrangeiras, sobretudo com o contexto europeu, que tem avançado de forma consistente na elaboração de parâmetros específicos voltados à integração responsável da IA na Medicina.
Nesse cenário, destaca-se o modelo francês desenvolvido em 2025 pela Haute Autorité de Santé (HAS - Alta Autoridade de Saúde da França), cujas diretrizes assumem papel particularmente relevante na concretização prática da lei da inteligência artificial na UE (AI Act) de 2024. Tais orientações funcionam como verdadeiro mecanismo de tradução operacional dos princípios estruturantes do regulamento europeu, especialmente no que se refere à gestão contínua de riscos, supervisão humana qualificada, transparência, prestação de contas e incorporação de mecanismos institucionais de governança e monitoramento no uso clínico de sistemas algorítmicos.
A matriz principiológica apresentada na segunda tabela, portanto, encontra correspondência não apenas em formulações éticas abstratas, mas em movimentos regulatórios concretos já consolidados no espaço europeu. Ao relacionar princípios éticos da IA a deveres jurídicos específicos buscou-se justamente demonstrar como esses vetores axiológicos se convertem em exigências normativas operacionais.
Quando colocada em diálogo com a primeira tabela - de natureza normativa e voltada à sistematização da resolução CFM 2.454/26 -, evidencia-se uma convergência significativa entre evolução doutrinária, experiências regulatórias estrangeiras e consolidação normativa brasileira. O ato normativo nacional não inaugura um paradigma ético novo, mas representa a positivação, em âmbito interno, de um movimento já amadurecido, em certa medida, no plano teórico e sobretudo internacional: a transição de uma responsabilidade médica predominantemente reativa para um modelo preventivo, estruturado em governança, transparência, supervisão humana qualificada e vigilância técnica contínua.
Eixo 1: Indelegabilidade decisória, autonomia médica e responsabilidade ética
A proteção da autonomia humana, no contexto da resolução do CFM, manifesta-se sob dupla perspectiva: a autonomia do paciente e a autonomia técnica do médico. Se, por um lado, o uso da IA deve respeitar direitos fundamentais (art. 9º e §1º) e observar os princípios bioéticos (art. 8º, parágrafo único), por outro, a norma reafirma que a tecnologia não substitui o juízo clínico. O médico deve empregar a IA exclusivamente como ferramenta de apoio (art. 4º, I) e exercer julgamento crítico sobre suas recomendações (art. 4º, II), permanecendo responsável final pelas decisões clínicas, diagnósticas, terapêuticas e prognósticas (art. 7º, caput e §1º).
Embora o art. 3º, I, mencione o “direito” de utilizar IA como instrumento de apoio, a leitura sistemática da resolução revela tratar-se também de um dever, na medida em que o profissional deve atuar com diligência técnica e atualização científica. Ademais, indica-se que o médico deve preservar sua autonomia profissional, sendo vedada adesão automática ou acrítica aos outputs (art. 3º, IV). Há a previsão, ainda, de que ele possui o direito de acesso a informações claras sobre funcionamento e limitações do sistema (art. 3º, II), podendo recusar o uso de tecnologias não validadas ou certificadas adequadamente (art. 3º, III). Destaca-se, ainda, a disposição de que o profissional deve zelar pela confidencialidade e segurança dos dados (art. 6º e §§), evitar uso mercantil ou promocional indevido da tecnologia (art. 7º, §3º) e atuar em conformidade com parâmetros científicos robustos.
Em síntese, a leitura sistemática desses dispositivos evidencia que a resolução estrutura um modelo de responsabilidade personalíssima não transferível. A inteligência artificial pode ampliar a capacidade analítica do médico, mas não desloca o centro ético e jurídico da decisão clínica. O profissional permanece titular da autoria decisória, devendo exercer juízo crítico, supervisionar o uso da tecnologia e assumir integralmente as consequências de suas escolhas diagnósticas e terapêuticas. A confiança no algoritmo é admissível; a adesão automática e acrítica, não. A autonomia médica, portanto, não é relativizada pela IA, mas reafirmada como pressuposto de responsabilidade ética e jurídica reforçada em ambientes assistenciais tecnologicamente mediados.
A indelegabilidade decisória, portanto, não é formulação abstrata, mas critério concreto de aferição da conduta médica. É justamente nesse ponto que a experiência jurisprudencial estrangeira oferece importante advertência prática. No caso norte-americano Sampson v. HeartWise Health Systems (2023)3, um médico limitou-se a aceitar como “normal” o resultado de um sistema automatizado de triagem e diagnóstico cardiovascular, sem investigação clínica adicional, resultando na morte do paciente semanas depois por cardiomiopatia hereditária não diagnosticada. Embora o processo judicial tenha sido encerrado por acordo, a Suprema Corte do Alabama reconheceu que havia questões relevantes a serem melhor investigadas no que se refere à independência do julgamento médico, tornando, assim, o caso emblemático devido aos riscos ético-jurídicos da adesão acrítica de tecnologias.
A resolução também estabelece proteção contra responsabilização indevida quando houver falha da IA e o médico tiver atuado com diligência (art. 3º, V). Essa previsão equilibra o regime de responsabilidade, afastando tanto a delegação irresponsável quanto a imputação automática de culpa ao profissional por falhas algorítmicas alheias ao seu controle. Ainda assim, o descumprimento dos deveres previstos sujeita o médico às sanções éticas cabíveis, sem prejuízo das esferas civil e penal (art. 8º), reforçando que a IA não cria zona de imunidade normativa.
Cumpre ressaltar que a proteção prevista no art. 3º, V deve ser compreendida como excludente no plano ético-disciplinar, e não como imunidade jurídica ampla. A resolução não afasta, por si, a incidência dos regimes civil ou penal, cuja apuração permanece sujeita aos critérios tradicionais de culpa, nexo causal e dano. Trata-se, portanto, de salvaguarda contra imputação ética automática por falhas exclusivamente algorítmicas, desde que demonstrada atuação diligente, crítica e tecnicamente fundamentada do profissional.
Eixo 2: Dever de transparência algorítmica, informação e esclarecimento
Compreende-se que o dever de informação conecta-se aos princípios da proteção da autonomia humana e da exigência ética de transparência e explicabilidade na utilização da IA, o que segue em consonância com as previsões da resolução CFM 2.311/22, ao estabelecer que o uso dessas tecnologias deve ser transparente e fundamentado em evidências científicas (art. 1º, §3º).
Além disso, conforme assegura o art. 5º, §3º, o paciente deve ser informado sobre a possibilidade de utilização do sistema de IA no seu cuidado, podendo decidir pela interação ou recusá-lo. A informação deve ser clara, adequada e compreensível (art. 5º, §1º; art. 11), preservando-se a relação médico-paciente e a escuta qualificada como elementos centrais do ato médico (art. 5º, caput). Ainda, é vedada a delegação da comunicação diretamente à IA sem mediação humana (art. 5º, §2º), reforçando que a tecnologia não substitui o dever pessoal de esclarecimento do profissional.
Considerando o grau de risco e a novidade da tecnologia empregada, o consentimento do paciente passa a abranger também o uso do aparato tecnológico. Ademais, o dever de informação ressignificado vai além do simples comunicar, consolidando-se como verdadeiro direito à explicação e à justificação - tese da qual já defendíamos desde 2020 -, o que reforça a dimensão ampliada do consentimento na prática médica no século XXI4. Registre-se, ainda, que o paciente, nos termos de normas éticas já existentes, possui direito à informação clara sobre seu estado de saúde e opções de tratamento, bem como da obtenção de segunda opinião (art. 10, I e II).
Nesse contexto, interessante também observar que o dever de esclarecimento não se esgota na dimensão comunicacional externa. Como já sustentamos5, em cenários mediados por IA, esse dever projeta-se também no plano interno da prática clínica, por meio da exigência de registro, justificativa e rastreabilidade das decisões. Essa compreensão ganha agora reforço normativo expresso, pois a resolução do CFM determina o registro do uso de IA no prontuário (art. 4º, V), assegurando transparência documental, auditabilidade e possibilidade de verificação posterior da conduta adotada.
Tal dever de registro pelo médico possui reflexos não apenas na responsabilidade ética, como na esfera cível. Na jurisprudência brasileira, a documentação médica não atua apenas como elemento probatório sujeito a presunções, podendo, em hipóteses de omissão relevante ou total, configurar violação objetiva do dever profissional mínimo, ou seja, como evidência direta de negligência6. Transposta essa lógica para o uso de sistemas decisionais automatizados, a ausência de registro adequado acerca da utilização da IA, dos seus outputs e da justificativa clínica para sua adoção ou rejeição pode caracterizar ruptura do padrão de diligência exigível pela falha em documentar o percurso decisório apoiado na tecnologia.
A transparência algorítmica, portanto, assume dupla dimensão: externa, voltada ao paciente, como direito à informação (e esclarecimento), recusa e segunda opinião; e interna, voltada à documentação e governança clínica, garantindo que o raciocínio médico, os limites do sistema e a justificativa da decisão final estejam devidamente registrados, preservando tanto a autonomia do paciente quanto a responsabilidade profissional.
Eixo 3: Governança, vigilância contínua e accountability na gestão de riscos tecnológicos
A resolução do CFM estrutura um modelo de governança da IA em saúde, distribuindo deveres tanto ao médico individualmente considerado, quanto às instituições hospitalares. Trata-se de um eixo normativo que desloca a responsabilidade ética da mera reação ao dano para uma lógica preventiva, sistêmica e prospectiva de gestão de riscos tecnológicos.
Sob a perspectiva do médico, a resolução estabelece um núcleo de deveres de cuidado, vigilância e atualização permanente. O profissional deve utilizar apenas sistemas de IA que atendam às normas éticas, técnicas, legais e regulatórias vigentes no território nacional (art. 4º, IV). Isso significa que a decisão de adotar determinada tecnologia não constitui ato meramente instrumental ou administrativo, mas integra o próprio exercício da atividade médica. A seleção do sistema passa a compor o conteúdo do dever de diligência, pois envolve juízo técnico sobre validade científica, conformidade regulatória e adequação ao caso concreto, inserindo-se no âmbito da responsabilidade profissional.
Além disso, há o dever de manter-se atualizado quanto às capacidades, limitações, riscos e vieses conhecidos dos sistemas utilizados (art. 4º, III). Esse dispositivo ressignifica o tradicional dever de atualização profissional à luz da medicina digital, impondo conhecimento não apenas científico-clínico, mas também tecnológico. A ignorância sobre vieses algorítmicos, limitações de treinamento ou margens de erro deixa de ser escusável.
A resolução também impõe o dever de comunicar às instâncias competentes eventuais falhas, riscos relevantes ou usos inadequados que possam comprometer a segurança do paciente ou a qualidade da assistência (art. 7º, §2º). Consolida-se, assim, uma dimensão ativa de vigilância profissional: o médico não é mero usuário passivo da tecnologia, mas participante crítico do seu ciclo de utilização.
Trata-se de um dever de vigilância ressignificado, na linha do que já sustentamos em estudos anteriores7. Tradicionalmente, a vigilância médica incidia sobretudo sobre o acompanhamento do quadro clínico do paciente, a evolução da doença e os efeitos do tratamento. No contexto da IA, exige-se também vigilância sobre a própria performance da tecnologia empregada. Dentro de suas concretas possibilidades técnicas e contextuais, o profissional deve observar se o algoritmo apresenta resultados coerentes com as evidências científicas, se mantém o grau de precisão anunciado pelo fabricante e se ele continua adequado ao perfil populacional específico em que está sendo aplicado.
Caso identifique inconsistências, vieses relevantes ou limitações não informadas, impõe-se não apenas a revisão crítica da conduta clínica, mas também o dever de parar de utilizar a tecnologia, registrar e comunicar tais achados. A vigilância, portanto, deixa de incidir exclusivamente sobre o paciente e passa a abranger também o comportamento do sistema tecnológico que integra o processo decisório.
Esses dispositivos dialogam diretamente com dois princípios éticos da IA propostos pela Organização Mundial da Saúde: fomentar a responsabilidade e prestação de contas (accountability) e promover o bem-estar humano, a segurança e o interesse público. Tais princípios incidem e ressignificam dois deveres clássicos de conduta profissional relacionados ao dever de proteção: o dever de cuidado e vigilância e o dever de atualização. A gestão de risco tecnológico passa a integrar o próprio padrão de diligência médica.
Se ao médico compete um dever de vigilância qualificada, às instituições incumbe estruturar toda a governança organizacional em torno da IA. O art. 14 determina que a instituição, ao optar por desenvolver ou contratar sistemas de IA, deve estabelecer processos internos de governança aptos a garantir segurança, qualidade e ética, conforme medidas previstas no Anexo III. Ademais, nas instituições que adotarem sistemas próprios, é obrigatória a criação de Comissão de IA e Telemedicina, sob coordenação médica e subordinada à diretoria técnica (art. 14, parágrafo único), com a função de assegurar cumprimento normativo e uso ético do sistema.
Já o art. 12 impõe avaliação preliminar do grau de risco dos sistemas utilizados, com base em critérios como impacto em direitos fundamentais, criticidade do contexto de uso, grau de autonomia do modelo, sensibilidade dos dados e nível de intervenção humana. A categorização por níveis de risco (art. 13 e Anexo II) evidencia aproximação com modelos regulatórios contemporâneos baseados em análise proporcional de risco.
A governança institucional também exige auditoria e monitoramento proporcionais ao impacto (art. 1º, §2º), bem como implementação de mecanismos de auditoria especializada e monitoramento contínuo (art. 9º, §2º). Soma-se a isso a diretriz de desenvolvimento cooperativo, interoperabilidade e disseminação de boas práticas (art. 1º, §4º), o que demonstra que a segurança tecnológica é concebida como esforço coletivo do sistema de saúde.
Esse conjunto normativo confirma a tese que já defendíamos: no século XXI, a responsabilidade médica deve ser compreendida sobretudo em sua função preventiva e promocional8. A Resolução do CFM consolida uma lógica de gestão antecipatória de riscos tecnológicos, na qual diligência, governança, vigilância contínua e documentação estruturada deixam de ser acessórios e passam a constituir critérios centrais de aferição da conduta profissional em ambientes mediados por sistemas de IA.
Sob essa perspectiva, a análise da responsabilidade - seja na esfera ética ou cível - deve ser pautada na verificação se o profissional tomou medidas razoáveis para evitar danos previsíveis, mitigar consequências adversas e não agravar situações já existentes. Esse raciocínio reverbera o movimento doutrinário e normativo contemporâneo (internacional e, em alguma medida, nacional), que desloca a responsabilidade civil de um eixo meramente reparatório para um modelo ex ante, orientado à prevenção e precaução.
Em linhas conclusivas, a partir da apresentação panorâmica da resolução CFM 2.454/26, verifica-se que constitui marco regulatório importante, alinhado às experiências mais avançadas do cenário internacional, especialmente ao paradigma europeu que vem sendo consolidado. Ao estruturar deveres de supervisão humana qualificada, gestão proporcional de riscos, transparência algorítmica, auditabilidade e governança institucional, o CFM não apenas disciplina o uso da IA, mas eleva o padrão de responsabilidade médica a uma lógica preventiva e prospectiva, em sintonia com os debates contemporâneos sobre Direito Médico e IA. Trata-se, portanto, de iniciativa normativa que posiciona o Brasil em diálogo qualificado com as matrizes regulatórias mais maduras do mundo.
Sem prejuízo desse reconhecimento, é possível identificar aspectos que poderão ser objeto de reflexão crítica e eventual aprimoramento em futuras atualizações normativas. Contudo, tais discussões extrapolam os limites da presente análise, cujo propósito foi oferecer uma visão panorâmica e sistematizada da Resolução, deixando para outra oportunidade o aprofundamento de seus pontos passíveis de evolução.
_______
1 NOGAROLI, Rafaella. Responsabilidade civil médica e inteligência artificial: culpa médica e deveres de conduta no século XXI. São Paulo: Thomson Reuters Brasil, 2023, p. 198- 217; 335.
2 NOGAROLI, Rafaella. Medical liability and artificial intelligence: Brazilian and European legal approaches. Cham: Springer Nature Switzerland, 2025, p. 157 e ss.
3 A referida decisão judicial norte-americana foi encontrada pela autora do presente artigo, que inaugurou a análise jurídica do caso no Brasil, por ocasião de palestra proferida no XII Congresso de Direito Médico do Conselho Federal de Medicina, realizado no dia 28 de agosto de 2025 (Vídeo disponível em: https://youtu.be/sh285Q_NkgM?t=4674). O presente artigo traz de maneira inédita essa análise verticalizada em um trabalho acadêmico no Brasil. O debate sobre esse processo judicial será publicado na Revista do IBERC, em artigo (no prelo) sob o título “Responsabilidade civil médica e diagnóstico clínico mediado por inteligência artificial: padrões globais de conduta profissional e lições do caso judicial Sampson v. Heartwise health systems (2023)”.
4 Trata-se de tese originalmente defendida em DANTAS, Eduardo; NOGAROLI, Rafaella. Consentimento informado do paciente frente às novas tecnologias da saúde (telemedicina, cirurgia robótica e inteligência artificial). Lex Medicinae – Revista Portuguesa de Direito da Saúde, Coimbra, ano 17, n. 33, p. 25-63, jan. /jun. 2020. Posteriormente, expandimos o estudo em i) NOGAROLI, Rafaella; FALEIROS JÚNIOR, José Luiz de Moura. Ethical challenges of artificial intelligence in medicine and the triple semantic dimensions of algorithmic opacity with its repercussions to patient consent and medical liability. In: ANTUNES, Henrique Sousa et al. (org.). Multidisciplinary perspectives on artificial intelligence and the law. Law, Governance and Technology Series, v. 58. Cham: Springer, 2023, p. 229-248. ii) NOGAROLI, Rafaella. Responsabilidade civil médica e inteligência artificial: culpa médica e deveres de conduta no século XXI. São Paulo: Thomson Reuters Brasil, 2023, p. 205; 263; 293. iii) NOGAROLI, Rafaella. Medical liability and artificial intelligence: Brazilian and European legal approaches. Cham: Springer Nature Switzerland, 2025, p. 160 e ss.
5 Nesse sentido, cf. NOGAROLI, Rafaella. Medical liability and artificial intelligence: Brazilian and European legal approaches. Cham: Springer Nature Switzerland, 2025, p. 219.
6 O número deste processo não é divulgado em razão de segredo judicial. (SUPERIOR TRIBUNAL DE JUSTIÇA. Mantida condenação de médico que negligenciou preenchimento de prontuário de gestante. Notícias STJ, 29 jul. 2021. Disponível em: https://www.stj.jus.br/sites/portalp/Paginas/Comunicacao/Noticias/29072021-Mantida-condenacao-de-medico-que-negligenciou-preenchimento-de-prontuario-de-gestante.aspx. Acesso em: 14 dez. 2025).
7 NOGAROLI, Rafaella. Responsabilidade civil médica e inteligência artificial: culpa médica e deveres de conduta no século XXI. São Paulo: Thomson Reuters Brasil, 2023, p. 280 e ss. NOGAROLI, Rafaella. Medical liability and artificial intelligence: Brazilian and European legal approaches. Cham: Springer Nature Switzerland, 2025, p. 224 e ss.
8 NOGAROLI, Rafaella. Responsabilidade civil médica e inteligência artificial: culpa médica e deveres de conduta no século XXI. São Paulo: Thomson Reuters Brasil, 2023, p. 208 e ss. NOGAROLI, Rafaella. Medical liability and artificial intelligence: Brazilian and European legal approaches. Cham: Springer Nature Switzerland, 2025, p. 224 e ss.

