1. O propósito da norma: Inovação com responsabilidade
A resolução CFM 2.454/26, publicada em 27/2/26, nasce em um contexto de transformação acelerada da medicina pela inteligência artificial. O avanço de modelos preditivos, sistemas de apoio à decisão clínica, algoritmos de triagem e ferramentas generativas impôs ao sistema de saúde um desafio inevitável: como incorporar inovação sem comprometer os fundamentos éticos da prática médica? O CFM responde a essa pergunta estabelecendo uma diretriz clara: inovação, sim, mas sempre subordinada à responsabilidade.
Desde o seu art. 1º, a norma deixa explícito que o objetivo da regulamentação é promover o desenvolvimento tecnológico e a eficiência dos serviços médicos de modo seguro, transparente, isonômico e ético, sempre em benefício do paciente e com estrita observância de seus direitos fundamentais. Essa formulação revela uma preocupação que transcende a mera operacionalização da tecnologia. O foco não está na máquina, mas na pessoa humana.
Ao adotar essa perspectiva, o CFM evita dois extremos igualmente perigosos. De um lado, afasta a postura de resistência infundada ao avanço tecnológico, que poderia atrasar ganhos clínicos e administrativos significativos. De outro, rejeita a adoção acrítica de soluções algorítmicas movidas apenas por eficiência, produtividade ou interesses mercadológicos. A resolução constrói uma via intermediária baseada na proporcionalidade regulatória e na prudência bioética.
A inovação, portanto, não é tratada como valor absoluto, mas como instrumento. A tecnologia deve ampliar a capacidade diagnóstica, otimizar fluxos assistenciais e qualificar decisões médicas - jamais suprimir a autonomia profissional ou fragilizar a relação médico-paciente. O texto normativo reforça que o desenvolvimento, a governança e o uso de sistemas de IA devem respeitar a autonomia dos médicos e das instituições, ao mesmo tempo em que se submetem a critérios de auditoria, monitoramento e transparência.
Outro aspecto relevante é a incorporação do conceito de ciclo de vida do sistema de IA. A norma não se limita à fase de implementação; exige acompanhamento desde o design, desenvolvimento e testes até a validação, implantação e eventuais atualizações. Isso demonstra compreensão técnica do funcionamento desses sistemas e reforça a ideia de que responsabilidade não é evento pontual, mas processo contínuo.
Ao estabelecer obrigações relacionadas à avaliação de risco, à mitigação de vieses discriminatórios, à proteção de dados e à segurança da informação, o CFM consolida um modelo regulatório que busca antecipar danos e prevenir impactos adversos. A lógica que sustenta a resolução é preventiva, não reativa. Em vez de agir apenas após falhas ou danos, a norma estrutura mecanismos para reduzir probabilidades de erro antes que eles ocorram.
Assim, o propósito da norma é inequívoco: criar um ambiente de segurança jurídica e ética capaz de permitir que a inteligência artificial avance na medicina brasileira sem romper os pilares históricos da profissão. A inovação é estimulada, mas sob vigilância; a tecnologia é incorporada, mas com governança; o progresso é admitido, mas jamais desvinculado da responsabilidade.
Esse equilíbrio é o verdadeiro núcleo da resolução CFM 2.454/26.
2. IA como ferramenta de apoio - Nunca substituição
A resolução CFM 2.454/26 é categórica ao estabelecer que a inteligência artificial deve atuar como instrumento de apoio à prática médica, jamais como substituta da decisão profissional. O texto normativo determina que o médico permanece responsável final pelas decisões clínicas, diagnósticas, terapêuticas e prognósticas, ainda que utilize sistemas de IA como suporte técnico. Essa diretriz reafirma um princípio essencial: a autoridade clínica não pode ser transferida a um algoritmo.
Ao reforçar que nenhuma solução de IA pode restringir ou substituir a autonomia do médico, o CFM protege a essência do ato médico. A decisão clínica envolve não apenas dados e probabilidades, mas interpretação contextual, experiência acumulada, sensibilidade ética e compreensão da singularidade do paciente. Sistemas algorítmicos podem oferecer padrões, sugestões e análises estatísticas sofisticadas, porém não possuem responsabilidade moral nem capacidade deliberativa própria.
Além disso, a resolução veda a delegação à IA da comunicação de diagnósticos ou decisões terapêuticas sem a devida mediação humana. Esse ponto é particularmente relevante em um cenário de crescente uso de sistemas automatizados e modelos generativos. A norma preserva a dimensão relacional da medicina, assegurando que a tecnologia amplie a capacidade assistencial sem desumanizar o cuidado. A IA pode potencializar a prática médica, mas jamais substituir a consciência, o julgamento e a responsabilidade do profissional.
3. Direitos e deveres do médico na era da IA
A resolução CFM 2.454/26 estrutura um regime claro de direitos e deveres para o médico que atua em um ambiente permeado por sistemas algorítmicos. Entre os direitos assegurados, destaca-se a possibilidade de utilizar a inteligência artificial como ferramenta de apoio à prática clínica, à pesquisa e à gestão em saúde, desde que respeitados os limites éticos e legais da profissão.
O médico também tem o direito de acessar informações transparentes sobre o funcionamento, as limitações e os riscos dos sistemas utilizados, bem como de recusar ferramentas que não apresentem validação científica adequada ou certificação regulatória pertinente. Além disso, a norma protege sua autonomia profissional, vedando qualquer imposição automática de condutas baseadas exclusivamente em recomendações algorítmicas.
Em contrapartida, a resolução impõe deveres proporcionais à complexidade da tecnologia empregada. O médico deve exercer julgamento crítico sobre as recomendações fornecidas pela IA, avaliar sua coerência com o quadro clínico e registrar no prontuário o uso dessas ferramentas como apoio à decisão.
Permanece, ainda, integralmente responsável pelos atos médicos praticados, mesmo quando auxiliado por sistemas inteligentes. Assim, a norma estabelece um equilíbrio rigoroso: amplia-se o acesso a instrumentos tecnológicos sofisticados, mas reafirma-se que a responsabilidade ética e profissional continua sendo, inequivocamente, humana.
4. Transparência, explicabilidade e contestabilidade
A resolução CFM 2.454/26 demonstra especial preocupação com a transparência dos sistemas de inteligência artificial aplicados à medicina. O texto normativo incorpora conceitos técnicos como auditabilidade, explicabilidade e contestabilidade, exigindo que os modelos sejam passíveis de avaliação independente e que seus resultados possam ser compreendidos, sempre que tecnicamente possível. Isso significa que o uso da IA não pode ocorrer sob lógica de “caixa-preta” absoluta, especialmente quando influencia decisões clínicas. A confiança na tecnologia não decorre apenas de sua eficiência estatística, mas da possibilidade de escrutínio, validação científica e compreensão de seus critérios operacionais.
A contestabilidade, por sua vez, reforça que nenhuma decisão apoiada por IA pode ser definitiva ou imune à revisão humana. O profissional de saúde deve poder questionar, revisar e, se necessário, rejeitar as recomendações algorítmicas, assegurando um devido processo decisório em saúde. Essa diretriz protege não apenas o médico, mas sobretudo o paciente, ao garantir que recomendações automatizadas possam ser submetidas a análise crítica e eventual correção. Ao exigir transparência e mecanismos de revisão, a resolução estabelece que a legitimidade da IA na medicina depende de sua capacidade de ser compreensível, auditável e sujeita à supervisão humana contínua.
5. Classificação de risco: Regulação proporcional
A resolução CFM 2.454/26 adota como eixo estruturante a lógica da regulação proporcional ao risco. O Capítulo IV determina que as instituições médicas realizem avaliação preliminar destinada a classificar os modelos, sistemas e aplicações de IA conforme seu grau de risco - baixo, médio ou alto - considerando fatores como potencial impacto nos direitos fundamentais, criticidade do contexto de uso, grau de autonomia do sistema e sensibilidade dos dados envolvidos. Essa metodologia afasta soluções regulatórias genéricas e reconhece que nem toda aplicação de IA apresenta o mesmo potencial de dano.
As soluções de baixo risco, como ferramentas administrativas ou operacionais, exigem monitoramento periódico, enquanto aplicações de médio risco demandam supervisão ativa e controles proporcionais. Já as soluções de alto risco - aquelas que influenciam diretamente decisões clínicas críticas ou podem causar danos significativos - estão sujeitas a processos mais rigorosos de validação, auditoria e monitoramento contínuo. Ao estruturar esse modelo escalonado, o CFM estabelece um equilíbrio entre inovação e segurança, permitindo o avanço tecnológico sem abrir mão da proteção da vida, da saúde e dos direitos fundamentais.
Ou seja, quanto maior o impacto potencial na saúde e nos direitos fundamentais, maiores as exigências de controle, validação e monitoramento. Essa estrutura aproxima o Brasil das melhores práticas internacionais de regulação da IA.
6. Governança institucional: Comissão de IA
A resolução CFM 2.454/26 reconhece que a adoção da inteligência artificial na medicina não pode ocorrer de forma improvisada ou descentralizada. Por essa razão, estabelece a necessidade de estruturas formais de governança institucional. O art. 14 determina que a instituição médica ou o profissional que desenvolva ou contrate sistemas de IA implemente processos internos aptos a garantir segurança, qualidade e ética no uso dessas soluções. Nos casos em que a instituição adote sistemas próprios, torna-se obrigatória a criação de uma Comissão de IA e telemedicina, sob coordenação médica e subordinada à diretoria técnica. Essa previsão transforma a governança da tecnologia em dever organizacional, e não mera faculdade administrativa.
A Comissão de IA assume papel estratégico ao assegurar o cumprimento das diretrizes previstas no Anexo III, incluindo transparência, mitigação de vieses, monitoramento contínuo e interlocução com órgãos de controle. Ao institucionalizar essa instância de supervisão, o CFM desloca a IA do campo experimental para o campo da responsabilidade corporativa estruturada. A tecnologia passa a ser tratada como ativo crítico da organização, sujeito a processos de auditoria, gestão de risco e accountability. Trata-se de um avanço significativo, pois reconhece que inovação sustentável exige governança sólida.
7. Proteção de dados e segurança da informação
A resolução CFM 2.454/26 dedica atenção rigorosa à proteção de dados e à segurança da informação, reconhecendo que a matéria-prima da inteligência artificial na medicina são dados sensíveis de saúde. O Capítulo VI determina que os dados utilizados no desenvolvimento, treinamento, validação e implementação de sistemas de IA devem observar estritamente a LGPD - Lei Geral de Proteção de Dados e as normas específicas de segurança da informação em saúde . Trata-se de uma diretriz que não apenas remete à legislação vigente, mas integra a proteção de dados como elemento estruturante da governança algorítmica. O uso de informações clínicas passa a exigir bases legais idôneas, finalidade específica e respeito integral aos direitos dos titulares.
Além disso, o art. 17 impõe que dados, modelos e ambientes computacionais sejam protegidos contra riscos de destruição, perda, alteração, acessos não autorizados ou vazamentos, exigindo medidas técnicas e administrativas compatíveis com o estado da arte. O próprio Anexo I incorpora os conceitos de privacy by design e privacy by default, reforçando que a privacidade deve ser integrada desde a concepção do sistema e configurada como padrão automático de proteção. Assim, a resolução estabelece que a segurança da informação não é requisito acessório, mas condição indispensável para a legitimidade do uso da IA na medicina.
8. Fundamentos bioéticos e direitos fundamentais
A resolução CFM 2.454/26 não se limita a disciplinar aspectos técnicos da inteligência artificial. Ela se ancora explicitamente nos fundamentos da bioética e na proteção dos direitos fundamentais. A exposição de motivos reafirma que o uso da IA deve respeitar princípios clássicos como autonomia, beneficência, não maleficência e justiça. Ao fazê-lo, o CFM insere a tecnologia dentro da tradição ética que historicamente sustenta a prática médica, deixando claro que nenhuma inovação pode se sobrepor à dignidade da pessoa humana ou relativizar a centralidade do paciente no cuidado.
A norma também enfatiza que a incorporação de sistemas de IA deve observar compatibilidade com direitos fundamentais em todas as fases do ciclo de vida da tecnologia - do desenvolvimento à implementação e monitoramento. Isso significa que a avaliação ética não é episódica, mas contínua. A resolução exige atenção especial à prevenção de discriminação abusiva ou ilícita, reforçando que algoritmos não podem criar ou intensificar desigualdades no acesso ou na qualidade do cuidado. A justiça algorítmica, portanto, torna-se requisito normativo e não mera recomendação teórica.
Além disso, o texto assegura o respeito à autonomia do paciente, ao consentimento informado e ao direito à informação clara sobre seu estado de saúde e opções terapêuticas. O uso da IA deve ser comunicado e explicado, reforçando que esses sistemas servem de apoio ao médico, mas não substituem a decisão humana. Ao consolidar esses fundamentos, a resolução reafirma que a medicina digital não pode prescindir de seus valores estruturantes: responsabilidade, equidade, transparência e respeito incondicional à pessoa humana.
Conclusão
A resolução CFM 2.454/26 consolida um momento de maturidade institucional da medicina brasileira diante do avanço inevitável da inteligência artificial. Ao invés de adotar uma postura reativa ou meramente permissiva, o Conselho Federal de Medicina optou por estabelecer balizas claras, técnicas e eticamente fundamentadas para a incorporação da IA na prática clínica. O texto normativo demonstra que inovação e responsabilidade não são forças opostas, mas dimensões complementares de um mesmo projeto civilizatório.
Ao preservar a autonomia médica, reforçar a centralidade do paciente, exigir governança estruturada e impor critérios rigorosos de segurança e transparência, a resolução cria um ambiente de segurança jurídica que favorece o desenvolvimento tecnológico responsável. Não se trata de limitar o progresso, mas de orientá-lo. A tecnologia passa a ser compreendida como instrumento de ampliação da capacidade diagnóstica, terapêutica e administrativa - nunca como substituição da consciência clínica, da ética profissional ou da relação humana que fundamenta o ato médico.
O Brasil, com essa regulamentação, alinha-se às discussões internacionais sobre regulação algorítmica em saúde e assume posição proativa na construção de um modelo de medicina híbrida: tecnologicamente avançada, juridicamente segura e humanamente comprometida. A resolução CFM 2.454/26 não é apenas um marco regulatório. É a declaração formal de que o futuro da medicina será digital, mas continuará sendo essencialmente humano.