MIGALHAS DE PESO

  1. Home >
  2. De Peso >
  3. Nova resolução do CFM estabelece princípios, deveres e direitos no uso de inteligência artificial na medicina

Nova resolução do CFM estabelece princípios, deveres e direitos no uso de inteligência artificial na medicina

Resolução disciplina uso de tecnologia na medicina, preserva autonomia médica, exige governança, transparência e mantém responsabilidade do profissional.

quarta-feira, 18 de março de 2026

Atualizado em 17 de março de 2026 14:00

O CFM - Conselho Federal de Medicina publicou, no dia 27/2/2026, a resolução 2.454/26, que regulamenta o uso da IA - inteligência artificial na medicina. A nova resolução se aplica a profissionais médicos e a instituições prestadoras de serviços de saúde, como hospitais e clínicas, e entra em vigor em 26 de agosto de 2026.

Reafirmando a autonomia do profissional médico, a resolução 2.454/26 estabelece direitos e deveres dos médicos na utilização de IA, que incluem a prerrogativa de decidir pelo uso de sistemas de IA a seu exclusivo critério. O eventual emprego da IA tem como função apoiar a prática médica e a gestão de saúde, sem afastar a responsabilidade do médico pelas decisões clínicas, diagnósticas, terapêuticas e prognósticas. O uso da IA não deve prejudicar a relação médico-paciente, a empatia, a confidencialidade, a integridade, a segurança e a dignidade da pessoa humana. A prática deve ser pautada nos princípios da bioética - beneficência (causar o bem), não maleficência (não causar o mal) e autonomia (autodeterminação) tanto do(a) profissional quanto do(a) paciente, na ética médica profissional e na garantia de proteção de dados pessoais dos(as) pacientes.

Nessa linha, qualquer profissional médico poderá recusar-se a utilizar IA em sua atividade profissional, sobretudo, quando a ferramenta não possuir validação científica adequada ou certificação regulatória, quando considerar o uso inadequado para determinado caso clínico ou quando contrariar princípios éticos, técnicos e legais da medicina. Além disso, é vedado que as instituições imponham metas ou políticas que subordinem as condutas de competência médica à implementação e/ou uso de IA.

A resolução vai além: nenhum profissional médico pode ser obrigado a seguir recomendações geradas por IA de forma automática ou acrítica. Cabe também ao médico comunicar às instâncias competentes eventuais falhas, riscos relevantes ou usos inadequados das ferramentas de IA que comprometam a qualidade do atendimento e/ou a segurança do(a) paciente.

No campo da responsabilidade, embora o médico permaneça integralmente responsável pelos atos praticados com o auxílio de IA, a resolução prevê proteção contra responsabilização indevida por falhas atribuíveis exclusivamente a sistemas de IA, desde que comprovado o uso diligente, crítico e ético dessas ferramentas.

Em complemento, a responsabilidade pelos atos médicos - como diagnósticos, decisões clínicas e prognósticos - a comunicação aos(às) pacientes permanece personalíssima do(a) profissional médico. O profissional deve registrar em prontuário e informar aos(às) pacientes se um sistema de IA for usado como apoio à decisão técnica, uso que o(a) paciente tem o direito de recusar.

Do ponto de vista institucional, a norma exige que instituições médicas que desenvolvam ou utilizem modelos de IA avaliem previamente a implementação com base nas seguintes classificações de risco: (i) baixo - o potencial de causar consequências a pacientes e profissionais é mínimo, limitando-se a atraso ou inconveniente administrativo; (ii) médio - o potencial de impacto adverso existe, mas é mitigável com supervisão humana e controles de segurança adequados; (iii) alto - há potencial significativo de causar danos físicos, psíquicos ou morais; ou (iv) inaceitável (categoria não detalhada pela resolução).

Para além da classificação de risco, profissionais e instituições médicas que implementarem a IA em sua rotina assistencial deverão garantir uma estrutura de governança para manter a segurança, a qualidade e a ética nessa utilização. Para instituições que adotem sistemas próprios de IA, a norma exige a criação de uma Comissão de IA e Telemedicina sob coordenação médica e subordinada à diretoria técnica da instituição para garantir o uso ético das ferramentas de IA. Entre as principais funções da Comissão está garantir a transparência no emprego e na governança da IA por meio da divulgação de informações sobre o funcionamento, as finalidades e a supervisão das ferramentas. A Comissão poderá, ainda, publicar relatórios sobre o desempenho, as limitações e a mitigação de eventuais vieses discriminatórios das ferramentas, resguardadas as informações confidenciais e o segredo industrial.

No topo dessa estrutura, a resolução estabelece que o diretor técnico da instituição de saúde, a quem a Comissão estará subordinada, é o responsável pela governança interna de fiscalização, pelas diretrizes de segurança e pelo uso ético e transparente da IA.

Diante de tantas exigências, resta saber se profissionais e instituições de saúde estão preparados para implementar a estrutura de governança exigida pela norma.

Por fim, a resolução determina que os modelos de IA devem ser revisados e retreinados periodicamente para correção de falhas e incorporação de novas funcionalidades, sempre de forma segura e com riscos mitigados. O acesso a relatórios de auditoria, configuração e monitoramento das ferramentas de IA deve ser garantido com transparência a órgãos de controle e entidades externas - como Conselhos de medicina, órgãos de ética em pesquisa, Ministério Público e outras autoridades - sempre que solicitado.

A resolução 2.454/26 representa um marco regulatório importante ao buscar equilibrar a inovação tecnológica com a preservação da autonomia médica e a proteção dos(as) pacientes. Ao centralizar a responsabilidade no profissional de saúde e exigir estruturas robustas de governança, o CFM sinaliza que a IA deve ser tratada como ferramenta de apoio - e não como substituta do julgamento clínico. O desafio que se coloca, agora, é de ordem prática: caberá às instituições e aos profissionais adaptarem suas rotinas e estruturas para atender às exigências da nova norma, sob pena de enfrentarem questionamentos éticos e regulatórios em um cenário de adoção crescente da inteligência artificial na saúde.

Este artigo tem caráter exclusivamente informativo e visa fomentar o debate sobre o tema, não devendo ser interpretado como parecer, opinião legal ou recomendação para qualquer operação ou negócio específico.

© 2026 Pinheiro Neto Advogados. Todos os direitos reservados.

Camila Martino Parise

Camila Martino Parise

Sócia do escritório Pinheiro Neto Advogados.

Giuliana Garcia Maruca

Giuliana Garcia Maruca

Associada do escritório Pinheiro Neto Advogados.

AUTORES MIGALHAS

Busque pelo nome ou parte do nome do autor para encontrar publicações no Portal Migalhas.

Busca