Voltar ao Blog
REGULAMENTAÇÃO

Resolução CFM 2.454/2026: O CFM Acabou de Regulamentar a IA na Medicina. Você Tem 180 Dias.

23 artigos. 3 anexos. Classificação de risco obrigatória. Responsabilidade integral do médico. A Resolução CFM 2.454/2026 é o marco regulatório mais importante para a IA médica no Brasil. E o relógio já está correndo.

Por Natan, Fundador

Em 27 de fevereiro de 2026, o Conselho Federal de Medicina publicou a Resolução CFM n.º 2.454/2026 — o primeiro marco regulatório brasileiro específico para o uso de inteligência artificial na prática médica. São 23 artigos e 3 anexos que estabelecem regras claras sobre responsabilidade, transparência, classificação de risco e supervisão humana.

O prazo para adequação é de 180 dias a partir da publicação. Isso significa que, até agosto de 2026, toda clínica, hospital, serviço de telerradiologia e empresa de tecnologia médica no Brasil precisa estar em conformidade — ou estará operando fora das normas do CFM.

O paradoxo que o CFM criou

A resolução cria um paradoxo inédito para o radiologista: ignorar a IA é arriscado (pois achados podem ser perdidos), mas seguir a IA cegamente também é proibido (Art. 7 — a responsabilidade é integralmente do médico). O profissional precisa usar a IA com julgamento crítico, documentar cada decisão e manter rastreabilidade total. Fazer isso manualmente é inviável. Fazer com o software certo é trivial.

Resolução CFM 2.454/2026 — Visão geral

23
Artigos
180
Dias para adequação
4
Níveis de risco

1. Princípio Fundamental: O Médico no Centro (Art. 3-5)

A resolução abre com um princípio inegociável: a IA é uma ferramenta complementar, nunca substituta do médico. O Art. 3 estabelece que o uso de IA deve se fundamentar na beneficência, não-maleficência, autonomia do paciente e justiça — os pilares da bioética médica.

O Art. 4 vai mais fundo: o médico deve exercer julgamento crítico sobre toda saída da IA e manter-se atualizado sobre capacidades, limitações e vieses do sistema que utiliza. Na prática, isso significa que “a IA sugeriu” não é justificativa aceitável para um diagnóstico errado.

“A IA não pode comunicar diagnósticos ou condutas diretamente ao paciente sem mediação humana do médico.”

— Art. 5, Resolução CFM 2.454/2026

O Art. 5 proíbe explicitamente que a IA comunique diagnósticos ou decisões terapêuticas ao paciente sem mediação do médico. Sistemas que entregam laudos “auto-gerados” diretamente para o paciente, sem revisão médica, estão terminantemente vedados.

2. Responsabilidade Integral do Médico (Art. 7)

Este é o artigo que muda tudo. O Art. 7 é explícito: o médico é integralmente responsável por qualquer ato profissional, diagnóstico ou terapêutico, mesmo quando assistido por IA. Não existe transferência de culpa para o algoritmo, para o desenvolvedor do software ou para a instituição.

O que o estudo Bernstein et al. (NEJM AI, 2025) já mostrava

Um estudo publicado no New England Journal of Medicine AI (DOI: 10.1056/AIoa2400785) simulou júris avaliando erros diagnósticos em radiologia. Quando a IA detectava uma anormalidade que o radiologista havia ignorado, os jurados condenavam com frequência significativamente maior. A conclusão: a disponibilidade da IA já eleva o padrão de cuidado esperado. Ignorar o alerta da IA agora é, de fato, um agravante — não um detalhe.

A combinação do Art. 7 com a evidência do estudo Bernstein cria uma situação jurídica clara: o radiologista que usa IA não pode ignorar seus alertas sem documentar o motivo; e o radiologista que não usa IA pode ser questionado por não ter utilizado uma ferramenta disponível que poderia ter detectado o achado. Em ambos os cenários, a rastreabilidade é o que protege o profissional.

3. Classificação de Risco Obrigatória (Art. 8-9)

A Resolução 2.454 adota um sistema de classificação por níveis de risco que se alinha ao modelo europeu (EU AI Act) e ao PL 2.338/2023 em tramitação no Congresso brasileiro:

1

Risco Baixo

Funções administrativas, agendamento, organização de filas. Sem impacto direto em decisões clínicas.

2

Risco Médio

Auxílio em triagem, priorização de listas de trabalho, sugestões de protocolos. Requer supervisão médica periódica.

3

Risco Alto

Auxílio diagnóstico direto, detecção de achados, sugestão de diagnóstico diferencial. Exige supervisão contínua do médico, validação pré-uso e monitoramento de viés.

4

Risco Inaceitável

Sistemas autônomos sem supervisão médica, decisão terapêutica sem mediação humana, manipulação subliminar de condutas. Proibidos.

Para a radiologia, a maioria dos sistemas de IA diagnóstica será classificada como risco alto. Isso significa requisitos adicionais de documentação, validação, monitoramento contínuo e auditoria — exatamente os requisitos que já existem no EU AI Act para dispositivos médicos.

4. Transparência e Consentimento (Art. 10-12 + Anexo III)

O paciente tem direito de saber que IA está sendo utilizada em seu atendimento. O Art. 10 exige que a instituição informe o paciente de forma clara e em linguagem não-técnica sobre:

  • Que um sistema de IA está sendo utilizado
  • Qual é a finalidade do sistema
  • Que a decisão final é sempre do médico
  • Quais dados são processados pela IA
  • Que o paciente pode solicitar atendimento sem IA

O Anexo III detalha os requisitos de transparência: a comunicação deve ser em linguagem clara e não-técnica, acessível ao público leigo. Termos como “rede neural convolucional” ou “modelo de difusão” não bastam — o paciente precisa entender o que está acontecendo de fato.

5. Proteção de Dados e LGPD (Art. 13-15)

A resolução reforça a obrigatoriedade de conformidade com a Lei Geral de Proteção de Dados (LGPD) para todo dado utilizado por sistemas de IA na saúde. Os artigos 13 a 15 são específicos:

  • Dados utilizados para treinamento de IA devem ter base legal válida sob a LGPD
  • Anonimização ou pseudonimização é obrigatória quando tecnicamente viável
  • O paciente deve ter acesso a informações sobre como seus dados são processados
  • Transferência internacional de dados segue as regras da ANPD

Para serviços de telerradiologia que utilizam IA em nuvem, isso é especialmente relevante. A resolução efetivamente exige que toda a cadeia de processamento — do PACS ao motor de IA — esteja mapeada e em conformidade com a LGPD.

6. Governança Institucional: Comissão de IA (Art. 16-18)

Uma das exigências mais impactantes da resolução: toda instituição que utilize IA em saúde deve criar uma “Comissão de IA e Telemedicina”, sob coordenação médica. Essa comissão é responsável por:

  • Avaliar e aprovar sistemas de IA antes da implantação
  • Monitorar desempenho, vieses e eventos adversos
  • Realizar auditorias periódicas de viés com análise estratificada por população
  • Reportar incidentes ao CRM estadual
  • Garantir educação continuada dos médicos sobre IA

O monitoramento contínuo de viés é especialmente relevante para radiologia. A resolução exige análise estratificada por população — ou seja, o sistema não pode ter desempenho pior para determinados grupos demográficos sem que isso seja detectado e corrigido. Este é um requisito que já estava no nosso radar: publicamos em janeiro uma análise sobre viés em modelos vision-language para radiologia.

7. Registro, Rastreabilidade e Auditoria (Art. 19-20)

Os artigos 19 e 20 exigem que todo uso de IA na assistência médica seja registrado e rastreável. Isso inclui:

  • Registro em prontuário de que IA foi utilizada
  • Documentação das sugestões da IA e da decisão médica final
  • Logs de auditoria imutáveis e acessíveis
  • Rastreabilidade temporal de cada interação com o sistema

Para laudos radiológicos, isso significa que cada laudo precisa ter um rastro claro: o que a IA sugeriu, o que o médico decidiu, quando decidiu, e por quê. Sistemas que não oferecem essa rastreabilidade estarão automaticamente fora de conformidade.

Implicação direta para achados críticos

Quando combinada com as normas do CFM sobre comunicação de achados críticos (prazo de 1h para achados críticos e 3h para urgentes), a exigência de rastreabilidade se torna ainda mais decisiva. Se a IA detectou um achado crítico e o radiologista não comunicou dentro do prazo — e não há registro documentando o motivo — a exposição médico-legal é máxima.

8. Contexto Global: Brasil Se Alinha à Regulação Internacional

A Resolução 2.454 não existe no vácuo. Ela se alinha a um movimento global de regulamentação da IA médica:

EU AI Act
Europa — Jan 2026
IA médica = alto risco. Documentação, auditoria de viés e supervisão humana obrigatórias.
FDA (EUA)
873+ algoritmos aprovados
Framework SaMD. Pré-market + monitoramento pós-aprovação.
CFM 2.454 (BR)
Fev 2026 — 180 dias
Classificação de risco, Comissão de IA, LGPD, responsabilidade médica integral.

O Brasil se posiciona ao lado da Europa ao exigir classificação de risco e supervisão humana, enquanto adota uma abordagem mais pragmática que o FDA americano ao integrar diretamente os requisitos de LGPD e responsabilidade ética do profissional na mesma resolução.

9. O Que Muda na Prática: Checklist Para Radiologia

Aqui está o que cada serviço de radiologia precisa fazer nos próximos 180 dias para estar em conformidade:

1

Criar a Comissão de IA e Telemedicina

Com coordenação médica. Definir membros, regimento e periodicidade de reuniões.

2

Mapear todos os sistemas de IA em uso

Incluindo IA embarcada em PACS, worklist, reconhecimento de voz e CAD.

3

Classificar o risco de cada sistema

Baixo, médio, alto ou inaceitável. Documentar a classificação e justificativa.

4

Implementar rastreabilidade

Logs de auditoria para cada interação médico-IA. Timestamp, sugestão da IA, decisão do médico.

5

Atualizar termos de consentimento

Informar pacientes sobre uso de IA em linguagem clara e acessível.

6

Verificar conformidade LGPD da cadeia de IA

Do PACS ao motor de IA. Base legal, anonimização, transferência internacional.

7

Estabelecer monitoramento contínuo de viés

Análise estratificada por população. Métricas de desempenho por subgrupo.

8

Documentar protocolos de supervisão

Como o médico valida saídas da IA. Processo para discordâncias e overrides.

10. O Duplo Vínculo do Radiologista: Não Usar IA É Risco. Usar Sem Rastreabilidade Também É.

A Resolução 2.454 consolida algo que a literatura já sinalizava: o padrão de cuidado em radiologia está mudando. O radiologista de 2026 enfrenta um duplo vínculo:

Se não usa IA:

Pode ser questionado por não utilizar ferramenta disponível que teria detectado achado. O estudo Bernstein (NEJM AI) mostra que júris já penalizam mais quando a IA estava disponível e foi ignorada.

Se usa IA sem controle:

Art. 7 — responsabilidade integral é do médico. Sem rastreabilidade, não há como provar que exerceu julgamento crítico. Cada alerta ignorado sem documentação é exposição médico-legal.

A saída desse duplo vínculo é uma só: usar IA com rastreabilidade total, documentação automática e supervisão humana estruturada. Exatamente o que um software de laudo bem projetado oferece nativamente.

11. Como a LAUDOS.Ai Já Atende à Resolução 2.454

Construímos a LAUDOS.Ai desde o início com o princípio de que IA médica sem rastreabilidade não é IA médica — é risco. Cada funcionalidade foi desenhada pensando em compliance regulatório:

Art. 4 — Julgamento crítico do médico

O médico sempre tem controle total do laudo. A IA sugere, o médico decide. Cada decisão é registrada.

Art. 5 — Mediação humana obrigatória

Nenhum laudo é entregue ao paciente sem revisão e assinatura digital do médico.

Art. 7 — Responsabilidade documentada

Logs de auditoria imutáveis com timestamp, sugestão da IA, decisão do médico e justificativa.

Art. 10-12 — Transparência

Termos de consentimento configuráveis para informar pacientes sobre uso de IA.

Art. 13-15 — LGPD

100% nuvem brasileira. Dados processados em território nacional. RIPD documentado. DPO nomeado.

Art. 19-20 — Rastreabilidade

Trilha de auditoria completa. Cada interação com IA é registrada e auditável.

Achados Críticos CFM

Rastreamento automático de achados críticos (1h) e urgentes (3h) com notificações e comprovante de comunicação.

180 dias. O relógio já começou.

A Resolução CFM 2.454 entra em vigor em agosto de 2026. Cada dia sem rastreabilidade é um dia de exposição. Conheça a LAUDOS.Ai — o software de laudo que já nasceu pronto para esta regulamentação.

Agendar demonstração gratuita

Referências

  1. Conselho Federal de Medicina. Resolução CFM n.º 2.454, de 27 de fevereiro de 2026. Regulamenta o uso de inteligência artificial na prática médica.
  2. Bernstein MH, et al. AI-Detected Abnormalities and Radiologist Liability: A Mock Jury Study. NEJM AI, 2025. DOI: 10.1056/AIoa2400785.
  3. Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho (EU AI Act). Jornal Oficial da União Europeia, 2024.
  4. Brasil. Lei n.º 13.709/2018 (Lei Geral de Proteção de Dados Pessoais — LGPD).
  5. Brasil. Projeto de Lei n.º 2.338/2023 — Marco Legal da Inteligência Artificial.