EU AI Act Classifica IA Médica Como “Alto Risco”: Impacto Para Radiologia
A regulamentação europeia mais ambiciosa sobre inteligência artificial entrou em vigor. IA médica é oficialmente “alto risco”. Entenda os requisitos, as implicações e o que muda para quem desenvolve e usa IA em radiologia.
Por Natan, Fundador
Em janeiro de 2026, as disposições centrais do EU AI Act (Regulamento (UE) 2024/1689) passaram a ser plenamente aplicáveis. Para a radiologia, o impacto é direto e significativo: sistemas de inteligência artificial utilizados como dispositivos médicos — incluindo algoritmos de auxílio diagnóstico em imagem — foram classificados como alto risco no Anexo III da legislação.
Isso não é uma classificação teórica. É uma designação que acarreta obrigações concretas para desenvolvedores (chamados de “providers” na legislação), implantadores (“deployers”) e, em última instância, para os profissionais de saúde que utilizam essas ferramentas na prática clínica diária.
Por que isso importa para o Brasil?
Empresas brasileiras que desenvolvem IA para radiologia e pretendem acessar o mercado europeu — ou que utilizam dados de pacientes europeus — estão diretamente sujeitas ao EU AI Act. Além disso, a ANVISA tem acompanhado a evolução regulatória europeia como referência para suas próprias normativas.
O Que É a Classificação “Alto Risco”
O EU AI Act estabelece quatro níveis de risco para sistemas de IA: risco inaceitável (proibido), alto risco, risco limitado e risco mínimo. Sistemas de IA utilizados como dispositivos médicos ou componentes de dispositivos médicos foram explicitamente listados no Anexo III, categoria 5, como alto risco.
Na prática, isso abrange praticamente todos os softwares de IA utilizados em diagnóstico por imagem: desde algoritmos de detecção de nódulos pulmonares até sistemas de triagem por prioridade em listas de trabalho.
EU AI Act — Classificação de risco
Os 7 Pilares de Compliance Para IA de Alto Risco
O regulamento estabelece requisitos específicos que todo sistema de IA de alto risco deve cumprir antes e durante a comercialização. Para desenvolvedores de IA em radiologia, isso representa uma mudança fundamental no processo de desenvolvimento, validação e manutenção de produtos.
Sistema de Gestão de Risco
Obrigatoriedade de um processo contínuo e iterativo de identificação, análise e mitigação de riscos ao longo de todo o ciclo de vida do sistema. Não basta uma avaliação pré-market; o monitoramento deve ser contínuo.
Governança de Dados
Documentação detalhada de como os dados de treinamento foram coletados, curados, anotados e validados. Inclui análise de representatividade, identificação de lacunas e avaliação de possíveis vieses nos datasets.
Documentação Técnica
Documentação completa que permita a avaliação da conformidade do sistema, incluindo arquitetura do modelo, métricas de performance, limitações conhecidas e instruções de uso. O nível de detalhe exigido vai muito além do que a maioria dos fabricantes fornece atualmente.
Registro e Rastreabilidade (Logging)
Sistemas de alto risco devem gerar logs automáticos que permitam rastrear o funcionamento do sistema ao longo de todo o seu ciclo de vida. Para IA em radiologia, isso significa registrar cada predição, cada input e cada interação do usuário com o output do algoritmo.
Transparência e Informação ao Usuário
O radiologista que utiliza um sistema de IA deve receber informações claras sobre as capacidades e limitações do sistema, incluindo o nível de acurácia esperado para diferentes populações e condições clínicas.
Supervisão Humana (Human Oversight)
Sistemas de IA de alto risco devem ser projetados para permitir supervisão efetiva por seres humanos. Na radiologia, isso reforça o princípio do “human-in-the-loop”: a IA auxilia, mas a decisão final permanece com o radiologista.
Acurácia, Robustez e Cibersegurança
O sistema deve alcançar níveis apropriados de acurácia, ser robusto contra erros e tentativas de manipulação, e atender a requisitos de cibersegurança. Para IA em radiologia, isso inclui resistência a adversarial attacks e proteção de dados de pacientes.
Impacto Para Fornecedores de IA em Radiologia
Para empresas que desenvolvem algoritmos de IA para diagnóstico por imagem, o EU AI Act representa uma mudança de paradigma. O custo de compliance é substancial, e as penalidades por descumprimento são severas: multas de até 35 milhões de euros ou 7% do faturamento global anual, o que for maior.
Penalidades por descumprimento
“O EU AI Act não mata a inovação. Mata a irresponsabilidade. Empresas que já desenvolviam IA com rigor científico e ético terão pouco a ajustar. As que vendiam promessas sem evidência vão ter que repensar o modelo.”
O Que Muda Para o Radiologista na Prática
Para o radiologista europeu, as mudanças práticas são significativas. E para o radiologista brasileiro que opera com ferramentas de empresas europeias ou que pretende atender pacientes europeus via telerradiologia, as implicações são igualmente relevantes.
Direito à informação
Radiologistas terão acesso a documentação detalhada sobre limitações e performance dos algoritmos que utilizam, incluindo dados por subpopulação.
Responsabilidade reforçada
O princípio de supervisão humana consolida a responsabilidade final no profissional. IA é ferramenta; o laudo é do radiologista.
Treinamento obrigatório
Deployers devem garantir que usuários compreendam as capacidades e limitações do sistema. Isso pode exigir programas de capacitação em IA literacy.
Monitoramento contínuo
Instituições que utilizam IA de alto risco são obrigadas a monitorar a performance do sistema e reportar incidentes às autoridades competentes.
O Efeito Dominó: Da Europa Para o Mundo
Assim como o GDPR se tornou referência global para proteção de dados, o EU AI Act tende a exercer o chamado “efeito Bruxelas”: empresas que se adaptam ao padrão europeu acabam aplicando os mesmos padrões globalmente, elevando o nível de compliance em todos os mercados.
Para o Brasil, isso é particularmente relevante. O PL 2.338/2023, que regulamenta IA no país, possui semelhanças estruturais com o EU AI Act, incluindo a abordagem baseada em risco e os requisitos de transparência. A ANVISA, por sua vez, participa ativamente do IMDRF e tem utilizado frameworks europeus como referência para suas normativas sobre SaMD.
Em termos práticos, radiologistas e instituições brasileiras que adotam, desde já, práticas alinhadas ao EU AI Act estarão melhor preparados para a regulamentação que inevitavelmente chegará ao Brasil. Não é questão de “se”, mas de “quando”.
“O radiologista que entende regulação de IA hoje será o profissional mais valioso da equipe amanhã. Não porque será jurista, mas porque saberá perguntar as perguntas certas antes de adotar qualquer ferramenta.”
Referências
- 1. Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho (EU AI Act). Publicado em 12 Jul 2024.
- 2. European Commission. AI Act — High-Risk AI Systems: Annex III Classification. 2024.
- 3. Kotter E, et al. ESR paper on the EU AI Act and its implications for radiology. Insights Imaging. 2025;16:39. DOI: 10.1186/s13244-025-01905-x
- 4. Brasil. PL 2.338/2023 — Regulamentação da Inteligência Artificial. Senado Federal.
IA em conformidade desde a origem
O LAUDOS.Ai foi projetado com supervisão humana, transparência e rastreabilidade como princípios fundamentais. Não é adaptação a regulação — é design intencional para o futuro da radiologia.
Saiba mais sobre o LAUDOS.Ai