Os últimos cinco anos produziram uma quantidade significativa de estudos sobre o uso de IA em radiologia — de metanálises sobre detecção em mamografia a ensaios pragmáticos em centros brasileiros. A literatura amadureceu, e com ela ficou mais fácil separar o que é hype do que é sinal.
O que está bem estabelecido.
- IA de apoio melhora a detecção em tarefas específicas e bem definidas (ex.: nódulos pulmonares, fraturas, hemorragia intracraniana).
- O maior ganho prático não é acurácia — é redução de tempo e de carga cognitiva no laudo.
- Modelos generalistas, treinados fora do domínio, performam pior que modelos de nicho.
- Integração e UX determinam adoção mais do que pequenas diferenças de AUC.
O que ainda está em discussão.
Generalização entre populações, estabilidade temporal (drift), o impacto real em desfechos clínicos — não apenas em métricas de imagem — e como integrar IA de detecção com IA de geração de texto continuam sendo questões abertas. Nenhuma dessas dúvidas impede uso na prática; apenas exige humildade epistêmica nas alegações.
O ganho real da IA em radiologia hoje é carga cognitiva, não acurácia.
Como ler um paper de IA em radiologia em 3 minutos.
Três perguntas resolvem a maioria dos casos: o conjunto de teste é independente do de treino, feito em outra instituição? O desfecho medido é clínico ou só métrica de imagem? Há comparação com radiologistas da mesma senioridade em condições comparáveis? Se as três respostas forem sim, o estudo provavelmente merece atenção.