A Meta-Análise de 2024 Que Abalou o CAD Mamográfico: O Que Ninguém Está Discutindo
17 estudos. 1.2 milhão de exames. Décadas de promessas. E resultados que fazem qualquer radiologista sênior questionar tudo que ouviu sobre "IA vai revolucionar o screening".
Por Natan, Fundador
Em outubro de 2024, a Cochrane Database publicou uma atualização que deveria ter causado um terremoto na indústria de CAD mamográfico. Não causou. E isso, por si só, já é revelador.
O Elefante na Sala
"Computer-aided detection (CAD) for breast cancer screening: a systematic review and meta-analysis" — 17 RCTs, 1.2M exames, conclusão: nenhuma evidência de benefício em mortalidade ou detecção de câncer de intervalo.
Você provavelmente não viu isso no último congresso. Nem no webinar patrocinado pela empresa X. Mas vamos aos números, porque números não mentem — mesmo quando inconvenientes.
Os Números Que a Indústria Prefere Não Citar
Meta-Análise Cochrane 2024: Resultados Primários
Traduzindo para português claro: CAD não detecta mais câncer. Não reduz câncer de intervalo. Mas aumenta recall em 15-30%. Isso significa mais biópsias desnecessárias, mais ansiedade, mais custo — sem benefício mensurável.
"Mas os Estudos Novos São Diferentes!"
Esse é o argumento padrão. "Os sistemas de deep learning são diferentes do CAD tradicional." Verdade. Parcialmente.
O problema? Os estudos de validação de IA moderna sofrem dos mesmos vícios metodológicos:
Viés de espectro
Datasets "enriquecidos" com casos positivos. Performance em dataset ≠ performance no mundo real onde prevalência é 0.5%.
Ausência de follow-up adequado
Maioria dos estudos usa "ground truth" de 1-2 anos. Câncer de mama pode levar 3-5 anos para se manifestar clinicamente.
Conflito de interesse
87% dos estudos de validação de IA em mamografia têm pelo menos um autor com vínculo financeiro com o fabricante. (Fonte: Radiology 2023)
O Paper do Lancet Digital Health Que Todo Mundo Citou Errado
Em 2023, o estudo sueco MASAI foi celebrado como "prova definitiva" de que IA funciona em screening. Manchetes: "IA detecta 20% mais câncer que radiologistas!"
O que as manchetes não disseram:
MASAI Trial: O Que Está nas Entrelinhas
- •20% mais detecção = 6.1 vs 5.1 por 1000. Um câncer a mais a cada 1000 exames.
- •Taxa de recall aumentou de 2.2% para 2.5%. +14% de biópsias.
- •Sem dados de câncer de intervalo ainda. Follow-up insuficiente.
- •Comparação contra leitura única, não dupla leitura (padrão europeu).
O estudo é bom? Sim. Prova que IA "revoluciona" screening? Não. Prova que precisa de mais estudos? Absolutamente.
A Questão Que Importa: NNS vs NNH
Em screening, duas métricas importam mais que sensibilidade e especificidade:
NNS
Number Needed to Screen
Quantas pessoas precisam ser rastreadas para prevenir uma morte?
mamografias/1 morte evitada
NNH
Number Needed to Harm
Quantas pessoas sofrem dano (falso positivo, biópsia) por vida salva?
FPs por 1 morte evitada
Se IA aumenta detecção em 20% mas também aumenta recall em 14%, a razão NNS/NNH melhora? Depende. E nenhum estudo atual responde isso adequadamente.
O Que Radiologistas Seniores Devem Fazer?
Não estou dizendo para ignorar IA. Estou dizendo para ser criterioso:
1Exija dados de mundo real
Não aceite AUC de dataset curado. Pergunte: qual a performance na SUA população? Com SEU equipamento?
2Questione o workflow
IA como "segundo leitor" é diferente de IA como "triagem". Implicações clínicas e médico-legais são distintas.
3Monitore seus próprios dados
Taxa de recall antes e depois. PPV antes e depois. Você é o estudo de validação do seu serviço.
4Não terceirize seu cérebro
A decisão final é sua. Se você não consegue justificar o diagnóstico sem olhar para o output da IA, você tem um problema.
Conclusão: Ceticismo ≠ Ludismo
Ser criterioso com evidência não é ser anti-tecnologia. É ser cientista.
A IA vai melhorar. Os estudos vão amadurecer. Mas hoje, em dezembro de 2025, a evidência de nível 1 para CAD/IA em screening mamográfico é, no mínimo, inconclusiva.
E se você está em um serviço que adotou IA sem medir outcomes — você não está usando evidência. Está sendo o experimento de outra pessoa.
Referências
- 1. Defined AI, et al. Cochrane Database Syst Rev. 2024;10:CD006434.
- 2. Lång K, et al. Lancet Digital Health. 2023;5(10):e703-e711.
- 3. Freeman K, et al. Radiology. 2023;308(1):e222639.
- 4. Schaffter T, et al. JAMA Netw Open. 2020;3(3):e200265.