Pour étudier les tumeurs cérébrales à partir d'images IRM, les oncologues doivent délimiter précisément les contours des lésions (délinéation) ou encore les « segmenter », c'est-à-dire réunir les pixels de l'image dans différents groupes, selon des critères prédéfinis.
Il existe actuellement plusieurs architectures de segmentation par apprentissage profond pour les tumeurs cérébrales. Ces modèles ne sont performants que pour les types de tumeur sur lesquels ils ont été entraînés. Ils sont donc meilleurs pour des tumeurs communes, comme le glioblastome multiforme, que pour des tumeurs rares, comme le gliome infiltrant du tronc cérébral (cancer pédiatrique).
Cependant, il existe certaines similitudes visuelles entre des tumeurs communes et rares qui permettent d'aborder le problème en deux étapes : la détection puis la classification des pixels.
C'est la démarche adoptée par les chercheurs de NeuroSpin et leurs partenaires. Ils proposent deux méthodes de délinéation basées sur :
- la détection d'objets avec un algorithme de détection automatique d'objets, connu pour sa grande précision et sa rapidité (You Only Look Once) ;
- la segmentation de tumeurs avec un réseau de neurones à convolution, développé pour le traitement d'images biomédicales (U-Net).
Pour chaque étape, les réseaux de neurones entraînés sur des lésions communes ont été utilisés sur des lésions rares, sans ajustement de paramètres supplémentaires. Cette stratégie a permis d'obtenir de meilleurs résultats quand la tumeur diffère de celle de l'entraînement et des délinéations robustes ont été obtenues sur le gliome infiltrant du tronc cérébral.
En abordant la problématique des tumeurs rares, pour lesquelles aucune base de données ne peut être construite pour entraîner un réseau de segmentation neuronal profond, les chercheurs montrent qu'en combinant détection « simple » d'objets et segmentation de tumeurs, de bons résultats peuvent être obtenus, sans réentraînement ni adaptation du modèle.