L'imagerie par résonance magnétique (IRM) à haut champ permet de générer des images de haute résolution, mais au prix d'un temps d'acquisition des données très long qui limite son utilisation pour des applications cliniques. En effet, en plus d'être inconfortable pour le patient, l'examen est source d'artefacts liés aux mouvements de la personne et ne permet pas toujours de visualiser des phénomènes physiologiques rapides. Pour réduire ces temps d'acquisition, des procédés mathématiques dits de compressed sensing sont de plus en plus utilisés. Ils consistent à acquérir moins de données que ce qui est théoriquement nécessaire, puis à reconstruire une image grâce à des algorithmes dédiés. Ils sont toutefois sensibles aux artefacts dits « hors résonance » qui provoquent des distorsions géométriques et du flou dans l'image.
Récemment, ces algorithmes de reconstruction ont été supplantés, en terme de qualité de l'image et de rapidité, par des méthodes d'intelligence artificielle (IA) sans que ces dernières n'abordent le problème artefactuel. Pour pallier ce problème, une équipe de NeuroSpin du CEA-Joliot propose deux stratégies.
Nouvelle méthodologie pour le compressed sensing et le deep learning
Une première solution consiste à travailler sur l'acquisition des données elle-même. En collaboration avec Siemens Healthcare, les chercheurs ont ainsi introduit dans leur algorithme de compressed sensing « Sparkling » deux nouveaux modules pour corriger la sensibilité aux artefacts hors résonance. Le premier, baptisé More, consiste à ajouter un facteur de pondération lié au temps : les points d'échantillonnage de l'espace de Fourier qui sont loin les uns des autres sont contraints de l'être aussi temporellement. En complément, le second module, Golf, peut réduire davantage le temps d'acquisition en évitant les redondances des trajectoires au centre de l'espace de Fourier.
Une autre solution consiste à intervenir en post-traitement mais les méthodes conventionnelles de correction des données demeurent trop lentes (plusieurs heures pour corriger un seul volume). D'où l'idée de recourir à un algorithme de deep learning apprenant les paramètres de l'algorithme de reconstruction. « Nous nous sommes appuyés sur une précédente architecture que nous avions mise au point en 2022, l'algorithme NCPDNet », indique Philippe Ciuciu, responsable de l'équipe Mind à NeuroSpin. Au fur et à mesure du protocole, l'algorithme vérifie que chaque transformation faite sur les pixels de l'image est compatible avec les données. L'intérêt de cette approche réside dans le fait que l'entraînement de l'algorithme, qui est la partie consommatrice en calcul et en temps, ne se fait pas au moment de l'examen mais bien avant : « une fois le modèle mis au point, son application ne prend qu'environ cinq minutes », précise l'expert.
Un processus deux en un
Les spécialistes ont alors cherché à combiner les deux méthodologies, celle de compressed sensing pour optimiser l'échantillonnage des données, et celle de deep learning pour entraîner les réseaux de neurones avec des schémas d'acquisition fixés à l'avance. « Nous avons développé une architecture de deep learning qui apprend à la fois les trajectoires dans l'espace de Fourier ainsi que l'algorithme de reconstruction modélisé par un réseau de neurones de type NCPDNet », poursuit l'expert.
Le processus Projector ainsi mis au point a été entraîné sur un jeu de données brutes 3D déjà disponible (Calgary, 167 IRM pondérés à une résolution millimétrique) et a pu vérifier au fur et à mesure des itérations de reconstruction que les images obtenues étaient bien conformes aux images de référence issues d'un protocole classique. De plus les trajectoires ainsi apprises se sont avérées plus performantes que leur ancêtre Sparkling.
Tous ces travaux ont bénéficié d'un accès aux ressources HPC (High Performance Computing) du CEA (CCRT) et de GENCI (supercalculateurs Jean Zay) ainsi que du financement d'une thèse en simulation numérique par le programme européen Numerics.