Vous êtes ici : Accueil > Actualités > L’intelligence artificielle au service des sciences

Idées et débats | Informatique

L’intelligence artificielle au service des sciences


​​​Le prix Nobel de physique 2024 récompense John Hopfield et Geoffrey Hinton pour leurs travaux dans le domaine de l’intelligence artificielle. Des travaux aux fondements des méthodes d’apprentissage selon Guigone Camus et Christophe Calvin, chargés du HPC, de la simulation numérique et des données scientifiques et techniques à la DRF. Ces méthodes d’apprentissage sont d’ailleurs à la base des outils développés pour le design des protéines, récompensé par le prix Nobel 2024 de chimie.

Publié le 17 octobre 2024

Champ de l'intelligence artificielle fondé sur des approches mathématiques et de physique statistique, l'apprentissage automatique, ou Machine Learning, donne la possibilité aux machines d'apprendre à partir de données. C'est au début des années 1940 que le neurophysiologiste Warren McCulloch et le mathématicien Walter Pitts tentent une représentation du fonctionnement des neurones à l'aide de circuits électriques ; représentation qui est la base théorique des réseaux de neurones artificiels.

Réseau Hopfield et machine de Boltzmann

Au début des années 1980, le physicien théoricien John Hopfield s'intéressa à la biologie et aux travaux des neuroscientifiques, avec un regard de physicien statisticien. Attaché au concept d'émergence, il a en quelque sorte considéré le cerveau comme un système composé d'objets élémentaires, les neurones, ayant les uns avec les autres des relations mutuelles, les synapses (en se basant sur les travaux de D. Hebb datant de 1949 et de F. Rosenblatt datant de 1957). En 1982, John Hopfield proposa ainsi un système capable de mémoriser des motifs et de les retrouver à partir d'une version déformée ou incomplète d'images. Il calquait ainsi l'idée d'un système d'atomes dotés de spin (chaque atome jouant le rôle d'un aimant), système dont la configuration se stabilise de manière à minimiser son énergie systémique.

La force de ce réseau reposait sur sa capacité, grâce à un type d'apprentissage basé sur un grand nombre d'images, à reconnaître des motifs à partir d'images qui pouvaient n'être que partielles. Mais la faiblesse de ce réseau reposait sur sa nécessité à se voir doté d'une grande quantité de neurones, se heurtant ainsi aux limites de l'informatique. En effet, Hopfield avait développé une machine de 30 neurones interconnectés par plus de 400 connexions, mais il aurait eu besoin de développer une machine de 100 neurones, ce qui relevait de l'impossible.

Par la suite, Geoffrey Hinton, chercheur en informatique et en sciences cognitives, reprenant les travaux de Hopfield, entreprit de développer une machine dite « machine de Bolztmann », qui s'approchait davantage du fonctionnement du cerveau. Il fut à l'origine de machines étant capables de recevoir des données, de les interpréter, de les trier et de les ranger dans des grandes catégories, selon des principes de classification. Par cette méthode d'apprentissage, il s'approchait en réalité de la « pensée humaine » et de son intelligence naturelle et intuitive plus que du cerveau humain. Il suivait également les principes de la physique statistique, qui permettent de définir, au sein de systèmes constitués d'un grand nombre d'éléments identiques, des caractéristiques globales, sans avoir pour autant à suivre tous les états individuels.

Des réseaux de neurones accélérateurs de découvertes scientifiques

Depuis les années 1980, les travaux de Hopfiel et de Hinton ont permis de développer ce qui allait constituer, dans les années 2010, les bases de la révolution de l’apprentissage automatique. Celui-ci étant basé sur l’exploitation d’une quantité considérable de données et étant doté de puissances de traitement exponentielles. 

Aujourd’hui, l’apprentissage profond ou Deep learning de même que l’IA générative, qui découlent des développements des deux chercheurs, constituent des techniques incontournables dans l’expansion de nombreux champs industriels et scientifiques. Elles sont également sources de progrès majeurs en médecine, en physique, en sciences du climat et en biologie. Notons enfin le lien étroit qui relie ce prix Nobel de physique, qui récompense les fondements théoriques de l’apprentissage automatique, avec le prix Nobel de Chimie remis à David Baker, à Demis Hassabis et à John Jumper pour leurs recherches sur les structures de protéines. Ces chercheurs ont en effet mis en valeur la puissance des techniques de Hopfield et Hinton pour l’accélération des découvertes scientifiques en chimie des protéines.

Les instituts de la DRF ont depuis longtemps investi le champ de l'IA en tant qu'utilisateurs avertis. Ils ont notamment fait progresser plus rapidement les découvertes scientifiques dans les domaines de l'analyse des données astrophysiques, l'acquisition et la reconstruction d'images IRM, la compréhension des mécanismes de maladies, le climat,  par exemple. 

La DRF a également étudié ces techniques avec des questions fondamentales comme celles liées au fonctionnement du cerveau : les travaux de compréhension du fonctionnement des réseaux de neurones artificiels par la physique statistique ou le rapprochement entre les neurosciences cognitives et l'interprétabilité de l'IA en sont de très bons exemples. Enfin, des recherches sont menées pour concevoir des composants électroniques optimisés pour l'IA basés sur la spintronique.

Un des succès des nouvelles formes d'IA passera par la confiance dans les modèles d'apprentissage générés automatiquement ; et donc par la maîtrise de l'ensemble de la chaîne de la donnée ayant servi à l'apprentissage jusqu'à l'évaluation fiable des résultats pour minimiser les hallucinations de ces modèles. Cela appellera une conjonction de talents mêlant éthique, sciences humaines et sociales, informatique, neurosciences.


Par Guigone Camus, chargée de mission Politique des données scientifiques et techniques du CEA, et Christophe Calvin, Directeur de recherche, adjoint à la Directrice de la recherche fondamentale DRF du CEA, en charge du HPC et de la simulation numériqu​e






.



Haut de page