Comment le cerveau prédit ?
Être capable de prédire correctement ce qui va se produire permet de prendre de meilleures décisions, de mieux percevoir le monde qui nous entoure et de réagir plus vite face aux événements. Dans de nombreuses situations,
notre cerveau parvient à faire des prédictions optimales en se basant sur ce qu’il a déjà observé.
Comment le fait-il
alors qu’il doit régulièrement faire face à des aléas, par définition imprévisibles, et à des relations complexes et souvent latentes (c’est à dire cachées) entre les éléments de l’environnement ?
D’un côté, on peut considérer que le cerveau cherche la solution idéale : il emploie la
méthode d’inférence bayésienne qui estime la probabilité de la cause des événements à partir d’observations antérieures pour faire des prédictions statistiquement optimales. Mais l’inférence bayésienne ne peut s’appliquer que si on connaît le modèle statistique qui caractérise nos observations et cette méthode est très difficile à modéliser.
De l’autre, on peut considérer que
le cerveau cherche rapidement une solution acceptable (et donc pas nécessairement idéale) en travaillant de manière heuristique. Dans beaucoup de situations, cette méthode n’est pas assez performante et elle ne peut pas être généralisée.
Vers un modèle de réseaux de neurones généralisable ?
Deux chercheurs de UNICOG/NeuroSpin (équipe
The Computational Brain) se sont donc demandés s’il existait
un modèle généralisable et biologiquement plausible qui permettrait dans différents environnements de faire des prédictions simples, efficaces et qui reproduirait les aspects qualitatifs de la prédiction optimale de notre cerveau. Pour cela,
ils ont examiné des modèles de réseaux neuronaux artificiels récurrents entraînés à des tâches de prédiction de séquences analogues à celles utilisées dans les études cognitives humaines.
Ils montrent qu'une architecture spécifique de réseau neuronal récurrent permet de trouver des solutions simples et précises dans plusieurs environnements. Cette architecture repose sur trois mécanismes :
- la
modulation des connexions (le « gating ») en fonction de l'état du réseau, qui permet des interactions multiplicatives entre les unités du réseau ;
- les
connexions latérales qui permettent aux activités de différentes unités récurrentes du réseau d'interagir les unes avec les autres ;
- et l'apprentissage de ces connexions au cours d’un entraînement.
Comme le cerveau humain,
de tels réseaux développent des représentations internes de leur environnement changeant (y compris des estimations des variables latentes de l'environnement et la précision de ces estimations),
exploitent plusieurs niveaux de structure latente et
adaptent leur taux d'apprentissage effectif aux changements sans modifier leurs poids de connexion. Étant omniprésent dans le cerveau,
ce modèle de « récurrence modulée » pourrait donc servir de bloc de construction générique pour la prédiction dans des environnements réels. Ces résultats inédits et remarquables ouvrent de nouvelles voies à la modélisation cognitive.
Financement européen Ce travail a été réalisé dans le cadre de l'ERC
Starting Grant NEURAL-PROB, attribué à Florent Meyniel.
Contact chercheur Joliot :
Florent Meyniel
florent.meyniel@cea.fr