La révolution des « big data » invite à s’intéresser aux algorithmes de type « réseaux de neurones » qui sont très efficaces pour les opérations de classification, nécessaires au traitement d’images. Une voie consiste à concevoir de nouveaux processeurs physiques, dotés de grandes capacités d’apprentissage et de mémoire. Ceux-ci sont composés d’éléments de traitement (« neurones ») reliés entre eux par un très grand nombre de connexions (« synapses »), qui peuvent être mille ou dix-mille fois plus nombreuses que les neurones.
Le système étudié comprend un neurone relié à huit memristors. Par une sorte de méthode d’essais et erreurs, le neurone « apprend » aux synapses à former une fonction logique à trois variables. Toutes les combinaisons possibles des données d’entrée sont appliquées successivement au circuit et à chaque étape, le neurone renvoie aux synapses des pulses de « correction » qui permettent d’ajuster collectivement la résistance électrique de chaque memristor. Le processus est répété jusqu’à ce que l’apprentissage soit achevé.
Les chercheurs ont ensuite réalisé une simulation numérique portant sur 15 680 memristors en incluant les imperfections mesurées de ces composants. Ils ont montré que la reconnaissance de chiffres manuscrits pourrait être effectuée avec un taux d’erreur voisin de 15 %, un résultat proche de celui obtenu par voie logicielle pour un réseau de même taille.
Les memristors étudiés sont des jonctions métal – molécules – métal au sein desquelles sont greffés par voie électrochimique des complexes moléculaires. Ces jonctions ont l’avantage de présenter de nombreux états de conductivité stables et de pouvoir être intégrées au sein de réseaux denses.
Ces travaux sont le fruit d’une étroite collaboration entre l’Iramis et le Laboratoire d’électronique fondamentale de l’Université Paris-Saclay.