Les réseaux de neurones sont largement utilisés dans une grande variété de composants électroniques / systèmes embarqués, pour la reconnaissance d'objets ou le traitement du langage. Si certains systèmes sont publics, d’autres sont protégés et sont la cible d’attaques qui cherchent à les cloner pour reproduire leurs performances ou les leurrer. Empêcher cette menace est un enjeu majeur de sécurité, afin de protéger la fonctionnalité et la propriété intellectuelle de ces innovations. Les cyberattaques ne sont pas uniquement des attaques logicielles effectuées à distance, d’autres modalités existent, comme les attaques physiques.
Après deux années en classe préparatoire en Physique Technologie et Sciences de l’Ingénieur (PTSI) au Lycée Marie Curie, Kevin intègre l'école d'ingénieur ESTIA à Biarritz. Durant sa dernière année, il se spécialise en robotique et systèmes embarqués, obtenant un double diplôme à l'université de Salford-Manchester. Fort de cette expérience, il entame ensuite une thèse dans l’équipe « Systèmes et Architectures Sécurisés » (SAS), une équipe de recherche commune entre le CEA-Leti et l’Ecole des Mines de St-Étienne.
Kevin a identifié comment certains attaquants pourraient dérober des informations internes aux réseaux de neurones déployés sur microcontrôleurs en utilisant des injections de fautes laser. Cette méthode leur permettrait de dérober partiellement les paramètres internes d'un réseau de neurones (environ 80 % des bits qui les composent). Ces informations sont par la suite utilisées pour entrainer un réseau de neurones de substitution copiant les performances du réseau de neurones victime. L'étude des contremesures visant la sécurisation de cette vulnérabilité est en cours au CEA.
« Quand on parle de cybersécurité, on pense directement au stéréotype de l’attaquant ciblant le système d’information à distance. Cependant, notre expertise se concentre sur un aspect moins connu en sécurité de l’IA : la sécurité matérielle. Nous intervenons directement au niveau physique et interagissons avec les composants microélectroniques pour protéger les modèles de Machine Learning contre ces types d’attaques qui ne sont pas suffisamment prises en compte. »
Kevin désire poursuivre son activité dans ce domaine afin d'améliorer la sécurité des modèles de Machine Learning.
Remerciements : Pierre-Alain Moellic, Jean-Max Dutertre, Mathieu Dumont