Vous êtes ici : Accueil > ACTUALITÉS > Intelligence artificielle embarquée

News | Artificial intelligence

Intelligence artificielle embarquée : comment mieux sécuriser les systèmes industriels ?


​​​​​​Partenaire pendant trois ans du projet européen InSecTT  sur la sécurité de l’intelligence artificielle embarquée, le CEA-Leti a développé des solutions inédites pour authentifier des systèmes intelligents et les protéger de certaines cyberattaques. Des avancées qui coïncident avec la promulgation de l’AI Act européen.


Published on 23 May 2024

Hasard du calendrier : le projet européen Insectt s'est achevé à l'automne 2023, quelques mois à peine avant la promulgation de l'AI Act européen. Et il est frappant de constater que les travaux des chercheurs du CEA-Leti font largement écho aux préoccupations de ce texte.


Une absence de régulation pour évaluer la robustesse de l'IA​

L'AI Act constate le prodigieux essor de l'intelligence artificielle, qu'il s'agisse des IA génératives de type ChatGPT ou de l'IA embarquée (robots industriels, équipements de production, automobile, domotique, smart cities…). Il fixe des règles pour que cette vague d'innovations se conjugue avec la transparence, la gouvernance des données et le respect des droits fondamentaux. 

L'IA pourra ainsi être proscrite pour des applications dont les risques sont considérés comme inacceptables, par exemple l'identification biométrique à distance dans les espaces publics. Le texte ouvre aussi la voie à de futurs schémas de certification associés à la sureté et la sécurité des systèmes d'IA. 

Toutefois, il n'existe à ce jour ni protocole, ni standard, ni norme pour évaluer la robustesse d'un système d'IA embarquée.


« Depuis dix ans, la R&D sur la sécurité de l'IA cible le volet algorithmique, et non l'implémentation matérielle ou logicielle, par exemple sur un microcontrôleur ou un System-On-Chip », explique Pierre-Alain Moëllic, coordinateur d'InSecTT pour le CEA-Leti. 

C'est ce manque que les chercheurs du CEA-Leti ont commencé à combler.


Une production scientifique forte

Ils n'ont pas failli à leur tâche, puisqu'ils ont signé 11 publications scientifiques, dont une récompensée par un Best Paper Award, qui couvrent trois types d'avancées. 

Leurs études ont tout d'abord démontré la faisabilité technique de l'authentification de systèmes d'IA embarquée. Prenons l'exemple d'une chaîne de robots industriels, chacun embarquant de l'IA, qui cesse de fonctionner. Le responsable de la chaîne doit vérifier que les robots n'ont pas été piratés, donc que leurs données et leurs modèles sont les bons. 

Le CEA-Leti parvient à relever ce défi avec une plateforme technologique qu'il a développée en lien avec l'IRT Nanoelec. Baptisée HistoTrust, elle intègre la technologie blockchain et des modules matériels sécurisés pour garantir l'authenticité des systèmes d'IA au plus près des robots.


Des failles de sécurité mises en évidence

Deuxième avancée : le CEA-Leti a démontré les failles de sécurité de systèmes d'IA embarquée vis-à-vis de deux types d'attaques physiques, l'écoute par émanations électromagnétiques et l'injection de fautes. Ces attaques peuvent avoir de graves conséquences, comme l'altération de la performance des systèmes ou la reconstruction par ingénierie inversée du modèle d'IA utilisé. Or, celui-ci représente souvent une large part de la valeur du système industriel. 

Enfin, les chercheurs ont développé des méthodes de caractérisation des vulnérabilités, ainsi que des mécanismes de protection aujourd'hui en cours de mise au point. 


« À terme, ils pourront être proposés à des industriels » indique Marion Andrillat, responsable des partenariats industriels en cybersécurité au CEA-Leti.​

Top page