Certains protocoles de chiffrement qui sont largement utilisés reposent sur des problèmes mathématiques qui sont supposés difficiles à résoudre, comme la factorisation d'entiers en nombres premiers. Cette tâche qui requiert une puissance de calcul considérable, pourrait, à terme, être réalisée facilement avec un calculateur quantique. C'est pourquoi les opérateurs recherchent des protocoles moins vulnérables.
Une solution consiste à utiliser des « clés » cryptographiques composées de suites de nombres aléatoires, qui doivent être partagées seulement par l'émetteur et le récepteur. Ces clés, dont la taille doit être similaire à celle du message à transmettre, servent à la fois à l'encodage et au déchiffrement et doivent être distribuées sans recourir à des problèmes mathématiques ouverts. Des systèmes de distribution quantique de clés ont été développés mais leurs sécurités exigent des équipements idéaux, leurs imperfections se révélant être des failles de sécurité.
Inspiré par les idées proposées par Arthur Ekert il y a 30 ans, des physiciens théoriciens de l'IPhT et leur collègue suisse ont donc imaginé un nouveau concept de distribution quantique de clés dont la sécurité n'est pas sensible à une imperfection instrumentale, sous réserve de performances minimales. Leur concept a été validé par une expérience menée à Oxford montrant qu'il est possible d'envisager des communications ultra-sécurisées pour des données hautement confidentielles (diplomatie, santé, etc.).
Sur quels principes repose cette expérience ?
L'émetteur et le récepteur disposent chacun d'un bit quantique (ou qubit), matérialisé par un ion strontium (Sr+) unique. Les deux ions sont préparés dans des états jumeaux (dits intriqués) de sorte que la mesure d'un qubit fournisse un résultat aléatoire, mais toujours identique à celui mesuré sur l'autre qubit. Le caractère aléatoire du résultat est donc bien adapté à la génération de clés cryptographiques, mais comment s'assurer que les deux ions sont intriqués ?
Les chercheurs procèdent à un test (dit de Bell) pour prouver la « violation des inégalités de Bell » (voir encadré ci-dessous) et donc l'intrication des ions dont elle est la signature. En une dizaine d'heures, les expérimentateurs ont répété 1,5 millions de fois le test et sont ainsi parvenus à en extraire une clé de 100.000 bits. Les chercheurs envisagent désormais d'adapter leur concept à un prototype de distribution quantique de clés tout-optique, qui pourrait être réalisé par des équipes françaises exclusivement, grâce à des subventions issues du Plan National pour les technologies quantiques.
(c)David Nadlinger/ University of Oxford
Le making-of de l'expérience
- Chaque ion strontium est piégé dans un champ électrique et refroidi par laser.
- Une excitation laser très sélective permet de produire une intrication entre chacun des deux ions strontium et un photon.
- Une mesure « connecte » entre eux ces deux photons, entraînant l'intrication des deux ions (et la disparition des photons).
- Les ions intriqués sont ensuite interrogés par des lasers accordés sur une transition énergétique (« question »). Ils émettent en « réponse » un photon. L'opération est répétée de manière à obtenir une statistique significative.
Les inégalités de Bell
Les inégalités de Bell, énoncées en 1964 par le physicien nord-irlandais John Stewart Bell, sont des relations satisfaites par les corrélations qui obéissent au principe de localité (l'idée que des événements ne peuvent être influencés que par des actions dans leur « cône de lumière » passé).
En démontrant pour l'une des toutes premières fois la violation des inégalités de Bell, le physicien français Alain Aspect apporte en 1982 une réponse au paradoxe relevé 50 ans plus tôt par Albert Einstein, Boris Podolsky et Nathan Rosen. Son expérience fondatrice implique que le principe de localité doit être abandonné.