Technologie

Les ressources nécessaires à Shor pour factoriser RSA-2048 ont diminué d’un ordre de grandeur en moins d’un an

L'obsolescence accélérée du chiffrement asymétrique pose une question philosophique autant que technique : peut-on migrer une infrastructure de confiance avant que la confiance elle-même ne soit compromise ?
Susan Hill

Le chiffrement qui protège l’infrastructure numérique mondiale ne s’effondre pas au moment où un ordinateur quantique est construit. Il s’effondre au moment où des adversaires acquièrent une capacité quantique suffisante pour déchiffrer les données chiffrées qu’ils ont déjà collectées. Cette inversion temporelle — la menace précède la machine — définit la structure réelle du problème du Q-Day et explique pourquoi le déficit de préparation mesuré aujourd’hui se traduit directement en violation de sécurité mesurée dans quelques années.

Le mécanisme en péril n’est pas ésotérique. Le chiffrement RSA, le standard dominant de cryptographie à clé publique, repose sur une unique asymétrie mathématique : multiplier deux grands nombres premiers est computationnellement trivial, mais récupérer ces facteurs à partir de leur produit devient d’une difficulté si exponentielle pour des clés de 2048 bits ou plus qu’aucun ordinateur classique ne peut inverser l’opération dans un délai pratique. Les poignées de main TLS qui sécurisent le trafic web, les autorités de certification qui authentifient les identités, les signatures numériques qui valident les transactions financières : toute l’architecture de la communication numérique de confiance repose sur la permanence de cette asymétrie.

L’algorithme de Shor, formalisé en 1994, a démontré que le calcul quantique dissout cette asymétrie entièrement. En exploitant la superposition quantique et les transformées de Fourier quantiques pour trouver la période d’une fonction arithmétique modulaire qui encode le problème de factorisation, un ordinateur quantique suffisamment puissant pourrait récupérer des clés privées RSA en quelques heures, et non pas les milliards d’années qu’exigerait une machine classique. L’algorithme est connu depuis trois décennies. Ce qui a changé au cours de l’année écoulée, c’est l’estimation des ressources nécessaires à son exécution.

Les exigences matérielles d’un ordinateur quantique cryptographiquement pertinent étaient, jusqu’à récemment, si considérables qu’elles fonctionnaient comme une barrière pratique. Les premières estimations situaient le nombre de qubits physiques nécessaires pour factoriser RSA-2048 aux alentours d’un milliard. En 2021, Gidney et Ekerå avaient réduit cette estimation à environ vingt millions de qubits fonctionnant pendant huit heures, encore bien au-delà de tout système alors existant, mais plus de l’ordre de l’inimaginable. Puis, en moins de douze mois entre 2024 et 2025, trois avancées algorithmiques ont effondré l’estimation d’un ordre de grandeur supplémentaire.

La première fut une restructuration de la façon dont s’exécute l’exponentiation modulaire, l’opération computationnelle centrale de l’algorithme de Shor. L’approche classique exigeait des registres quantiques suffisamment grands pour contenir simultanément des nombres entiers de 2048 bits, faisant monter les comptages de qubits. L’arithmétique modulaire approximative, développée par Chevignard, Fouque et Schrottenloher, remplaça ceci par une approche segmentée calculant l’exponentiation par morceaux à l’aide de registres bien plus petits, en tolérant des erreurs contrôlées corrigeables ultérieurement. L’ordinateur quantique n’a plus besoin de tenir l’intégralité du problème en mémoire à la fois. La deuxième avancée s’attaqua au principal goulot d’étranglement du calcul quantique tolérant aux pannes : la génération des états quantiques de ressources spéciaux nécessaires pour les opérations de porte non corrigeables par l’erreur. La cultivation d’états magiques, développée chez Google Quantum AI, fait croître des états de haute fidélité à partir d’états de moindre qualité avec une surcharge drastiquement réduite par rapport à la distillation traditionnelle. La troisième avancée, synthétisée dans un article de Craig Gidney en 2025, combina ces deux techniques et réduisit le nombre total d’opérations de porte Toffoli requises d’environ deux mille milliards à environ 6,5 milliards, soit une amélioration de plus de cent fois en efficacité computationnelle.

Le résultat combiné : factoriser RSA-2048 semble désormais techniquement faisable avec environ un million de qubits physiques fonctionnant pendant une semaine. L’écart matériel entre cette exigence et les systèmes existants reste réel, mais la trajectoire de compression a changé qualitativement. Réduire de un milliard à vingt millions de qubits a pris douze ans ; réduire de vingt millions à moins d’un million a pris moins d’un an. Cette accélération est le signal analytiquement important.

Les avancées parallèles du matériel renforcent cette trajectoire. La puce Willow de Google, démontrée fin 2024, a fourni la première confirmation expérimentale que la correction d’erreurs quantiques peut supprimer le bruit en dessous du seuil du code de surface, la preuve physique que les hypothèses de bruit sous-jacentes à toutes les estimations de ressources sont physiquement atteignables. La feuille de route publiée par IBM projette le premier ordinateur quantique tolérant aux pannes à grande échelle, avec environ 200 qubits logiques, pour 2029. Plusieurs plateformes indépendantes ont démontré des fidélités de porte à deux qubits de 99,9% ou supérieures. L’écart entre les exigences théoriques en ressources et la capacité matérielle démontrée s’est comprimé de plusieurs ordres de grandeur à quelque chose de proche d’un seul.

Cette compression confère une urgence concrète à une menace que l’on traitait jusqu’ici comme commodément lointaine : collecter maintenant, déchiffrer plus tard. Les acteurs étatiques et non-étatiques sophistiqués qui collectent du trafic réseau chiffré depuis des années détiennent des textes chiffrés qui deviendront lisibles dès qu’un ordinateur quantique cryptographiquement pertinent existera. Le bon cadre temporel pour évaluer le risque du Q-Day n’est pas quand les ordinateurs quantiques seront construits, mais combien de temps les données chiffrées aujourd’hui devront rester confidentielles.

La réponse cryptographique à cette menace a un nom, un ensemble de normes et un calendrier de conformité. La cryptographie post-quantique remplace les problèmes de factorisation d’entiers et de logarithmes discrets sous-jacents au RSA et à la cryptographie sur les courbes elliptiques par des structures mathématiques réputées résistantes aux attaques classiques comme quantiques. La famille principale adoptée par les organismes de normalisation mondiaux est la cryptographie à base de réseaux euclidiens, qui fonde sa sécurité sur la difficulté du problème du vecteur le plus court et des défis géométriques connexes dans des espaces de haute dimension. En août 2024, le NIST a finalisé trois normes cryptographiques post-quantiques. En mars 2025, un cinquième algorithme, HQC, a été sélectionné comme alternative à base de codes à ML-KEM, apportant une diversité algorithmique en cas d’affaiblissement futur des hypothèses sur les réseaux.

L’existence de normes ne résout pas le problème de la migration. Elle l’initie. Les transitions cryptographiques de cette envergure ont historiquement nécessité de quinze à vingt ans pour une pénétration complète dans l’infrastructure, et cette migration est structurellement plus complexe que tout précédent. L’infrastructure à clé publique doit être repensée à chaque couche : les modules matériels de sécurité qui stockent et gèrent les clés doivent être remplacés ou mis à niveau ; les autorités de certification doivent émettre de nouvelles hiérarchies d’accréditations ; les implémentations TLS sur des milliards de points de terminaison doivent être mises à jour ; les protocoles intégrés dans les systèmes embarqués, l’infrastructure de contrôle industriel et les systèmes financiers de longue durée doivent être audités et remplacés. Beaucoup de ces systèmes manquent de l’agilité cryptographique qui rendrait la migration directe.

La tradition scientifique française, de Descartes et Pascal jusqu’au CNRS contemporain, a toujours accordé autant d’importance aux implications philosophiques d’une découverte qu’à ses applications pratiques. La question que pose le Q-Day n’est pas seulement technique : elle interroge la nature même de la confiance dans les systèmes d’information. Qu’est-ce que la sécurité cryptographique signifie lorsque l’hypothèse fondatrice sur laquelle elle repose possède une date d’expiration calculable ? Le cadre réglementaire a répondu avec un calendrier comprimé qui reflète l’urgence de la trajectoire matérielle. La CNSA 2.0 de la NSA impose que tous les nouveaux systèmes de sécurité nationale soient quantiquement sûrs d’ici janvier 2027. Le Groupe de coopération NIS de l’Union européenne a publié en 2025 une feuille de route de mise en œuvre coordonnée. L’évaluation de préparation quantique de l’IBM Institute for Business Value de 2025 révèle un score moyen mondial de seulement 25 sur 100.

Le secteur financier fait face à une complexité particulière. L’infrastructure bancaire mondiale achemine des transactions par des dizaines de milliers de points cryptographiques, avec de profondes dépendances envers des modules matériels de sécurité, des piles de protocoles de paiement et des cadres de conformité réglementaire qui n’ont pas été conçus avec l’agilité algorithmique en tête. L’obligation réglementaire de migration vers la cryptographie post-quantique entre en collision avec des processus de gestion du changement qui opèrent généralement sur des délais de plusieurs années même pour de mises à jour mineures.

Le conseil pratique qui émerge de ce paysage technique n’est pas la panique, mais une action graduée et priorisée. L’inventaire cryptographique est le prérequis : les organisations ne peuvent migrer ce qu’elles ne peuvent localiser. Les systèmes traitant des données à long horizon de confidentialité doivent être priorisés pour une migration anticipée. Les déploiements cryptographiques hybrides, combinant ML-KEM avec des algorithmes classiques d’échange de clés en parallèle, offrent un pont pratique : les données protégées par un schéma hybride exigent d’un adversaire de briser simultanément les composantes classique et post-quantique, élevant substantiellement le coût de toute attaque de collecte et déchiffrement différé.

Ce que les développements algorithmiques de 2024 et 2025 ont fondamentalement altéré est la distribution d’incertitude autour du Q-Day. Le consensus précédent situait commodément le calcul quantique cryptographiquement pertinent dans les années 2030, avec des marges d’erreur significatives s’étendant vers les années 2040. La compression des estimations de ressources à moins d’un million de qubits, combinée à la feuille de route d’IBM pour 2029 et à la confirmation expérimentale par Google de la correction d’erreurs sous le seuil, a déplacé les estimations crédibles significativement vers l’avant et réduit la plage d’incertitude.

La transition vers la cryptographie post-quantique ne s’achève pas avec le déploiement d’algorithmes à base de réseaux. Elle crée une nouvelle surface cryptographique dont la sécurité à long terme repose sur des hypothèses concernant la difficulté de problèmes géométriques dans des espaces de haute dimension — hypothèses qui ont résisté à des décennies de cryptanalyse classique mais qui n’ont pas encore été soumises à l’épreuve des ordinateurs quantiques qui existeront un jour à grande échelle. Ce que le moment présent exige, ce n’est pas la certitude sur le moment où le calcul quantique arrivera à maturité, mais une évaluation lucide de ce que signifie construire une institution dont la posture de sécurité est encore fondée sur l’hypothèse que factoriser de grands nombres premiers est difficile. Cette hypothèse a une date d’expiration.

Discussion

Il y a 0 commentaire.

```
?>