Même en 2016, des articles sur les ordinateurs quantiques ont créé des incertitudes quant à la sécurité des données, dans le cas où des ordinateurs quantiques suffisamment puissants pourraient être construits. Cet article tentera de faire la lumière sur la situation.
Qu'est-ce que l'informatique quantique?
L'informatique quantique est l'application des principes de la mécanique quantique pour effectuer des calculs. Plus précisément, l’informatique quantique exploite les états quantiques des particules subatomiques comme la superposition et l’intrication pour créer des ordinateurs quantiques. Lorsqu’ils sont appliqués à des ordinateurs quantiques dotés d’une puissance suffisante, des algorithmes spécifiques peuvent effectuer des calculs beaucoup plus rapidement que les ordinateurs classiques et même résoudre des problèmes hors de portée de la technologie informatique actuelle. En conséquence, les gouvernements et les industries du monde entier s’intéressent de plus en plus au développement d’ordinateurs quantiques. Les progrès récents en informatique quantique, comme le processeur Quantum Heron d'IBM, ont considérablement amélioré la réduction des erreurs, démontrant des progrès rapides dans ce domaine. L'introduction d'IBM Quantum System Two, équipé de ces processeurs avancés, marque un grand pas vers un supercalcul quantique pratique.
Informatique classique ou informatique quantique
L'informatique classique s'appuie sur des bits, représentant des uns et des zéros via les courants électriques dans les circuits, pour résoudre des problèmes complexes. L'informatique quantique, utilisant des qubits comme ceux d'IBM Quantum Heron, surpasse l'informatique classique en termes de puissance de calcul grâce à une correction d'erreur et une stabilité des qubits améliorées. Les qubits, contrairement aux bits, peuvent exister en superposition, incarnant simultanément un et zéro. Cette capacité permet à un seul qubit de représenter deux états à la fois, et avec chaque qubit supplémentaire, les états représentables doublent de façon exponentielle (« 2^n » pour n qubits). Par exemple, un ordinateur quantique doté de dix qubits peut représenter 1024 10 états, contrairement aux XNUMX bits de l’informatique classique. L'intrication quantique, un phénomène complexe et mal compris, permet d'interconnecter les qubits, améliorant ainsi l'efficacité des calculs. En tirant parti à la fois de la superposition et de l’intrication, les ordinateurs quantiques fonctionnent dans des espaces multidimensionnels, effectuant des calculs parallèles, contrairement à l’approche séquentielle de l’informatique classique. Cette capacité de calcul avancée permet aux ordinateurs quantiques de résoudre des problèmes dépassant le cadre des ordinateurs classiques, comme la simulation précise des interactions moléculaires dans les réactions chimiques. Cela a des implications considérables pour la science et la technologie, notamment la possibilité de résoudre des problèmes beaucoup plus rapidement que les ordinateurs classiques, ce qui a un impact sur des domaines tels que la cryptographie.Comment l'informatique quantique peut-elle influencer la cryptographie ?
Comme discuté ci-dessus, la cryptographie est basée sur l'existence de problèmes mathématiques insolubles, ce qui ne signifie pas qu'ils sont insolubles, mais que le temps et les ressources nécessaires pour les inverser les rendent pratiquement sûrs.
L'informatique quantique modifie cet écosystème en minimisant le temps nécessaire à la résolution de tels problèmes en appliquant des algorithmes spécifiques.
Par exemple, l'algorithme découvert par Shor, PW (1994) Algorithmes pour le calcul quantique, ainsi que les implications d'algorithmes comme celui de Shor dans le contexte de processeurs quantiques avancés comme Quantum Heron d'IBM, soulignent le besoin imminent de systèmes cryptographiques résistants aux quantiques.
« En 1994, Peter Shor des Laboratoires Bell a montré que les ordinateurs quantiques, une nouvelle technologie exploitant les propriétés physiques de la matière et de l’énergie pour effectuer des calculs, pouvaient résoudre efficacement chacun de ces problèmes, rendant ainsi impuissants tous les cryptosystèmes à clé publique basés sur de telles hypothèses. Ainsi, un ordinateur quantique suffisamment puissant mettra en péril de nombreuses formes de communication modernes – de l’échange de clés au cryptage en passant par l’authentification numérique.
En bref, un ordinateur quantique d'une puissance suffisante pourrait carrément faire planter l'infrastructure à clé publique, créant le besoin d'une refonte de l'ensemble de l'écosystème de la cybersécurité.
Des applications récentes de la cryptographie post-quantique sont visibles dans les espaces grand public, comme la prise en charge par Chrome d'un algorithme PQC, indiquant les impacts pratiques de l'informatique quantique sur les systèmes cryptographiques actuels.
Mais ce n'est pas tout. Un autre algorithme, celui-ci de Grover, Lov K. (1996-07-01), « Un algorithme de mécanique quantique rapide pour la recherche dans les bases de données» peut constituer une menace pour la cryptographie symétrique, bien que pas aussi grave que celle de Shor. Lorsqu'il est appliqué à un ordinateur quantique suffisamment puissant, l'algorithme de Grover permet de déchiffrer des clés symétriques à une vitesse quadruple par rapport à l'informatique classique. Une amélioration significative qui est contrée par l'utilisation de clés plus grandes et le maintien du niveau de sécurité actuel.
L'informatique quantique arrivera-t-elle bientôt ?
La physique a prouvé que l'informatique quantique est faisable. Maintenant, c'est un problème d'ingénierie, bien que très difficile. La construction d'ordinateurs quantiques implique la mise en œuvre de technologies de pointe comme, entre autres, les superfluides et les supraconducteurs. Le défi de créer un système de mécanique quantique stable et évolutif est immense, et il conduit des équipes du monde entier à suivre des voies différentes. Il existe plusieurs types d'ordinateurs quantiques, notamment le modèle de circuit quantique, la machine de Turing quantique, l'ordinateur quantique adiabatique, l'ordinateur quantique unidirectionnel et divers automates cellulaires quantiques. Le plus utilisé est le circuit quantique.
Un problème important avec tout modèle d'ordinateur quantique est que, de par leur nature, les qubits perdent leur statut de superposition une fois mesurés et, par conséquent, sont très sensibles aux interférences extérieures. Par conséquent, il est difficile pour les qubits de maintenir leurs états quantiques. Certaines solutions incluent l'utilisation de pièges à ions, mais l'élimination totale des interférences externes est probablement irréalisable. En conséquence, l'un des problèmes les plus cruciaux pour la création d'ordinateurs quantiques est un mécanisme de correction d'erreurs robuste.
Grâce à de récentes percées, telles que les avancées d'IBM en matière d'informatique quantique, le domaine a dépassé les modèles théoriques pour s'orienter vers des systèmes quantiques plus pratiques et plus puissants, rapprochant ainsi l'ère quantique de ce qui avait été prévu.
Le tableau d'ensemble est qu'une percée pourrait se produire en ce moment, ou cela pourrait prendre quelques années jusqu'à ce qu'un prototype fonctionnel d'une puissance de calcul suffisante soit créé. Il existe déjà quelques prototypes, IBM Q System One étant le plus célèbre, mais leur puissance de calcul est encore trop faible pour être un problème pour les systèmes cryptographiques. En aucun cas, bien sûr, la communauté de la cybersécurité n'est autorisée à se détendre. Même si nous disposions d'un système de sécurité post-quantique efficace, la migration de l'ensemble de l'écosystème vers cette nouvelle norme est une tâche énorme. Par conséquent, plusieurs efforts sont en cours pour être prêt pour l'ère post-quantique.
Technologies prometteuses pour l’ère post-quantique
Alors que nous nous rapprochons de l'application généralisée de la technologie quantique, comme en témoignent les avancées telles que le Quantum System Two d'IBM, la nécessité d'un système résistant aux quantiques PKI Cela devient de plus en plus urgent à mesure que la technologie informatique quantique se généralise. Nous tenterons ci-dessous de résumer les technologies les plus prometteuses et de donner un bref aperçu des projets collectifs en cours pour établir la cryptographie post-quantique, ainsi que des défis à venir.
Familles d'algorithmes post-quantiques
Les recherches des 15 à 20 dernières années ont prouvé l'existence d'algorithmes résistants aux attaques quantiques. Ci-dessous, nous fournissons une brève description des familles d'algorithmes les plus prometteuses qui pourraient fournir une solution de sécurité dans un monde post-quantique.
Cryptographie basée sur le code
Les développements récents dans ce domaine, la cryptographie basée sur le code, utilisent des codes correcteurs d'erreurs pour créer une cryptographie à clé publique. Il a été proposé pour la première fois par Robert McEliece en 1978 et constitue l’un des algorithmes de chiffrement asymétrique les plus anciens et les plus étudiés. Un schéma de signature peut être construit sur la base du schéma Niederreiter, la double variante du schéma McEliece. Le cryptosystème McEliece a jusqu’à présent résisté à la cryptanalyse. Le principal problème du système d’origine est la grande taille des clés privées et publiques.
Cryptographie basée sur le hachage
Avec la mise en œuvre croissante dans les applications pratiques, la cryptographie basée sur le hachage représente une approche prometteuse de la cryptographie post-quantique pour les signatures numériques. Les fonctions de hachage sont des fonctions qui mappent des chaînes de longueur arbitraire à des chaînes de longueur fixe. Il s’agit de l’un des systèmes de cryptographie à clé publique les plus anciens, et leurs évaluations de sécurité contre les attaques classiques et quantiques sont bien comprises. Les fonctions de hachage constituent déjà l’un des outils cryptographiques les plus utilisés. On savait depuis longtemps qu’ils pouvaient être utilisés comme seul outil pour construire une cryptographie à clé publique. De plus, la cryptographie basée sur le hachage est flexible et peut répondre à différentes attentes en matière de performances. En revanche, les schémas de signature basés sur le hachage sont principalement dynamiques, ce qui signifie que la clé privée doit être mise à jour après chaque utilisation ; sinon, la sécurité n'est pas garantie. Il existe des systèmes basés sur le hachage qui sont apatrides, mais ils ont le prix de signatures plus longues, de temps de traitement plus importants et du besoin du signataire de conserver certaines informations, comme le nombre de fois qu'une clé a été utilisée pour créer une signature.
Cryptographie au latex
Actuellement envisagée pour des solutions cryptographiques plus avancées, la cryptographie basée sur réseau est un cas particulier de la cryptographie basée sur des problèmes de sous-ensemble et a été introduite pour la première fois en 1996 par Ajtai. C'est le terme générique désignant les primitives cryptographiques construites à l'aide de réseaux. Certaines de ces constructions semblent résister aux attaques informatiques à la fois quantiques et classiques. De plus, ils présentent d’autres caractéristiques intéressantes, comme la difficulté de dureté dans le pire des cas. Ils présentent également simplicité et parallélisme et sont suffisamment polyvalents pour construire des schémas cryptographiques robustes. Enfin, ils constituent la seule famille d’algorithmes contenant les trois types de primitives nécessaires à la construction d’une infrastructure à clé publique post-quantique : le chiffrement à clé publique, l’échange de clés et la signature numérique.
Cryptographie multivariée
La cryptographie multivariée fait référence à la cryptographie à clé publique dont les clés publiques représentent une carte polynomiale multivariée et non linéaire (généralement quadratique). La résolution de ces systèmes s'est avérée NP-complète, faisant ainsi de cette famille d'algorithmes de bons candidats pour la cryptographie post-quantique. Actuellement, les schémas de cryptage à plusieurs variables se sont avérés moins efficaces que d'autres schémas car ils nécessitent des clés publiques substantielles et de longs temps de décryptage. D'un autre côté, ils se sont avérés plus adaptés à la construction de schémas de signature, car ils fournissent les tailles de signature les plus courtes parmi les algorithmes post-quantiques, bien qu'ils nécessitent des clés publiques assez volumineuses.
Cryptographie basée sur l'isogénie
La cryptographie basée sur l'isogénie utilise des cartes entre des courbes elliptiques pour créer une cryptographie à clé publique. L'algorithme candidat à la cryptographie post-quantique est l'échange de clés Diffie-Hellman à isogénie supersingulière (SIDH) introduit en 2011, faisant de ce schéma le plus récent parmi les candidats. SIDH nécessite l'une des plus petites clés parmi les systèmes d'échange de clés proposés et prend en charge la confidentialité de transmission parfaite. Cependant, son âge relativement jeune signifie qu'il n'y a pas beaucoup de régimes basés sur ce concept, et il n'y a pas eu beaucoup pour inspecter leurs vulnérabilités possibles.
Projets pour la cryptographie post-quantique
Il existe différents groupes de travail sur les systèmes de cryptographie post-quantique, comme le projet Open Quantum Safe (OQS) et l'ENISA. Néanmoins, l’initiative la plus cohérente est le projet de normalisation de la cryptographie post-quantique du NIST, qui a réalisé des progrès significatifs depuis 2021, avec de nouveaux algorithmes émergeant comme pionniers de la normalisation industrielle dans l’ère post-quantique. Le processus a commencé avec 69 algorithmes candidats, dont 26 ont atteint le deuxième cycle d'évaluation. En juillet 2020, les candidats du troisième tour ont été annoncés, comme le montre le tableau ci-dessous. Il y a sept finalistes et huit candidats alternatifs au total. Le tableau indique s'ils sont pris en compte pour les schémas de chiffrement ou de signature, la famille d'algorithmes et le problème difficile sur lequel ils sont basés.
Schème | Codeur/SIg | Droit de la famille | Problème difficile |
---|---|---|---|
McEliece classique | Inc | Basé sur le code | Décodage des codes Goppa binaires aléatoires |
Cristaux-Kyber | Inc | À base de treillis | Module cyclotomique-LWE |
NTRU | Inc | À base de treillis | Problème cyclotomique NTRU |
Savoir | Inc | À base de treillis | Module Cyclotomique-LWR |
Cristaux-Dilithium | Sig | À base de treillis | Module Cyclotomique-LWE et Module-SIS |
Falcon | Sig | À base de treillis | Anneau cyclotomique-SIS |
Rainbow | Sig | Basé sur plusieurs variables | Trappe à l'huile et au vinaigre |
Candidats suppléants du 3e tour
Schème | Enc/Sig | Droit de la famille |
---|---|---|
BIKE | Inc | Basé sur le code |
HQC | Inc | Basé sur le code |
Frodon-KEM | Inc | À base de treillis |
NTRU-Prime | Inc | À base de treillis |
SIKÉ | Inc | Basé sur l'isogénie |
GeMSS | Sig | Basé sur plusieurs variables |
pique-nique | Sig | Crypto symétrique |
SPHINCS + | Sig | Basé sur le hachage |
L'évaluation de l'algorithme a été basée sur les trois critères indiqués ci-dessous.
-
Sécurité: C’est le critère le plus crucial. Le NIST a établi plusieurs facteurs à prendre en compte pour évaluer la sécurité fournie par chaque algorithme candidat. Outre la résistance quantique des algorithmes, le NIST a également défini des paramètres de sécurité supplémentaires qui ne font pas partie de l’écosystème de cybersécurité actuel. Ce sont des secrets parfaits, résistance aux attaques par canal secondaire, et résistance aux attaques multi-clés.
-
Coût et performances: Les algorithmes sont évalués en fonction de leurs mesures de performances telles que la taille des clés, l'efficacité informatique des opérations et de la génération des clés publiques et privées et les échecs de décryptage.
-
Caractéristiques de l'algorithme et de la mise en œuvre: En supposant que les algorithmes offrent une bonne sécurité et de bonnes performances globales, ils sont évalués en fonction de leur flexibilité, de leur simplicité et de leur facilité d'adoption (comme l'existence ou non d'une propriété intellectuelle couvrant l'algorithme).
Agilité cryptographique
L’agilité cryptographique est un paradigme important dans la conception de protocoles de sécurité de l’information. Il stipule que les protocoles doivent prendre en charge plusieurs primitives cryptographiques, permettant aux systèmes implémentant une norme particulière de choisir quelles combinaisons de primitives sont appropriées. L'objectif principal de l'agilité cryptographique est de permettre l'adaptation rapide de primitives et d'algorithmes cryptographiques vulnérables avec des algorithmes robustes sans apporter de modifications perturbatrices à l'infrastructure du système. Ce paradigme s’avère crucial dans la conception de la cryptographie post-quantique et nécessite une automatisation au moins partielle. Par exemple, une entreprise moyenne détient plus de centaines de milliers de certificats et de clés, et ce nombre continue de croître. Avec autant de certificats, les organisations doivent déployer des méthodes automatisées pour remplacer rapidement ces certificats si la cryptographie sur laquelle elles s'appuient devient non sécurisée.
Une excellente première mesure pour les organisations consiste à commencer à mettre en œuvre une cryptographie hybride, dans laquelle des algorithmes à clé publique à sécurité quantique sont utilisés aux côtés d'algorithmes à clé publique traditionnels (comme RSA ou les courbes elliptiques) afin que la solution ne soit au moins pas moins sécurisée que les algorithmes traditionnels existants. cryptographie.
Pour aller plus loin
L’informatique quantique est en train de passer d’une possibilité théorique à une réalité pratique, comme en témoignent les récents développements des processeurs et des systèmes quantiques. Par conséquent, le domaine de la cybersécurité devra s’adapter rapidement à ces changements.
En tant que leader en matière de cybersécurité et participant actif aux organismes de normalisation de l'identité et de la cryptographie, SSL.com continue de rechercher et de garder une longueur d'avance sur les défis rencontrés et les opportunités découlant des progrès de l'informatique quantique. SSL.com sera l'un des premiers à adopter de nouvelles normes cryptographiques à l'épreuve quantique, basées sur notre expertise et le développement continu de nouvelles solutions d'infrastructure à clé publique.