Des articles sensationnels comme cet sur les ordinateurs quantiques même en 2016, créent des incertitudes pour la sécurité des données dans le cas où des ordinateurs quantiques de puissance suffisante sont construits. Cet article tentera de faire la lumière sur la situation.
Qu'est-ce que l'informatique quantique?
L'informatique quantique est l'application des principes de la mécanique quantique pour effectuer des calculs. Plus précisément, l'informatique quantique exploite les états quantiques de particules subatomiques comme la superposition et l'intrication pour créer des ordinateurs quantiques. Lorsqu'ils sont appliqués à des ordinateurs quantiques dotés d'une puissance suffisante, des algorithmes spécifiques peuvent effectuer des calculs beaucoup plus rapidement que les ordinateurs classiques et même résoudre des problèmes hors de portée de la technologie informatique actuelle. En conséquence, il y a un intérêt accru de la part des gouvernements et les industries du monde entier pour développer des ordinateurs quantiques. Le domaine en est encore à ses balbutiements, mais le développement gagne du terrain et il existe déjà des ordinateurs quantiques fonctionnels, bien que très faibles à ce stade.
SSL.com fournit une grande variété de SSL /TLS certificats de serveur pour les sites Web HTTPS.
Informatique classique et quantique
Comment l'informatique quantique peut-elle influencer la cryptographie ?
« En 1994, Peter Shor de Bell Laboratories a montré que les ordinateurs quantiques, une nouvelle technologie exploitant les propriétés physiques de la matière et de l'énergie pour effectuer des calculs, peuvent résoudre efficacement chacun de ces problèmes, rendant ainsi impuissants tous les cryptosystèmes à clé publique basés sur de telles hypothèses. Ainsi, un ordinateur quantique suffisamment puissant mettra en péril de nombreuses formes de communication moderne, de l'échange de clés au cryptage en passant par l'authentification numérique.
L'informatique quantique arrivera-t-elle bientôt ?
Que pouvons-nous faire?
Lorsque la technologie informatique quantique généralisée arrivera, nous devrons être prêts avec un PKI. Il existe de nombreux projets en cours vers cet objectif et de nombreuses technologies proposées qui pourraient apporter une solution. Ci-dessous, nous tenterons de résumer les technologies les plus prometteuses et de donner un bref aperçu des projets collectifs en cours pour établir la cryptographie post-quantique, ainsi que les défis qui nous attendent.
Familles d'algorithmes post-quantiques
Les recherches des 15 à 20 dernières années ont prouvé l'existence d'algorithmes résistants aux attaques quantiques. Ci-dessous, nous fournissons une brève description des familles d'algorithmes les plus prometteuses qui pourraient fournir une solution de sécurité dans un monde post-quantique.
Cryptographie basée sur le code
La cryptographie basée sur le code utilise des codes de correction d'erreurs pour créer une cryptographie à clé publique. Il a été proposé pour la première fois par Robert McEliece en 1978 et est l'un des algorithmes de cryptage asymétrique les plus anciens et les plus étudiés. Un schéma de signature peut être construit sur la base du schéma de Niederreiter, la variante double du schéma de McEliece. Le cryptosystème McEliece a jusqu'à présent résisté à la cryptanalyse. Le principal problème avec le système d'origine est la grande taille des clés privées et publiques.
Cryptographie basée sur le hachage
Cryptographie basée sur le hachage représente une approche prometteuse de cryptographie post-quantique pour les signatures numériques. Les fonctions de hachage sont des fonctions qui mappent des chaînes de longueur arbitraire à des chaînes de longueur fixe. Il s'agit de l'un des plus anciens schémas de cryptographie à clé publique, et leurs évaluations de sécurité contre les attaques classiques et quantiques sont bien comprises. Les fonctions de hachage sont déjà l'un des outils cryptographiques les plus utilisés. On savait depuis longtemps qu'ils pouvaient être utilisés comme seul outil pour construire une cryptographie à clé publique. De plus, la cryptographie basée sur le hachage est flexible et peut répondre à différentes attentes de performances. En revanche, les schémas de signature basés sur le hachage sont principalement avec état, ce qui signifie que la clé privée doit être mise à jour après chaque utilisation ; sinon, la sécurité n'est pas garantie. Il existe des schémas basés sur le hachage qui sont sans état, mais ils se font au prix de signatures plus longues, de temps de traitement plus importants et du besoin du signataire de garder une trace de certaines informations, comme le nombre de fois qu'une clé a été utilisée pour créer une signature.
Cryptographie au latex
La cryptographie basée sur les réseaux est un cas particulier de la cryptographie basée sur les problèmes de la somme des sous-ensembles et a été introduite pour la première fois en 1996 par Ajtai. C'est le terme générique pour les primitives cryptographiques construites à l'aide de treillis. Certaines de ces constructions semblent être résistantes à la fois aux attaques informatiques quantiques et classiques. De plus, ils présentent d'autres caractéristiques intéressantes, comme la difficulté de dureté dans le pire des cas. En outre, ils présentent simplicité et parallélisme et sont suffisamment polyvalents pour construire des schémas cryptographiques robustes. Enfin, ils constituent la seule famille d'algorithmes contenant les trois types de primitives nécessaires à la construction d'une infrastructure à clé publique post-quantique : chiffrement à clé publique, échange de clé et signature numérique.
Cryptographie multivariée
La cryptographie multivariée fait référence à la cryptographie à clé publique dont les clés publiques représentent une carte polynomiale multivariée et non linéaire (généralement quadratique). La résolution de ces systèmes s'est avérée NP-complète, faisant ainsi de cette famille d'algorithmes de bons candidats pour la cryptographie post-quantique. Actuellement, les schémas de cryptage à plusieurs variables se sont avérés moins efficaces que d'autres schémas car ils nécessitent des clés publiques substantielles et de longs temps de décryptage. D'un autre côté, ils se sont avérés plus adaptés à la construction de schémas de signature, car ils fournissent les tailles de signature les plus courtes parmi les algorithmes post-quantiques, bien qu'ils nécessitent des clés publiques assez volumineuses.
Cryptographie basée sur l'isogénie
La cryptographie basée sur l'isogénie utilise des cartes entre des courbes elliptiques pour créer une cryptographie à clé publique. L'algorithme candidat à la cryptographie post-quantique est l'échange de clés Diffie-Hellman à isogénie supersingulière (SIDH) introduit en 2011, faisant de ce schéma le plus récent parmi les candidats. SIDH nécessite l'une des plus petites clés parmi les systèmes d'échange de clés proposés et prend en charge la confidentialité de transmission parfaite. Cependant, son âge relativement jeune signifie qu'il n'y a pas beaucoup de régimes basés sur ce concept, et il n'y a pas eu beaucoup pour inspecter leurs vulnérabilités possibles.
Projets pour la cryptographie post-quantique
Il existe différents groupes de travail pour les schémas de cryptographie post-quantique, comme le Projet Open Quantum Safe (OQS) et L'ENISA. Pourtant, l'initiative la plus cohérente est la Projet de normalisation de la cryptographie post-quantique du NIST qui est en cours depuis 2017. Comme son nom l'indique, le projet vise à choisir un schéma de cryptographie approprié qui sera la norme de l'industrie à l'ère post-quantique. Le processus a commencé avec 69 algorithmes candidats, dont 26 sont passés au deuxième tour d'évaluation. En juillet 2020, les candidats du 3e tour ont été annoncés, comme indiqué dans le tableau ci-dessous. Il y a sept finalistes et huit candidats alternatifs au total. Sur le tableau est noté s'ils sont pris en compte pour les schémas de chiffrement ou de signature, la famille d'algorithmes et le problème difficile sur lequel ils sont basés.
Schème | Codeur/SIg | Droit de la famille | Problème difficile |
Finalistes du 3e tour | |||
McEliece classique | Inc | Basé sur le code | Décodage des codes Goppa binaires aléatoires |
Cristaux-Kyber | Inc | À base de treillis | Module cyclotomique-LWE |
NTRU | Inc | À base de treillis | Problème cyclotomique NTRU |
Savoir | Inc | À base de treillis | Module Cyclotomique-LWR |
Cristaux-Dilithium | Sig | À base de treillis | Module Cyclotomique-LWE et Module-SIS |
Falcon | Sig | À base de treillis | Anneau cyclotomique-SIS |
Rainbow | Sig | Basé sur plusieurs variables | Trappe à l'huile et au vinaigre |
Candidats suppléants du 3e tour | |||
BIKE | Inc | Basé sur le code | Décodage de codes quasi-cycliques |
HQC | Inc | Basé sur le code | Variante de codage de Ring-LWE |
Frodon-KEM | Inc | À base de treillis | LWE |
NTRU-Prime | Inc | À base de treillis | Problème NTRU non cyclotomique ou Ring-LWE |
SIKÉ | Inc | Basé sur l'isogénie | Problème d'isogénie avec des points supplémentaires |
GeMSS | Sig | Basé sur plusieurs variables | Trappe 'Big-Field' |
pique-nique | Sig | Crypto symétrique | Résistance de préimage d'un chiffrement par bloc |
SPHINCS + | Sig | Basé sur le hachage | Résistance de préimage d'une fonction de hachage |
L'évaluation de l'algorithme a été basée sur les trois critères indiqués ci-dessous.
- Sécurité : C'est le critère le plus crucial. Le NIST a établi plusieurs facteurs à prendre en compte pour évaluer la sécurité fournie par chaque algorithme candidat. Outre la résistance quantique des algorithmes, le NIST a également défini des paramètres de sécurité supplémentaires qui ne font pas partie de l'écosystème de cybersécurité actuel. Il s'agit d'un secret de transmission parfait, d'une résistance aux attaques par canal latéral et d'une résistance aux attaques multi-clés.
- Coût et performances : les algorithmes sont évalués en fonction de leurs métriques de performances telles que la taille des clés, l'efficacité de calcul des opérations et de la génération de clés publiques et privées, et les échecs de déchiffrement.
- Caractéristiques de l'algorithme et de la mise en œuvre : en supposant que les algorithmes offrent une bonne sécurité et de bonnes performances globales, ils sont évalués en fonction de leur flexibilité, de leur simplicité et de leur facilité d'adoption (comme l'existence ou non d'une propriété intellectuelle couvrant l'algorithme).
Agilité cryptographique
Conclusion