Mémoires quantiques, erreurs et rencontres : une plongée chez Welinq
- Guillaume MATILLA
- il y a 4 jours
- 8 min de lecture
Comment une rencontre fortuite s’est transformé en conversation sur l’Internet quantique ?
Il y a des discussions qui font basculer un sujet de “concept abstrait” à “ok, là c’est du concret”.
Ma rencontre avec Thomas Nieddu fait clairement partie de celles-là.
Thomas a fait sa thèse au Laboratoire Kastler Brossel (LKB, Sorbonne Université / CNRS / ENS) sur les mémoires quantiques optiques à atomes froids, puis a rejoint Welinq, une startup qui veut fournir les “liens” de l’Internet quantique : des briques matérielles capables de stocker, router et synchroniser des qubits entre processeurs quantiques.
Ce qui m’intéresse dans cette histoire, c’est l’angle suivant :
Comment on passe d’une démonstration de labo ultra fine à une brique industrielle qui doit fonctionner dans un vrai réseau, avec du bruit, des dérives, des cycles répétés, et des exigence de sécurité ?
Et surtout : comment on maîtrise l’erreur à chaque niveau – de la physique des atomes à la théorie de l’information, en passant par la cryptographie.
De la table optique aux premières mémoires “record”
Pour comprendre ce que fait aujourd’hui Welinq, il faut revenir quelques années en arrière, côté LKB.
Autour de 2017–2018, l’équipe de Julien Laurat réalise une mémoire quantique pour qubits de polarisation basée sur un ensemble d’atomes de césium refroidis par laser. L’implémentation repose sur l’EIT (Electromagnetically Induced Transparency) dans un nuage allongé d’atomes, avec une architecture dite dual-rail pour stocker les deux polarisations dans deux modes spatiaux distincts.
Sur le papier, la promesse est simple : prendre un qubit volant (un photon), le faire interagir avec ce nuage d’atomes, l’“écrire” dans le milieu, puis le relire à la demande.
Dans les faits, ils atteignent deux chiffres qui ont beaucoup tourné dans la communauté :
une fidélité conditionnelle moyenne au-dessus de 99 %,
une efficacité de stockage–réémission autour de 68 %.
Dit autrement : quand un photon est effectivement renvoyé, son état quantique est quasi identique à celui d’entrée, et globalement plus d’information est récupérée que perdue.
Sur le plan expérimental, c’est déjà une petite révolution : ces mémoires deviennent des candidats sérieux pour jouer le rôle de nœuds dans de futurs réseaux quantiques.
Mais à cette époque, on est encore dans un contexte très “physique fondamentale” : gros montage optique, beaucoup de réglages, et une intégration système encore très loin d’un produit.
Quand la mémoire entre vraiment dans la cryptographie
Un saut qualitatif a lieu quand cette mémoire n’est plus seulement testée sur des “qubits de démonstration”, mais intégrée dans un protocole de cryptographie quantique complet.
C’est l’objet du papier “Quantum cryptography integrating an optical quantum memory” de Hadriel Mamann, Thomas Nieddu, Julien Laurat et al., publié en 2025 dans Science Advances.
L’angle est très fort :
ils implémentent une version de la monnaie quantique de Wiesner,
mais avec une étape de stockage intermédiaire dans une mémoire quantique,
et ils se placent dans le régime où le protocole est mathématiquement sécurisé, pas juste “joli sur un graphe”.
Dans la monnaie quantique façon Wiesner, un “billet” est représenté par une séquence de qubits préparés dans des bases aléatoires. Un contrefacteur qui essaie de les copier se trahit car il doit mesurer dans la mauvaise base une partie du temps, et introduit donc des erreurs détectables.
Ce que fait l’équipe Mamann / Nieddu / Laurat :
Les “billets” ou “cartes quantiques” sont encodés dans la polarisation de faibles états cohérents (des pulses lumineux très faiblement peuplés).
Ces qubits photoniques sont stockés dans une mémoire à atomes froids à haute efficacité.
Ils sont ensuite relus et vérifiés, en respectant les contraintes du protocole de monnaie quantique (taux d’erreur maximal, non-clonage, etc.)
Le papier insiste sur un point clé : le protocole de cryptographie impose des conditions très strictes sur la mémoire :
une efficacité de stockage–réémission suffisamment élevée,
un bruit (taux d’erreur) suffisamment bas.
En dessous de ces seuils, on sort de la zone où les math de la cryptographie garantissent la non-falsifiabilité du billet. Au-dessus, le protocole reste rigoureusement sûr.
Ce n’est donc plus “juste” une mémoire qui marche bien : c’est une mémoire qui passe un crash test cryptographique.
Dans les années qui suivent, ces idées sont reprises et présentées dans plusieurs conférences, par exemple à Quantum 2.0 dans la présentation “Combining a quantum cryptographic protocol with a highly efficient cold-atom-based quantum memory”, co-signée par Félix Garreau de Loubresse, Hadriel Mamann, Thomas Nieddu et al.
On voit se dessiner une trajectoire très claire :
mémoire quantique “record” (Vernaz-Gris et al.),
mémoire insérée dans un protocole quantique réel,
discussion systématique des seuils d’erreur et des conditions de sécurité.
C’est cette trajectoire qui, quelques années plus tard, permet l’émergence d’un acteur comme Welinq.
Welinq et QDrive : la mémoire quantique sort du labo
Welinq se positionne explicitement comme un fournisseur de “quantum links”, c’est-à-dire les briques réseau permettant de connecter des processeurs quantiques et de construire des réseaux quantiques de taille significative.
Leur produit phare actuel s’appelle QDrive. C’est, en gros, la version industrialisée d’une mémoire à atomes froids :
> 90 % d’efficacité de stockage et de réémission de photons uniques,
durées de stockage jusqu’à 200 µs,
système intégré dans un rack 19",
fonctionnement à température ambiante grâce à des atomes neutres piégés par laser, sans cryogénie lourde.
Dans ses communications publiques, Thomas Nieddu mentionne même 95 % d’efficacité et 200 µs de temps de mémoire atteints de manière stable sur le produit.
Ce qui me frappe ici, ce n’est pas seulement le chiffre “95 %”, c’est le contexte :
La même famille de techniques que celles utilisées dans les papiers cités (atomes froids, interfaces lumière–matière) se retrouve dans un système compact, reproductible, calibrable.
On n’est plus dans un montage fragile où chaque alignement de miroir nécessite un doctorant à coté ; on est dans un objet réseau qu’on peut, en principe, installer dans un data center.
Et ça pose une question naturelle, côté théorie de l’information :
Si on a désormais une mémoire qui, en régime stable, peut dépasser les 90–95 % d’efficacité, qu’est-ce qu’on peut faire de plus pour que l’erreur ne soit plus un frein, même dans des protocoles très profonds ou dans des réseaux à grande échelle ?
Pour répondre à ça, il faut poser un minimum de cadre mathématique.
Un socle mathématique simple pour parler “erreurs” et “mémoire”
Le qubit et l’état quantique
Un qubit pur se décrit par un vecteur dans un espace de Hilbert de dimension 2. En notation de Dirac, on écrit un état comme une combinaison linéaire de deux états de base, notés |0⟩ et |1⟩, avec des amplitudes complexes α et β. La condition de normalisation impose que la somme des probabilités associées soit égale à 1.
Dans les expériences dont on parle, ce qubit est souvent encodé dans la polarisation d’un photon (par exemple horizontal/vertical, ou des superpositions de ces deux polarisation).
Dès qu’on tient compte du bruit et des mélanges statistiques, l’objet mathématique pertinent n’est plus un simple vecteur, mais une matrice de densité ρ : une matrice hermitienne, positive, de trace 1, qui décrit à la fois les états purs et les mélanges.
La mémoire comme canal quantique
Une mémoire idéale agirait comme l’identité : elle laisserait l’état d’entrée inchangé. On note souvent l’état d’entrée ρ_in et l’état de sortie ρ_out. Dans le cas parfait, la transformation N_id appliquée par la mémoire vérifie :
En réalité, une mémoire quantique réelle est un canal quantique bruité, que l’on note N. L’état qui ressort est alors :
En fonction de la physique de la mémoire, ce canal peut ressembler à un canal de perte (certains photons disparaissent), un canal de déphasage (on perd de l’information de phase) ou un canal dépolarisant (on se rapproche d’un état mélangé).
Une grandeur importante, qu’on retrouve dans les travaux de Vernaz-Gris et al., est l’efficacité de la mémoire, notée η, définie comme le rapport entre le nombre de photons détectés en sortie et le nombre de photons envoyés en entrée :
Dans les mémoires LKB “record”, cette efficacité avoisine 68 %, et dans les produits plus récents, comme QDrive, elle grimpe au-delà de 90 %, voire 95 %, ce qui change la donne pour les protocoles complexes.
Fidélité : mesurer à quel point la mémoire respecte l’état
Pour quantifier “à quel point” l’état en sortie ressemble à l’état idéal en entrée, on utilise la fidélité.
Dans le cas le plus simple, où l’état idéal et l’état réel sont deux états purs décrits par des vecteurs |ψ⟩ et |φ⟩, la fidélité est simplement le carré du chevauchement :
Dans le cas général, où l’on manipule des matrices de densité ρ_in et ρ_out (qui peuvent représenter des états mélangés), on utilise la définition dite “d’Uhlmann” :
Intuitivement : plus F est proche de 1, plus l’état en sortie est indiscernable de l’état idéal en entrée. Dans les expériences de Vernaz-Gris et al., la fidélité conditionnelle dépasse 0,99 ; dans les protocoles de monnaie quantique, il existe des seuils explicites sur F au-delà desquels le protocole reste prouvablement sécurisé.
Entropie : quantifier l’incertitude et le bruit
Pour mesurer l’“incertitude” ou le désordre introduit par le bruit, on utilise l’entropie de von Neumann d’un état ρ, qui joue le même rôle que l’entropie de Shannon pour des distributions classiques :
Si ρ décrit un état pur, l’entropie vaut zéro : il n’y a pas d’incertitude. Si ρ est maximement mélangé (pour un qubit, “pile ou face” parfait), l’entropie vaut 1 bit.
Chaque passage par une mémoire bruitée a tendance à faire augmenter l’entropie : une partie de l’information cohérente se transforme en mélange statistique. Dans un protocole de cryptographie, la question n’est pas seulement de savoir si la mémoire fonctionne “bien”, mais de vérifier que l’augmentation d’entropie causée par cette mémoire reste compatible avec les bornes de sécurité du protocole.
Ce petit socle – qubit, canal, efficacité, fidélité, entropie – suffit déjà à poser le problème de manière propre : on sait décrire comment la mémoire agit sur l’état, combien d’information elle laisse passer, et combien de désordre elle introduit.
Où se situe vraiment le “mur des erreurs” ?
Historiquement, les travaux de Laurat, Vernaz-Gris, Nieddu et collègues ont montré deux choses importantes. D’abord, qu’on pouvait construire des mémoires à atomes froids très performantes, avec une fidélité conditionnelle supérieure à 99 % et une efficacité déjà remarquable. Ensuite, qu’on pouvait insérer ces mémoires dans des protocoles de cryptographie réellement contraignants, comme la monnaie quantique, tout en restant dans les zones où les théorèmes de sécurité continuent de s’appliquer.
Aujourd’hui, des acteurs comme Welinq poussent ces mêmes idées vers des systèmes intégrables, du type QDrive, qui affichent des efficacités au-delà de 90–95 % et des temps de stockage de l’ordre de la centaine de microsecondes, dans un format de rack standard. On est clairement sortis du pur banc d’optique académique.
Mais si on regarde l’ensemble avec un œil “théorie de l’information”, un point reste critique : un étage qui marche à 90–95 % de fidélité, c’est excellent, mais un réseau complet qui enchaîne des dizaines d’étapes (préparation, distribution, stockage, synchronisation, mesures, post-traitement) va voir les erreurs se cumuler. Même un bruit faible par étape finit par manger la marge de sécurité dès qu’on allonge la profondeur du protocole ou la taille du réseau.
C’est ça, le “mur des erreurs” : tant qu’on considère la mémoire uniquement comme un tampon performant, on sous-estime la façon dont les erreurs se propagent à l’échelle du système. La vraie question, aujourd’hui, devient :
Maintenant qu’on sait faire une mémoire très bonne, comment on la rend robuste au niveau du réseau, en travaillant explicitement sur les erreurs, avec les bons outils théoriques (canaux, entropie, capacité, codes correcteurs) et les bonnes architectures (répéteurs, correction intégrée, protocoles adaptatifs) ?
C’est ce que je veux creuser dans la deuxième partie : poser proprement le cadre informationnel, cartographier les stratégies de correction possibles autour et à l’intérieur de la mémoire, et réfléchir à ce qu’il faudrait mettre en place pour passer de “90–95 % en labo” à un régime “99 % et plus” réellement exploitable dans des réseaux quantiques complexes.
Commentaires