Promesse de révolution à venir, l'informatique quantique devient rapidement un terrain d'expérimentation fertile pour le secteur financier. Après les initiatives, sur des thématiques variées, de, entre autres, CommBank, NatWest, ABN AMRO, CaixaBank, BBVA, c'est maintenant au tour de Deutsche Börse Group d'en explorer les opportunités.
Conscient, comme toutes les entreprises qui s'intéressent actuellement au sujet, des limitations des matériels disponibles aujourd'hui, le groupe boursier allemand n'envisage pas un déploiement opérationnel avant plusieurs années mais considère que les avancées rapides de la technologie requièrent désormais son attention, sachant que les importantes transformations, multi-dimensionnelles, à prévoir pour son éventuelle adoption nécessiteront une longue phase de préparation et d'adaptation.
Dans ce contexte d'anticipation des progrès futurs, sa première préoccupation consiste à évaluer les opportunités que peut susciter l'informatique quantique dans ses différents métiers, ce qui l'amène logiquement à organiser un test concret sur un domaine a priori propice à tirer le meilleur parti des particularités du concept. Son objectif est à la fois de déterminer la faisabilité et la viabilité d'une mise en œuvre et d'évaluer précisément les bénéfices à en espérer, de manière à pouvoir justifier un investissement ultérieur.
En pratique, le choix s'est porté sur la modélisation du risque financier, un problème universel dans les institutions financières, dont la résolution passe par le recours à des simulations d'événements externes (choc macro-économique, nouvelle réglementation, variations de marché…), effectuées habituellement à l'aide de la méthode de Monte-Carlo, et la mesure de leur impact sur (par exemple) un portefeuille de valeurs. Un algorithme équivalent a donc été programmé, en collaboration avec la jeune pousse spécialisée JoS Quantum, et mis à l'épreuve sur le « nuage quantique » d'IBM.
Bien que la puissance limitée (quoique à l'état de l'art) de l'infrastructure exploitée – mesurée en « qubits », comparables aux unités centrales (CPU) des ordinateurs conventionnels et dont l'enjeu majeur pour la recherche est d'en multiplier le nombre – ne soit pas, à ce stade, suffisante pour procurer un avantage déterminant, les résultats obtenus se révèlent extrêmement encourageants. En effet, là où, avec les approches classiques, les durées de calculs croissent exponentiellement selon le nombre de paramètres pris en compte en entrée, le système quantique présente un profil linéaire.
À défaut de disposer des conditions techniques permettant de les valider « in vivo », Deutsche Börse a ainsi réalisé des projections à partir de ses propres observations. Il en ressort un gain potentiel d'un facteur 200 000 dans des conditions extrêmes, soit un temps de traitement estimé de l'ordre de 30 minutes pour une simulation sur 1 000 paramètres, tandis que les outils existants prendraient plus de 10 ans ! L'écart entre une option qui semble bientôt à portée et une hypothèse totalement inaccessible…
Dernier enseignement, les experts sont convaincus que la maturité nécessaire à l'atteinte de telles performances n'est plus très lointaine, avec une échéance avant 2030. Ce rapprochement explique naturellement pourquoi les initiatives se développent : bien qu'il reste quelques années pour s'approprier l'informatique quantique, la complexité de la transition, entre apprentissage de nouveaux modes de programmation, changement d'échelle dans les énoncés de problème…, justifie un engagement dès maintenant.
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)