Largement éclipsée par l'intelligence artificielle, dont elle pourrait pourtant contribuer à décupler les performances, l'informatique quantique reste une tendance extrêmement importante à plus ou moins long terme. Il ne faut donc guère s'étonner qu'une banque telle que BBVA s'attache à en explorer les frontières avant sa maturité.
Pour l'instant, en 2024, le changement d'échelle dans les capacités de calcul que devraient autoriser ces futurs ordinateurs fonctionnant non plus sur la base de composants électroniques ordinaires mais à partir des principes de changements d'état de la matière reste une promesse théorique dont la concrétisation, si elle survient un jour, demandera encore plusieurs années de recherche. Le principal obstacle est l'instabilité des machines actuelles, qui nuit à la qualité des résultats produits.
Malgré tout, les perspectives sont si attractives, en particulier dans le secteur financier, que les tentatives d'apprivoiser au plus tôt la technologie se multiplient, à la fois dans le but d'apprendre à exploiter sa puissance, qui exige un ré-apprentissage complet des pratiques de développement logiciel, qu'afin de vérifier, autant que possible, que les bénéfices espérés seront bien au rendez-vous. C'est essentiellement sur ce second objectif que BBVA se focalise avec ses dernières expérimentations en date.
Les grands cas d'usage envisagés – en tous cas pour commencer – sont désormais stabilisés. Ils concernent, d'une part, la sécurisation des données et des communications, dont les mécanismes en vigueur sont menacés par l'informatique quantique, et, d'autre part, les simulations de risque, notamment sur des portefeuilles de banque d'investissement, qui sont les plus susceptibles de profiter des gains supposés des traitements parallélisés qui constituent le cœur du futur nouveau paradigme.
Or la difficulté rencontrée par les chercheurs en finance, surtout dans ce dernier domaine, consiste à vérifier les hypothèses qu'ils formulent à échelle réelle et non seulement sur des échantillons peu représentatifs. En d'autres termes, il leur faut démontrer que les infrastructures industrielles de demain offriront un avantage suffisant pour justifier les investissements à consentir, sans se contenter d'interpolations à partir de quelques tests réalisés sur des sortes de maquettes miniatures.
Or, avec les modèles de simulation disponibles aujourd'hui, la tâche est impossible à exécuter dans des délais raisonnables sur des composants traditionnels. C'est pourquoi BBVA, en collaboration avec le spécialiste VASS et l'opérateur infonuagique AWS, a mis au point un environnement distribué dont la dimension globale atteint l'équivalent d'un ordinateur quantique de 38 qubits. Il permet ainsi à l'établissement d'approcher des conditions opérationnelles pour les algorithmes dont il souhaite valider la pertinence.
Nul ne sait vraiment à quelle échéance, mais il est désormais quasiment certain que l'informatique quantique finira par s'imposer un jour et il ne fait alors aucun doute que son impact sera considérable sur toutes les organisations dont l'activité repose sur le traitement de l'information… donc une grande partie des économies modernes. Celles qui, comme BBVA, se préparent dès maintenant mettent toutes les chances de leur côté pour faire partie des premières à capitaliser sur ses opportunités.
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)