L'annonce par Cambridge Quantum Computing de l'invention d'un algorithme quantique capable d'accélérer l'intégration de Monte-Carlo, un outil mathématique extrêmement populaire dans le calcul de risque financier, ouvre officiellement une nouvelle ère de l'informatique, avec son lot d'incertitudes, bien au-delà du domaine technologique.
Avec les promesses de mise au point des ordinateurs quantiques au cours de cette décennie, l'arrivée de ces nouvelles générations de modèles était inévitable et celui de CQC, qui est conçu pour les matériels disponibles prochainement (dits « NISQ », pour « Noisy Intermediate-Scale Quantum »), ne sera qu'un des premiers d'une longue série à venir. Il n'est reste pas moins particulièrement notable par son impact sur un domaine d'application essentiel au fonctionnement des acteurs de l'investissement.
En effet, les fonctions de Monte-Carlo sont universellement exploitées afin d'évaluer les conséquences de diverses hypothèses de marché sur un portefeuille d'actifs. L'objectif de telles analyses est d'estimer les risques de perte et d'engager les corrections nécessaires afin de les éliminer (ou, à tout le moins, les limiter). La richesse des données à prendre en compte et la complexité même de l'algorithme conduisent hélas aujourd'hui à des traitements qui durent des heures, pour un résultat qui n'est jamais exhaustif.
Depuis toujours, beaucoup dans les départements de contrôle rêvent de disposer d'un système qui serait en mesure de leur fournir des projections plus larges, par exemple prolongées sur des scénarios extrêmes, dans des délais significativement plus courts. Il s'agit exactement de la cible que propose d'atteindre l'algorithme de CQC, bien que ses concepteurs ne partagent pas d'information précise sur les gains à espérer (qui, de toutes manières, dépendront aussi de la machine sur laquelle il sera exécuté… un jour).
Le progrès réjouira donc certainement quelques responsables, même s'il leur faudra patienter avant de mettre à l'épreuve cette opportunité tant désirée. Cependant, dans l'intervalle, peut-être devraient-ils s'interroger sur ce qu'ils feront de cette innovation. Car, si, demain, les calculs de risques deviennent instantanés (hypothèse la plus optimiste), comment s'organisera leur déploiement dans les processus de surveillance et de pilotage, actuellement ajustés en grande partie autour d'un cycle quotidien ?
Chaque opération donnera-t-elle lieu à une vérification immédiate, voire anticipée, de son impact sur la position globale ? Des mécanismes de blocage en temps réel, en cas de dépassement d'un seuil prédéterminé, devront-ils être instaurés ? Le régulateur profitera-t-il de ces avancées techniques pour renforcer ses exigences ? Avec le changement radical introduit par l'informatique quantique, tant de questions inédites vont se poser sur les approches de gestion qu'il est préférable de les appréhender dès maintenant.
Dans un tout autre registre, il vaut également de suivre attentivement l'évolution du marché des algorithmes, désormais entièrement régi par les brevets. Les institutions financières doivent-elles impérativement développer leur propriété intellectuelle, de manière à préparer un futur champ de bataille concurrentiel, ou peuvent-elles faire confiance aux entreprises spécialisées (dont fait partie CQC) pour prendre durablement l'avantage et leur accorder des conditions d'usage équitables le moment venu ?
Décidément, l'informatique quantique apporte autant de problèmes que de solutions…
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)