Concept popularisé depuis (au moins) une dizaine d'années, l'assurance ouverte n'a jamais réellement percé dans l'industrie avec ses seules promesses d'amélioration de l'expérience client. Elle revient aujourd'hui en force pour répondre à de nouveaux objectifs, plus à la mode. Illustration avec une initiative présentée par Generali.
Certes, la vision d'origine n'a pas totalement disparu des ambitions et la compagnie mentionne explicitement, parmi les trois piliers stratégiques de sa démarche, le déploiement d'une offre d'API destinée à ses partenaires, permettant à ces derniers d'intégrer facilement et rapidement dans leurs propres processus des solutions d'assurance, devenues, nous promet-on, plus simples à concevoir et à assembler, dans une perspective plus vaste de fusion au sein d'un écosystème « digital » étendu.
Fait particulièrement notable, le périmètre retenu semble d'emblée déborder largement ce cadre restreint puisque, outre les parcours de souscription et de gestion des sinistres, il embarque également les fonctions administratives (de « back-office »), le raisonnement consistant dans ce cas à garantir l'interopérabilité des différents composants – hétérogènes et fréquemment isolés – du système d'information.
Un autre aspect de l'approche mérite d'être souligné, tant il illustre – du moins s'il est effectivement mis en pratique – une progression sensible de la maturité vis-à-vis des API et de l'assurance ouverte : qualifié de « design first », il s'agit de définir des services alignés sur des capacités « métier » et non, comme je l'observe encore trop souvent (aussi dans l'univers bancaire), sur les spécificités historiques des logiciels existants.
Cependant, derrière la prise de conscience que reflètent ces réflexions, surgit rapidement la principale motivation de Generali, poussée par son partenaire technique, MuleSoft, qui en fait lui-même maintenant l'argument de vente numéro 1 de ses produits d'intégration : l'intelligence artificielle et, notamment, la capacité pour des agents IA de communiquer directement avec les applications en place afin de remplir son rôle.
La mise en œuvre du programme d'« APIsation » – qui n'est donc pas toute récente – afficherait d'ores et déjà d'excellents résultats, dont se félicite l'assureur. Il cite ainsi des gains de 27% sur les temps de développement et de 15% sur le « time-to-market » (c'est-à-dire les délais de passage en production). À travers ces chiffres, il faut comprendre que la disponibilité de fonctions prêtes à l'emploi sous forme d'API exacerbe leur réutilisation et accroît de la sorte la flexibilité du patrimoine informatique.
L'initiative vaut pourtant d'être rapprochée des avertissements émis par McKinsey que j'évoquais la semaine dernnière. D'un côté, on voit bien qu'elle s'inscrit précisément dans les nouveaux besoins – entre autres d'adoption de l'IA – exerçant une pression sur la transformation des systèmes d'information. Mais, de l'autre, elle reste exposée à un risque latent en l'absence de modernisation du cœur du réacteur : bien qu'il soit possible d'exposer une couche de services à l'état de l'art sur ce socle, elle est fragile.
En effet, le plaquage artificiel d'API urbanisées et rationalisées, exploitables dans les parcours client « digitaux » du XXIème siècle, sur des logiciels historiques, imaginés à l'origine pour automatiser les tâches de processus essentiellement manuels, implique d'inévitables compromis et autres faiblesses nuisant à leur optimisation. Une telle stratégie n'a en réalité de sens que si elle est appréhendée comme étape préparatoire à une rénovation en profondeur dont elle facilitera la phase de transition.
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)