Dans le sillage de la présentation de sa collaboration avec Google sur l'intelligence artificielle, Lloyds Bank se livre à l'exercice désormais incontournable qui consiste à vanter le nombre de cas d'usage qu'elle a implémentés… et surenchérit en affirmant, par la voix de son responsable des données et de l'analyse, son ambition d'« activer toute la banque avec l'IA » (« enable the whole bank with AI »).
Voilà un sujet parfait pour un vendredi soir : comment persiste à ce jour l'utopie, née il y a plus de 50 ans dans les institutions financières (et qui affecte maintes autres industries) quand les premiers efforts d'informatisation ouvraient la perspective d'aboutir, un jour, à l'automatisation totale des opérations, puis relancée avec force il y a quelques années avec l'émergence des robots de pilotage de processus (RPA) et maintenant portée par les promesses de l'intelligence artificielle, de préférence « agentique ».
La réalité a en effet la tête dure. Passez un peu de temps dans n'importe quelle grande organisation et vous finirez systématiquement par découvrir une multitude de recoins oubliés de la technologie, où les modes de fonctionnement reposent toujours sur des activités manuelles à faible valeur ajoutée, occupant des dizaines de petites mains et qui résistent imperturbablement aux tentatives de transformation. Pourquoi diable l'IA parviendrait-elle mieux à éradiquer ces « anomalies » que ses prédécesseurs ?
Il faudrait analyser les causes des échecs antérieurs pour comprendre que la vision d'origine est irréaliste. L'hétérogénéité des systèmes informatiques impliqués constitue une des principales sources de problèmes (surtout quand une partie d'entre eux repose sur un socle préhistorique), imposant dans de nombreux cas des transmissions de contexte relativement complexes pour lesquelles il n'existe pas les capacités d'intégration nécessaires, si ce n'est par l'intermédiaire d'un cerveau humain.
Techniquement, il est probablement possible de surmonter ces difficultés grâce à des agents intelligents… comme l'auraient également permis les outils (RPA) de la précédente génération. Mais l'équation économique de tels projets n'est souvent pas tenable et elle tend à rester obstinément constante. En effet, si chaque nouvelle solution autorise une mise en œuvre plus simple et plus économique par rapport à ses aînées, ce sont alors les coûts d'exploitation (dette technique comprise) qui se dégradent.
En arrière-plan, ce sont les strates informatiques accumulées au fil des décennies qui limitent la capacité à automatiser la banque (a contrario, une des principales forces des jeunes pousses de la FinTech consiste justement à capitaliser sur des plates-formes à l'état de l'art et cohérentes afin d'optimiser leurs efficacité opérationnelle). À défaut de remplacer les composants obsolètes ou proches de leur fin de vie, il faudra s'accoutumer à conserver des tâches manuelles, irréductibles, dans les processus.
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)