Dans le cadre des réflexions, au plus haut niveau de l'état, sur les opportunités de l'intelligence artificielle pour la France, l'ACPR s'est emparée du sujet en 2018, dans ses implications et ses enjeux pour le secteur financier. La synthèse de ses travaux vient d'être publiée [PDF] et fait l'objet d'un appel à commentaires [PDF]. En voici un !
Bien que focalisé en grande partie sur les aspects réglementaires du débat, le rapport – auquel j'ai modestement apporté ma contribution – a le mérite d'établir un état des lieux relativement complet et objectif de la situation et des perspectives de l'intelligence artificielle dans l'univers de la banque et de l'assurance. Il aborde notamment avec une certaine exhaustivité les grands cas d'usage rencontrés, les principaux domaines d'application envisagés, les bénéfices espérés et les risques à maîtriser.
Pourtant il est un frein à la concrétisation des promesses de l'IA qui me semble oublié de ces conclusions, peut-être à dessein car il est difficile à matérialiser. Comme je l'ai déjà suggéré dans ces colonnes, les innombrables expérimentations menées dans les institutions financières peinent à passer le cap de la mise en production parce que, en dehors des projets dans lesquels la contribution de la technologie est mineure, un déploiement implique une forme de « lâcher-prise » qui tend à terrifier les décideurs.
En effet, sans grande surprise, au moment de laisser un algorithme – dont, finalement, personne ne sait avec certitude comment il « raisonne » – prendre entièrement la main sur un processus (ou une partie d'un processus, plus vraisemblablement), les hésitations et la dérobade l'emportent fréquemment. Notons ici que la réaction qui consiste à confier à un humain la tâche de valider les propositions de l'IA est probablement une erreur, car elle risque d'induire des biais supplémentaires au lieu d'apporter une solution.
Bien que focalisé en grande partie sur les aspects réglementaires du débat, le rapport – auquel j'ai modestement apporté ma contribution – a le mérite d'établir un état des lieux relativement complet et objectif de la situation et des perspectives de l'intelligence artificielle dans l'univers de la banque et de l'assurance. Il aborde notamment avec une certaine exhaustivité les grands cas d'usage rencontrés, les principaux domaines d'application envisagés, les bénéfices espérés et les risques à maîtriser.
Pourtant il est un frein à la concrétisation des promesses de l'IA qui me semble oublié de ces conclusions, peut-être à dessein car il est difficile à matérialiser. Comme je l'ai déjà suggéré dans ces colonnes, les innombrables expérimentations menées dans les institutions financières peinent à passer le cap de la mise en production parce que, en dehors des projets dans lesquels la contribution de la technologie est mineure, un déploiement implique une forme de « lâcher-prise » qui tend à terrifier les décideurs.
En effet, sans grande surprise, au moment de laisser un algorithme – dont, finalement, personne ne sait avec certitude comment il « raisonne » – prendre entièrement la main sur un processus (ou une partie d'un processus, plus vraisemblablement), les hésitations et la dérobade l'emportent fréquemment. Notons ici que la réaction qui consiste à confier à un humain la tâche de valider les propositions de l'IA est probablement une erreur, car elle risque d'induire des biais supplémentaires au lieu d'apporter une solution.
En conséquence, le défi majeur pour le régulateur, s'il est sincère dans sa volonté de créer un environnement favorable au développement de l'intelligence artificielle, sera de ne surtout pas ajouter de nouveaux facteurs à l'angoisse du passage à l'acte. La décision est suffisamment difficile à prendre pour éviter de faire peser sur les initiatives une menace réglementaire additionnelle, potentiellement disproportionnée (ou perçue comme telle), dont les contours seraient mal définis et les modalités d'application floues.
Un outil qui permettrait de limiter les impacts négatifs de toute démarche de contrôle susceptible de confusions existe : c'est le concept de bac à sable. En l'occurrence, il pourrait s'agir d'instaurer un régime expérimental pour des applications avancées de l'intelligence artificielle, dans lequel le régulateur accorderait une pré-autorisation de déploiement sur un périmètre donné (un nombre de clients limité, par exemple), en contrepartie d'une information détaillée et d'un suivi rapproché lors de la mise en œuvre.
À l'instar de la « sandbox » britannique, l'objectif ne serait pas de constituer un cadre réglementaire spécifique (donc discriminatoire) mais de procurer aux institutions financières et aux startups de la FinTech les conditions indispensables pour qu'elles mènent leurs programmes d'innovation avec sérénité. Naturellement, le bac à sable n'est pas une fin en soi : il faut ensuite en faciliter la sortie, avec des règles du jeu claires et adaptées, qui devraient d'ailleurs intégrer des dispositifs de réparation en cas d'incident.
Un outil qui permettrait de limiter les impacts négatifs de toute démarche de contrôle susceptible de confusions existe : c'est le concept de bac à sable. En l'occurrence, il pourrait s'agir d'instaurer un régime expérimental pour des applications avancées de l'intelligence artificielle, dans lequel le régulateur accorderait une pré-autorisation de déploiement sur un périmètre donné (un nombre de clients limité, par exemple), en contrepartie d'une information détaillée et d'un suivi rapproché lors de la mise en œuvre.
À l'instar de la « sandbox » britannique, l'objectif ne serait pas de constituer un cadre réglementaire spécifique (donc discriminatoire) mais de procurer aux institutions financières et aux startups de la FinTech les conditions indispensables pour qu'elles mènent leurs programmes d'innovation avec sérénité. Naturellement, le bac à sable n'est pas une fin en soi : il faut ensuite en faciliter la sortie, avec des règles du jeu claires et adaptées, qui devraient d'ailleurs intégrer des dispositifs de réparation en cas d'incident.
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)