Free cookie consent management tool by TermsFeed
C'est pas mon idée !

mercredi 30 avril 2025

La FCA veut offrir un testeur d'IA

FCA
Fidèle à son habitude historique, la FCA britannique envisage la réglementation du secteur financier à l'ère de l'intelligence artificielle avec pragmatisme et dans une perspective d'accompagnement. Elle explore donc actuellement l'idée d'une capacité de test et de validation des applications d'IA développées par les acteurs qu'elle supervise.

La proposition, qui est pour l'instant soumise aux avis et commentaires du public, reprend des principes similaires à ceux qui ont présidé à la création d'un bac à sable réglementaire il y a presque 10 ans et qui ont déjà inspiré la création d'un AI Lab, dans le périmètre duquel elle s'inscrit. Il s'agit ainsi de fournir un cadre aux entreprises souhaitant expérimenter sur des thématiques relativement pionnières en s'affranchissant des incertitudes juridiques qui accompagnent généralement ces initiatives.

À contre-courant des réflexes de ses homologues, qui cherchent à imposer des exigences (plus ou moins pertinentes) avant toute mise en œuvre, la FCA reconnait qu'une telle démarche risque non seulement de freiner le progrès mais aussi de rater sa cible, en raison notamment de la volatilité du sujet considéré. Dans un premier temps, elle estime que les règles existantes sont suffisantes et qu'il est préférable de vérifier au cas par cas les projets innovants susceptibles de sortir de leur domaine d'applicabilité.

En pratique, le principe du service « Live AI Testing » consisterait à définir un protocole de test multi-facettes permettant 1) aux organismes financiers de s'assurer de la qualité et de la fiabilité des applications mises à la disposition du grand public ou, plus généralement, du « marché », 2) de leur donner confiance en termes de conformité, ce qui devrait les encourager à s'approprier les opportunités de l'intelligence artificielle, et 3) au régulateur de garder un œil (bienveillant) sur leurs impacts sur le secteur.

FCA Live AI Testing

Le plan de la FCA paraît extrêmement ambitieux. Pour commencer, elle veut s'attaquer à l'ensemble des problématiques soulevées par l'IA : la véracité des résultats (par exemple face aux dangers des hallucinations), l'explicabilité, les biais, les moyens de détection et de correction en cas de dérive… Elle les aborde en outre sous l'angle de ses préoccupations régaliennes – les implications de faiblesses éventuelles pour les marchés financiers, les conséquences potentielles pour les populations vulnérables… – dont la corrélation avec des sources d'erreurs n'est pas toujours évidente.

Avec une vision aussi large, il est difficile d'imaginer comment pourront être identifiés des indicateurs valides sur chacune des dimensions appréhendées, comment ils pourront être évalués et étalonnés et comment, puisqu'il s'agit d'un autre objectif affiché, pourront être estimés les effets de mesures d'ajustement recommandées… Cependant, si les efforts aboutissent, ce pourrait être un formidable accélérateur d'adoption de l'IA pour l'industrie financière du Royaume-Uni et, si leurs conclusions sont partagées, du reste du monde. Car les outils de test qui sortiront de l'initiative n'ont pas nécessairement besoin de l'intervention d'un régulateur pour en tirer profit.

Aucun commentaire:

Enregistrer un commentaire

Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)