Une décision de justice rendue la semaine passée aux Pays-Bas, dans une affaire opposant une jeune pousse à la banque centrale, vient nous rappeler à quel point la technologie intervient désormais au cœur des enjeux réglementaires, ce que les autorités qui en ont la (lourde) charge n'appréhendent pas toujours avec la lucidité nécessaire.
En quelques mots, le verdict d'une cour d'appel a confirmé que, en dépit de plusieurs manquements avérés, que ne manque pas de souligner la DNB dans sa propre lecture, la néo-banque locale Bunq ne pouvait légitimement se voir interdire par son organisme de tutelle d'exploiter des méthodes modernes, telles que l'apprentissage automatique, en lieu et place des mécanismes traditionnels qu'elle estime obsolètes et inefficaces, afin de respecter ses obligations légales en matière de lutte contre le blanchiment.
Peu de détails accompagnent la description du litige, en dehors du périmètre concerné, à savoir la vérification de l'identité des clients et des bénéficiaires effectifs, ainsi que l'origine des fonds manipulés. Il est toutefois aisé d'imaginer qu'il porte sur l'insistance habituelle du secteur à réclamer des copies de justificatifs et autres déclarations sur l'honneur, dont la falsification n'arrête évidemment pas les individus malintentionnés mais paraît pourtant satisfaire le régulateur, au contraire de puissants algorithmes d'analyse.
En arrière-plan, le débat est loin d'être anecdotique car la mise en place et le maintien d'un cadre de conformité constituent une des barrières les plus importantes à la création et à la survie d'une entreprise de la finance, en raison de leur coût exorbitant. Or celui-ci est largement déterminé par le besoin de recruter des bataillons de collaborateurs dont le rôle consiste à exécuter les processus de contrôle hérités d'une autre époque, que personne ne cherchait à remettre en cause… jusqu'à la démarche de Bunq.
Naturellement, le recours à l'automatisation logicielle représente la principale arme d'optimisation de la FinTech, dans la gestion des risques comme dans l'ensemble des activités. Il s'agit alors d'un point de friction majeur avec les régulateurs, qui ont souvent tendance, faute, en général, de posséder une culture informatique suffisante leur permettant d'évaluer les approches innovantes, à faire porter leurs exigences sur les moyens déployés en réponse à un texte plutôt qu'à l'objectif réel de protection visé.
Dans le cas présent, il semblerait que la banque centrale ait pris acte des errements qui lui sont reprochés et ait, en conséquence, entamé une révision de ses pratiques. Il faudra tout de même s'assurer qu'elle ne se contente pas d'édicter une doctrine spécifiant une gamme enrichie d'outils acceptables : la rapidité d'évolution du monde contemporain impose désormais de définir un modèle de conformité flexible, capable de profiter des meilleures solutions émergentes sans devoir attendre une validation préalable.
Incidemment, et pour conclure, il faudrait également prendre conscience que les problématiques sont fréquemment similaires dans les institutions financières, où les équipes de contrôle prennent facilement le relais du conservatisme et refusent plus ou moins arbitrairement d'aborder les sujets sous un angle différent de celui en vigueur depuis toujours. Elles devraient prendre garde à la menace d'effondrement qui les guette face à l'alourdissement des contraintes sans ajustement de leur mode d'application.
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)