Consciente que la lutte contre la criminalité financière est incontestablement plus efficace quand elle porte sur un périmètre élargi, la banque centrale singapourienne lance une expérimentation de détection de malversations grâce à des techniques d'analyse de données évoluées appliquées à un historique de transactions réelles.
Le principe du recours à des modèles d'apprentissage automatique, voire d'intelligence artificielle, en vue d'améliorer la performance des protections contre la fraude n'est évidemment pas nouvelle… elle représente même un des cas d'usage de ces outils parmi les plus répandus dans l'industrie. En revanche, sa déclinaison à l'échelle d'un régulateur national est plus originale et répond à un vrai enjeu de réactivité, l'identification des risques étant plus rapide à partir d'une vue de l'ensemble des échanges dans un pays plutôt qu'au seul niveau d'un établissement.
La mise en œuvre n'est toutefois pas triviale, comme le démontrent les conditions dans lesquelles la MAS organise ce qui devrait être un simple test. Certes, il n'y a aucune prouesse technique à demander à cinq banques locales de partager les informations qu'elles détiennent sur les opérations réalisées pendant une période spécifique (non précisée) puis à entraîner des solutions d'IA plus ou moins sophistiquées sur cette matière première pour l'identification automatique des tentatives d'escroquerie.
La réelle difficulté consiste à réaliser un tel projet avec toute la sécurité requise, alors que les données dont il est question sont extrêmement sensibles. Les responsables se veulent rassurants, en évoquant la mise en place d'un mécanisme de « hash » sur les références de compte (ce qui ne vaut pas anonymisation totale), un stockage chiffré (heureusement !) et des règles strictes d'accès. Mais dans le climat actuel où les fuites sont légion, est-ce suffisant ? Et il ne s'agit que d'une phase d'évaluation préliminaire : comment une éventuelle généralisation pourra-t-elle éliminer tout danger ?
La démarche engagée par la MAS est importante afin d'espérer réduire les pertes subies par les particuliers et les entreprises dans un contexte de croissance de la criminalité, désormais assistée elle-même par l'intelligence artificielle. Elle ne peut cependant, sans être taxée d'incohérence, ignorer les défis de sécurité qu'implique automatiquement son approche. Dans ce sens, elle devrait probablement se pencher au préalable ou, à tout le moins, en parallèle, sur les technologies émergentes de traitement de données préservant la confidentialité (PET)… comme l'avait fait l'ACPR française il y a quelques années (mais dont je ne connais hélas pas les résultats officiels).




















