Au sein d'une promotion presque exclusivement focalisée sur l'intelligence artificielle, le « Fintech Innovation Lab » de New York, co-fondé par la ville et Accenture, accueille Reality Defender, qui développe, entre autres pour le secteur financier, des outils de détection des fraudes reposant sur l'exploitation de « deepfakes ».
Il y a quelques semaines, les analystes cybersécurité de Gartner prédisaient que, à l'horizon de 2026, 30% des entreprises se défieront des solutions de contrôle d'identité et d'authentification en raison de la menace de ces impostures « digitales », de plus en plus efficaces, quasiment indétectables… et qui entrent progressivement dans l'arsenal des escrocs de tout poil. Naturellement, les institutions financières sont concernées au premier chef en raison de la nature de leurs relations avec leurs clients.
La réponse que propose Reality Defender est (évidemment) elle-même élaborée à partir de modèles d'IA (elle en combine plusieurs afin d'améliorer sa performance). En termes d'applications, elle prend en charge les principaux vecteurs d'attaques identifiés à ce jour : l'imitation d'une voix humaine, les photographies et autres images retouchées, les vidéos manipulées et détournées, ainsi que les textes générés par la machine (domaine qui intéresse plus particulièrement le monde de l'éducation et de la culture).
Les outils de la startup sont disponibles au choix à travers une interface web, pour les analyses unitaires, même volumineuses, ou par l'intermédiaire d'une API à intégrer au cœur des processus d'entreprise, pour une évaluation des menaces en (quasi) temps réel. Cette dernière sera certainement privilégiée par les banques désireuses de détecter au plus tôt, par exemple, les tentatives d'usurpation d'identité, que ce soit par transmission de justificatifs falsifiés ou à l'occasion de contacts au centre d'appel.
Dans ce registre, un cas d'usage est justement publié, émanant d'un établissement de premier rang (non identifié) qui, face à la montée des incidents affectant ses employés, a fait appel aux services de Reality Defender dans le but de distinguer au téléphone les interlocuteurs légitimes des fraudeurs recourant à une voix synthétique. Notons que, comme toujours dans ces systèmes statistiques de sécurité, l'information fournie est une probabilité d'avoir affaire à un « deepfake », à apprécier selon le contexte.
Avant de lui trouver une utilité pratique dans l'univers de la finance, l'intelligence artificielle générative promet d'exercer un impact considérable sur la gestion des risques. Heureusement, des solutions telles que celle de Reality Defender émergent afin de les soulager. Encore faudra-t-il les insérer dans la chaîne de protection, en évitant au maximum d'introduire des frictions – déjà bien trop présentes – dans les parcours client. La sécurité est une guerre sans fin et sa prochaine bataille se joue maintenant.
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)