Comme le reste de l'industrie financière, le géant BlackRock se jette à corps perdu dans l'intelligence artificielle, par exemple avec son nouveau système AlphaAgents dédié à la recherche pour les investisseurs. Un aspect notable de sa démarche réside dans la manière dont sont abordées la traçabilité et la véracité des résultats.
Que ce soit pour les usages internes (par les collaborateurs) ou pour les applications mises directement entre les mains des clients, la bête noire des entreprises du secteur est le risque d'hallucination (et autres dérives) et ses conséquences potentiellement désastreuses sur la confiance ainsi que celles d'ordre réglementaire. Ces craintes s'avèrent tellement élevées qu'elles constituent aujourd'hui le principal frein au déploiement en production des innombrables expérimentations qu'elles mènent.
Dans le projet de BlackRock, la réponse passe par ce que Bryan Carroll qualifie de détecteur de mensonge, basé sur la technologie, sous licence libre, Arize Phoenix. Grâce à cette dernière, tous les contenus produits par les modèles d'IA mis en œuvre sont soumis à une analyse portant sur deux dimensions complémentaires à travers un score de fidélité, reflétant l'alignement avec les sources citées, et un score de pertinence, validant que les documents retenus sont bien en rapport avec la requête.
À l'aide de ces indicateurs, et en implémentant, je suppose, un mécanisme d'alerte en cas de franchissement de seuils de justesse prédéterminés, BlackRock se vante non seulement d'avoir quasiment éliminé toute anomalie dans les études générées automatiquement, avec un filtrage en temps réel, mais également de disposer de la sorte d'une capacité d'explicabilité native sur l'ensemble de ses applications, qui lui fournit simultanément une piste d'audit à présenter, le cas échéant, au régulateur.
Ces conclusions donnent l'impression que BlackRock a atteint l'objectif suprême avec une intelligence artificielle qui ne se tromperait jamais. Il faut toutefois rester prudent : en recourant à l'IA pour contrôler ce qu'une autre IA a créé, ce qui est restitué est plus digne de confiance que ce qui n'est pas vérifié mais n'est pas infaillible. La nuance doit être gardée en mémoire afin de ne pas tomber dans une illusion dangereuse qui, parce que les erreurs se font très rares, conduirait à abandonner tout esprit critique.
Enfin, il est un sujet rarement évoqué dans ces approches de surveillance : le coût. Il est notoire que l'entraînement et le fonctionnement des modèles d'IA sont extrêmement gourmands en puissance de calcul. Or l'utilisation d'une seconde IA pour évaluer la sortie d'une autre revient à doubler (en termes d'échelle) cette consommation, et ses impacts économiques et environnementaux. Voilà un argument supplémentaire pour questionner systématiquement la valeur d'un cas d'usage avant son développement…
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)