Les institutions financières (voire les entreprises en général) se laissent toutes séduire, progressivement, par les promesses de l'intelligence artificielle et déploient des plates-formes destinées à augmenter la productivité de leurs employés. Mais mettent-elles en place toutes les protections nécessaires contre les dérives et autres excès ?
Pour cette réflexion, je prends prétexte d'une annonce de BBVA, qui commence à mettre à la disposition de ses quelques 100 000 collaborateurs les outils d'IA de Google (Gemini et NotebookLM), qui viennent enrichir les solutions constituant son socle bureautique depuis plus d'une décennie. L'objectif est de faciliter et accélérer la recherche d'information, la production de résumés de texte, la rédaction de brouillons de messages, de documents, d'images, de vidéos, la prise de note durant les réunions…
Dans une approche prudente qui n'est pas systématique dans le secteur, la banque espagnole pose des conditions à l'utilisation de ces nouvelles options : le salarié devra d'abord impérativement suivre une formation avant d'être autorisé à y accéder. Le programme « AI Express » lui inculquera quelques notions essentielles pour un usage non seulement efficace mais également sécurisé et responsable, répondant notamment aux exigences réglementaires de protection des données sensibles et d'éthique.
Cette première précaution, élémentaire, devrait être universelle. Mes propres observations sur le terrain montrent, par exemple, que, autant certaines personnes peuvent réellement gagner un temps précieux (et s'épargner des tâches relativement rébarbatives) grâce à une application judicieuse et une parfaite maîtrise de l'IA, autant d'autres ne prennent pas suffisamment de recul pour se rendre compte que leurs tentatives sont stériles et rendent la vie plus difficile, à eux-mêmes et leurs collègues.
Mais, dans tous les cas, il est une considération qui n'est pas évoquée : la rentabilité. À aucun moment, et je ne vois pas que BBVA fasse mieux en la matière, les employés ne sont-ils confrontés au coût de leurs requêtes en regard des gains qu'ils peuvent en tirer. Et la même lacune me semble exister à l'échelle de l'organisation dans son ensemble : quelqu'un vérifie-t-il si les dépenses engendrées sont réellement justifiées par les gains réalisés ? La définition des métriques serait déjà un exercice complexe.
La question n'est pas anodine car la facture peut prendre rapidement des proportions inquiétantes, à la fois en terme financiers et d'impact environnemental, à un moment de l'histoire où l'empreinte du numérique est en pleine explosion en raison justement de la popularité de l'intelligence artificielle. Au-delà de la sécurité et de l'éthique, il faudra donc enseigner aux collaborateurs comment exploiter les outils à bon escient, quand leur bénéfice est mesurable, et éviter que leur recours ne devienne un réflexe bête.
En appui d'une telle résolution, et afin de maintenir l'attention de chacun sur ces enjeux critiques, je propose de mettre en place un mécanisme de sensibilisation permanent. Il s'agirait de fournir à chaque utilisateur un aperçu du coût de leurs interactions avec l'IA, au niveau de chacune d'entre elles et en vision synthétique, par exemple à travers un récapitulatif hebdomadaire ou mensuel, en donnant des équivalences, en particulier sur le volet environnemental, de manière à rendre les chiffres plus concrets.
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)