Tout le monde sait que ce genre d'incident devait arriver – je soupçonne d'ailleurs que celui-ci n'est pas le premier cas, d'autres étant certainement passés sous les radars – et la primeur en revient à Community Bank, petit établissement régional du nord-est américain, qui révèle donc officiellement une fuite de données bancaires due à l'utilisation d'un outil d'intelligence artificielle non autorisé.
Derrière les termes génériques de la déclaration effectuée auprès des autorités, le scénario qui se dégage semble à la fois totalement prévisible, tristement banal et, forcément, très inquiétant. En résumé, un employé a transmis des informations sensibles sur les clients de l'institution – comprenant leurs noms, numéros de sécurité sociale et dates de naissance – lors de l'interrogation d'une plate-forme d'IA publique, vraisemblablement ChatGPT ou un équivalent, à l'encontre des règles en vigueur.
On pourrait penser qu'une telle mésaventure n'est pas la pire qui puisse arriver, les données ayant été partagées avec une entreprise a priori responsable. Le risque de divulgation reste pourtant élevé car elles font maintenant potentiellement partie de l'apprentissage des modèles et pourraient ainsi être restituées par accident… voire par manipulation. En outre, les démarches de demandes de retrait aux fournisseurs ne sont pas toujours industrialisées et sont susceptibles de longs délais de traitement.
Un autre argument qui me sera opposé (je vous entends d'ici) portera sur la dimension de la victime : ce qui peut se produire dans une petite structure serait impossible dans un grand groupe, beaucoup mieux équipé en matière de cybersécurité. Si vous croyez à ce mythe, vous vous exposez à de sérieuses déconvenues. A minima, votre organisation comporte aussi de petites entités, où une certaine autonomie prévaut, et où les catastrophes sont prêtes à survenir, ternissant l'image de la maison mère.
Cependant, l'aspect le plus alarmant de l'histoire tient dans les parades qu'envisage la banque afin d'éviter que le problème ne se reproduise. Même si elle précise qu'elle ne se limite pas à ceux-ci, sa focalisation prioritaire sur les contrôles – entre le renforcement de ceux qui existent et l'ajout de nouveaux, en passant par une surveillance accrue – n'est résolument pas une réponse adéquate. Chaque jour qui passe démontre comment les collaborateurs trouvent toujours un moyen de contourner les restrictions.
La seule véritable solution consisterait à interdire strictement tout accès aux données de production. Le principe peut paraître radical et excessif mais, en réalité, il est parfaitement aligné avec une réalité incontournable : personne dans l'entreprise n'a besoin des informations détaillées en volume. En particulier, les développeurs et autres scientifiques de données qui mettent au point des applications doivent apprendre à le faire avec des versions désensibilisées, a minima par voie d'anonymisation.



















