Depuis que le meurtre de son directeur général semble avoir été motivé par le ressentiment contre les refus et délais de prise en charge médicale de ses assurés par UnitedHealthCare, des voix s'élèvent contre son usage de l'analyse de données et de l'intelligence artificielle afin de valider les demandes. Elles se trompent peut-être de cible.
Indépendamment de l'affaire criminelle, dont l'enquête suit son cours, le cas d'UHC est probablement représentatif de ce qui attend à terme la plupart des entreprises qui tentent de concrétiser les promesses de l'IA, surtout dans des secteurs sensibles (dont la finance, bien entendu). Au-delà des risques d'erreurs et autres dérives, la perception qu'en ont les clients (et les autres observateurs) est cruciale et le mystère qui l'entoure dans l'esprit du grand public est propice à toutes sortes de fantasmes.
En l'occurrence, la presse se fait largement l'écho ces derniers temps des récriminations de certains patients, voire des quelques procès intentés, contre la compagnie, incriminant directement les algorithmes qu'elle met (mettrait ?) en œuvre – sans supervision d'un praticien – afin de valider ou rejeter les sollicitations de couverture de soins qu'elle reçoit. Implicitement, et parfois explicitement, le message sous-jacent consiste à mettre en doute les « compétences » des outils exploités dans ce but.
Naturellement, que les modèles déployés puissent commettre des bévues, parfois impossibles à anticiper, est incontestable (tout comme les humains, incidemment). Mais s'il est question, comme on le lit depuis plusieurs jours, de comportements systématiques (ce qu'UHC conteste, évidemment, en partageant ses statistiques internes), les logiciels peuvent difficilement en être responsables. Il faut plutôt chercher du côté de ceux qui les ont mis au point et avec quelles données de référence…
En effet, il ne faut jamais oublier que ce qu'on appelle l'intelligence artificielle n'est, finalement, que de l'imitation plus ou moins adroite. Sauf à ce que ses concepteurs soient des incapables (ce qui relèverait d'une faute de management), ces avis générés automatiquement sur les dossiers ne font ainsi que répliquer ce qu'elle a appris… vraisemblablement à partir de l'historique de l'entreprise. Inutile donc de blâmer la technologie, seuls ses utilisateurs peuvent répondre d'éventuels égarements.
Même s'il y avait manipulation sur la machine, elle ne serait pas si différente d'une distribution de consignes incitant les médecins à appliquer des critères plus stricts à leurs évaluations. Et il en est de même si cette manipulation résulte d'une évolution incontrôlée des modèles, le facteur d'origine étant alors la négligence dans leur surveillance… qui doit s'exercer de la même manière que sur des collaborateurs.
Les circonstances dramatiques qui accompagnent la polémique sur les pratiques d'UnitedHealthCare mettent en lumière un phénomène auquel il va falloir hélas s'habituer : comme avec chaque nouvelle technologie dont le fonctionnement est obscur pour le quidam lambda et dont les médias font une solution miracle, les consommateurs sont prompts à faire de l'IA le bouc émissaire de tous leurs maux, quitte à s'engouffrer dans des amalgames absurdes. Les banques qui, à une autre époque, tentaient d'exploiter les données de paiement de leurs clients se souviendront du syndrome. Et elles auront besoin aussi de se remémorer les parades à envisager…
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)