Vous avez certainement vu passer cette histoire d'un client d'Air Canada qui a obtenu gain de cause auprès d'un tribunal dans le litige qui l'opposait… au chatbot de la compagnie. Ce qui s'apparente à une anecdote illustre parfaitement un des défis de l'intelligence artificielle et ses conséquences prévisibles pour ses adeptes.
Le cas est trivial : afin de se rendre aux obsèques de sa grand-mère, en 2022, le plaignant a réservé un vol sur le site du transporteur après que l'agent conversationnel qui y assure l'assistance aux visiteurs lui ait confirmé la possibilité de bénéficier d'une réduction pour deuil, sur demande à effectuer dans les 90 jours suivant le déplacement. Malheureusement, l'information était fausse, puisque, comme indiqué par ailleurs, la promotion n'est applicable que si elle est sollicitée avant l'achat.
Cependant, le tribunal civil qui a jugé l'affaire a estimé que l'entreprise portait sans ambiguïté la charge de s'assurer que ses services, en particulier logiciels, présentaient une information fiable aux consommateurs et qu'elle ne pouvait, comme elle tentait de le faire, rejeter la responsabilité sur l'outil… qu'elle suggérait de considérer comme une entité légale autonome ! Air Canada doit donc procéder au remboursement promis.
Le réflexe des observateurs face à cette première médiatisation juridique d'une hallucination telle que nous en garantit l'intelligence artificielle générative (à son stade actuel d'avancement) – qui devrait être suivie par une multitude d'autres – consiste à souligner le risque (!) et l'impérieuse nécessité de contrôler à la fois les réponses produites et le périmètre d'intervention dans lequel les questions posées sont acceptables, puisque son dépassement constitue une cause majeure d'incidents.
Naturellement, ces recommandations sont plus faciles à énoncer qu'à mettre en œuvre. Certes, les solutions de détection d'anomalies ou de filtrage préalable des sujets qu'il est permis de soumettre commencent à émerger mais… reposant elles-mêmes sur l'IA, elles sont aussi sujettes aux erreurs et n'autorisent pas l'élimination totale du danger. De manière générale, les appels à des usages responsables et éthiques sont évidemment incontournables mais se heurtent à la réalité des technologies du moment.
Dans ces conditions, la conséquence la plus probable de ce genre de déboires sera une mise en pause des projets, au moins les plus sensibles, à savoir en priorité les automates de conseil auprès des clients. Une telle temporisation affectera bien entendu particulièrement les institutions financières qui non seulement s'effraieront des impacts et des coûts de préconisations erronées mais sont en outre spécialement réticentes à toute prise de risque. L'introduction de l'IA dans le secteur va prendre du retard !
En revanche, l'épisode Air Canada et ses futures répliques représentent indubitablement une excellente nouvelle pour les acteurs de l'assurance qui, à l'instar de Vouch aux États-Unis, se penchent d'ores et déjà activement sur l'opportunité d'offrir une couverture contre les risques liés aux applications de l'intelligence artificielle. Leur proposition de valeur prend instantanément une dimension concrète très convaincante !
L'euphorie qu'a engendré le lancement de ChatGPT a laissé croire à de nombreux décideurs que tout était possible avec l'IA générative et les a conduit à refuser d'entendre les alertes pourtant sérieuses sur ses dangers. Les litiges qui se profilent à l'horizon – et tous ne seront pas d'un niveau aussi négligeable que les 600 dollars obtenus par le canadien lésé – auront le mérite de leur remettre les pieds sur terre.
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)