Voilà une histoire qui constitue vraisemblablement un prélude à ce que l'actualité nous offrira bientôt régulièrement. En l'occurrence, Upstart, qui se présente comme la première place de marché de crédit propulsé à l'intelligence artificielle, blâme cette dernière, par la voix de son directeur général, pour ses résultats trimestriels décevants.
L'affaire fait un peu de bruit chez les investisseurs car l'action de la jeune pousse a perdu près de 15% de sa valeur à la suite de sa présentation. Alors qu'elle a récemment franchi le seuil de la rentabilité, ce ne sont pas ses profits qui rendent les marchés fébriles, mais plutôt le moteur de son activité : elle révèle avoir produit 2,9 milliards de financements sur la période, toujours en forte hausse mais faisant néanmoins pâle figure au regard des 3,3 milliards attendus par le consensus des analystes.
L'explication de cette mauvaise performance opérationnelle, telle qu'elle est fournie par Paul Gu, directeur technique d'Upstart, est fascinante : les modèles d'IA de l'entreprise – qui pilotent entièrement les décisions d'accorder ou non des prêts aux demandeurs en fonction de données variées et sur la base d'un historique de presque 100 millions d'événements – auraient sur-réagi aux indicateurs macro-économiques et induit de la sorte un excès de prudence faisant chuter le taux de conversion de 23,9% à 20,6%.
Les responsables de la firme se veulent rassurants et confirment notamment que la situation est maintenant revenue à la normale, en soulignant au passage qu'il est préférable que les automates exercent un surcroît de précaution plutôt qu'ils soient insensibles à des signaux inquiétants. Malgré tout, les observateurs expriment un certain scepticisme face à ces allégations et se posent soudain la question de la qualité réelle de l'approche adoptée, en particulier par rapport à des solutions moins élaborées.
Toute la problématique de l'intelligence artificielle dans des processus sensibles se trouve résumée dans cet exemple. D'abord, est-elle suffisamment digne de confiance ? La réaction de la bourse semble montrer que cette confiance est écornée au premier accroc, y compris quand celui-ci paraît relativement justifiable (qui peut certifier que les demandes rejetées de manière apparemment excessive n'aurait pas demain fait exploser le taux de défauts si elles avaient été acceptées ?). D'autre part, comment spécifier puis juger l'adéquation des « choix » de l'IA à la stratégie de l'organisation et aux attentes de ses actionnaires… auxquels il faudra les décrire précisément ?
Les conséquences de ces interrogations sont insondables. Pour rester sur des dimensions simples, voire superficielles, l'intelligence artificielle, même quand elle n'est pas placée à la tête de l'entreprise, sera de plus en plus dans une position où elle influence directement ses opérations et ses résultats. Le problème de cette tendance émergente est celui de la responsabilité : un dirigeant qui prend de mauvaises décisions est facilement remplacé mais quid d'un logiciel critique pilotant le cœur d'activité et dont les modèles de raisonnement sont largement opaques ?



















