Free cookie consent management tool by TermsFeed

vendredi 28 mai 2021

Lemonade : IA mais pas trop

Lemonade
Une polémique déclenchée sur Twitter par une tentative de Lemonade d'expliquer comment l'intelligence artificielle l'aide à optimiser sa gestion des sinistres nous procure une occasion de découvrir les limites de la technologie, sur deux plans complémentaires : la perception du grand public et les frontières éthiques infranchissables.

Ce n'est pas un secret. Depuis l'origine, la jeune pousse déploie de puissants algorithmes d'analyse au sein de ses processus de manière à, notamment, renforcer son efficacité opérationnelle, améliorer son expérience utilisateur et réduire la fraude. Sa déclaration de sinistre, en particulier, adopte une méthode originale puisqu'elle se déroule en vidéo, dans le but de simultanément capter automatiquement toutes les informations nécessaires – pour une indemnisation immédiate – et repérer les tentatives d'abus.

Malheureusement, évoquer ces méthodes publiquement éveille fatalement les soupçons d'une fraction de la population, probablement peu nombreuse mais, comme toujours avec les médias sociaux, capable de capter une visibilité importante en quelques échanges. Il est vrai que la description de sa faculté de déchiffrer des « indices non verbaux » au sein des conversations enregistrées n'était peut-être pas une idée très heureuse tant elle est sujette à interprétations et source de confusions possibles.

Les phantasmes ont rapidement pris une dimension invraisemblable, jusqu'à des références à la phrénologie et la physiognomonie, portant la croyance d'une exploitation des caractéristiques physiques du demandeur dans le cadre de l'évaluation de son dossier. Tel est le risque auquel s'expose une entreprise qui promeut une transparence totale… mais n'est pas exempte d'erreurs de communication, dans un domaine perçu par le citoyen lambda comme mystérieux et, par conséquent, propice aux pires excès.

En effet, dévoiler les dessous des technologies mises en œuvre ne suffira jamais à conquérir les consommateurs si l'ignorance (normale) de ces derniers n'est pas prise en compte. En l'occurrence, Lemonade touche à deux sujets sensibles et méconnus : l'intelligence artificielle, d'une part, et l'assurance, d'autre part. Oui, l'assurance, dont les principes statistiques sont généralement nébuleux pour le non spécialiste et dont les problématiques sont totalement ignorées, en particulier en matière de fraude.

Lemonade – Automatisation dans la gestion de sinistre

Face au mini-scandale suscité par ses propos, la startup a remis les pendules à l'heure. Elle rejette les accusations dont elle fait l'objet et affirme clairement ne pas utiliser les traits ou les expressions du visage (y compris l'analyse de sentiment) dans ses algorithmes de détection de fraude. Elle se contente, dit-elle, de vérifier qu'une même personne ne se présente pas sous des identités multiples, tandis qu'elle considère que le simple fait de décrire le sinistre en vidéo réduit la propension de ses clients à mentir.

Surtout, Lemonade clame sa conviction que des biais affectent inévitablement les résultats obtenus par logiciel et que, pour cette raison, elle estime impossible de concevoir un système déterministe capable de remplacer l'humain. Elle enfonce alors le clou en indiquant qu'un agent est obligatoirement impliqué lors d'une décision de rejet d'une demande (ce qui est vraisemblablement une exigence légale, par ailleurs, sans même aborder les questions d'éthique sous-jacentes) et… qu'il en sera toujours ainsi.

Notons au passage que ce raisonnement qui prétendrait donner à un individu le libre arbitre ultime afin d'éviter l'abus de pouvoir des machines reflète une parfaite illusion. Que fera donc ce quidam des conclusions et recommandations restituées par les algorithmes ? N'aura-t-il pas tendance à les accepter sans exercer son esprit critique, que ce soit par facilité (paresse) ou par excès de confiance ? N'oublions pas que l'être humain aussi est victime de biais, souvent encore plus incontrôlables que ceux des logiciels.

Son discours permettra certainement à la jeune pousse de surmonter cette crise mais il ne répond en rien aux enjeux soulevés. Toutes les organisations adeptes de l'intelligence artificielle au service de leurs usagers seront confrontées à ce même dilemme de la transparence auprès d'une population qui n'est pas en mesure d'appréhender la teneur de l'information qui lui est fournie. Ce n'est pas un motif pour abandonner ni la technologie ni le désir de pédagogie. Mais d'autres incidents de parcours surviendront.

3 commentaires:

  1. Bonjour,

    Et toujours bravo pour votre travail.

    Rien à objecter.

    On pourrait même ajouter qu'en cas de conflit ou de contentieux sur un système d'IA, la justice et la plupart des parties non expertes seront totalement dépourvues de compétences et d'expertises pour analyser le coeur des IA, et in fine décider quoi que cela soit.

    Cdt.

    PR

    RépondreSupprimer
  2. En théorie, la prise de décision par IA doit être traçable: pas de black box, mais une trace de la version de l'algo utilisé à un temps T ainsi que les variables associées au calcul du score

    RépondreSupprimer
  3. Bonjour, oui sur la traçabilité, mais sauf erreur de ma part les données de traçabilité d'un tel système ne se résume pas à des phrases ou des éléments intelligibles par le commun des mortels, d'où mon propos sur les futures et probables analyses par la justice de ce type d'outils.
    Enfn, ce que j'en dis n'est pas très important, mais je me questionne sachant que l'IA finira bien par devenir un objet de contentieux judiciaire ou administratif, national ou supranational.

    Bref.
    Cdt.

    RépondreSupprimer

Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)