Free cookie consent management tool by TermsFeed

mercredi 20 octobre 2021

Le délicat équilibre de la personnalisation

Gartner
Les masses de données produites dans notre monde contemporain combinées aux techniques d'analyse désormais disponibles rendent possibles des niveaux de personnalisation des services jusqu'à présent inimaginables. Faut-il pour autant les exploiter sans réserve ? Alex de Fursac Gash (Gartner) pose les limites d'un usage raisonnable.

La question est rarement abordée. Dans tous les domaines, le raisonnement qui prévaut généralement consiste à collecter un maximum d'informations sur les clients et les utiliser (à outrance) dans le but d'atteindre le nirvana supposé : une interaction totalement individualisée. Or une telle approche n'est pas nécessairement optimale. Selon une étude menée par Gartner auprès d'un échantillon de consommateurs, l'excès est contre-productif, engendrant un sentiment de viol d'intimité et une tentation de rejet.

Face à ce phénomène (peut-être à relier au syndrome de la singularité technologique chez les robots et les assistants virtuels), la recherche d'un équilibre idéal entre performance et précision du « profilage » de la cible devient la recommandation logique. De manière générique, Alex établit une règle empirique : il ne devrait jamais être nécessaire de cumuler plus de 3 dimensions de données sur les clients. Celle-ci pourra servir de point de départ d'une réflexion… mais elle mériterait d'être approfondie.

En premier lieu, le contexte est un facteur important à intégrer. Les observations prises en référence concernent l'univers du marketing, dans lequel les seuils de tolérance des destinataires de messages sont probablement assez bas par rapport à, par exemple, une relation bancaire. D'autre part, et ce point est souligné par Alex, la nature des artefacts affectés par la personnalisation agit sur son acceptabilité : plus le résultat est perçu comme utile, plus le recours à des informations sensibles paraît légitime.

Gartner – Personalization

La recette à mettre en œuvre, qui pourrait certainement se traduire sous le forme d'une équation, devrait donc s'appuyer sur le rapport entre la valeur effective (ou, peut-être plus prosaïquement, perçue ?) délivrée et la richesse de connaissance introduite dans la personnalisation, qu'il faudrait encore ajuster en fonction du consentement explicite (variable entre, disons, une tolérance aux messages d'information de l'entreprise et le téléchargement volontaire d'une application de recommandations opérationnelles).

Un conseil, valide en toutes circonstances, que formule Alex afin de trouver le dosage parfait est d'éviter à tout prix d'entamer le chemin par l'exploration des données, comme l'encouragent souvent (parfois inconsciemment) les spécialistes de l'analyse associés à ce type de projet, mais plutôt de s'interroger en priorité sur le besoin à combler, l'attente à satisfaire… puis d'identifier la cible concernée et, enfin, de déterminer comment délimiter celle-ci avec suffisamment de finesse pour une efficacité satisfaisante.

Il n'est pas question de prétendre que l'hyper-personnalisation ne mérite pas de s'y intéresser (ce qui serait surprenant de la part de Gartner, qui la positionne régulièrement dans ses radars d'innovation). En revanche, il s'agit clairement d'un terrain dangereux, en particulier pour la confiance des clients envers leurs fournisseurs. Quelques acteurs ont déjà pu le vérifier à leurs dépens, vouloir profiter à mauvais escient des options de « profilage » les plus puissantes conduit facilement à des échecs monumentaux. 

Aucun commentaire:

Enregistrer un commentaire

Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)