Le concept « big data » est devenu en quelques mois une tendance majeure pour les institutions financières. Et, même après avoir écarté les excès d'enthousiasme pour tout ce qui est nouveau, plusieurs retours d'expérience (dont j'ai relayé quelques-uns des plus marquants dans ces colonnes) démontrent qu'il recèle un vrai potentiel de valeur.
Cependant, il s'agit encore d'un domaine émergent et les récits de succès ne concernent, pour l'instant, que des projets ciblés sur une application particulière, plus ou moins ambitieuse (cf. MetLife), quitte à en étendre le champ ultérieurement (cf. Zions Bank). Dans ce contexte, l'annonce par La Caixa d'une initiative globale en vue de la constitution d'un entrepôt de données universel représente une rupture, dont les chances de réussite peuvent légitimement susciter des interrogations.
Tel qu'il est décrit, le principe du futur « Data Pool » de la banque espagnole est de constituer un réservoir d'information « unifié, fluide, agile, flexible, puissant et sécurisé » (sic !), permettant à un utilisateur « métier » d'obtenir facilement une réponse rapide à toute requête informelle. L'objectif est tout autant de rendre plus efficaces les processus de prises de décision que de stimuler et accélérer la conception et l'implémentation de nouveaux produits et services financiers.
En pratique, les idées d'utilisation du « Data Pool » sont déjà foisonnantes, de la mise en œuvre de la vue client à 360° dont rêvent toutes les banques à la faculté de répondre sans difficulté aux exigences réglementaires (notamment en matière de contrôle des risques), en passant par les opportunités de développement de modèles prédictifs ou encore l'amélioration des dispositifs de lutte contre la fraude. Ce sont en fait tous les cas d'usage expérimentés de par le monde qui sont ainsi envisagés par La Caixa.
Voilà justement le premier motif d'inquiétude pour ce projet aux allures titanesques : la priorité est mise sur l'implémentation d'une infrastructure destinée à héberger l'entrepôt de données, tandis que son utilisation est reléguée au second plan, semblant se cantonner à une vision générale dont la concrétisation devrait se produire comme par magie. En ce sens, l'initiative ressemble à toutes les tentatives passées de créer des datawarehouses d'entreprise, dont la plupart ont échoué.
Le doute se fait encore plus pressant à la découverte du partenaire principal de la banque dans la réalisation de son « Data Pool » : Oracle est incontournable sur nombre de technologies mais les « big data » ne font résolument pas partie du lot. En effet, malgré l'ajout de l'étiquette magique sur ses solutions, l'éditeur ne peut pas masquer le fait que celles-ci ne répondent pas aux besoins, par exemple en matière d'expansion (presque) à l'infini des capacités de stockage et d'analyse à coût marginal.
Fondamentalement, il n'est pas absurde pour un établissement innovant tel que La Caixa de vouloir dépasser le stade expérimental où se cantonnent aujourd'hui les « big data » pour passer à une dimension stratégique du sujet, à l'échelle de l'entreprise. Malheureusement, ses choix sont susceptibles de mettre en péril cette vision, ne serait-ce que parce que la mise en œuvre du projet sera coûteuse et (vraisemblablement) longue, avec des perspectives de retour sur investissement floues et lointaines.
Cependant, il s'agit encore d'un domaine émergent et les récits de succès ne concernent, pour l'instant, que des projets ciblés sur une application particulière, plus ou moins ambitieuse (cf. MetLife), quitte à en étendre le champ ultérieurement (cf. Zions Bank). Dans ce contexte, l'annonce par La Caixa d'une initiative globale en vue de la constitution d'un entrepôt de données universel représente une rupture, dont les chances de réussite peuvent légitimement susciter des interrogations.
Tel qu'il est décrit, le principe du futur « Data Pool » de la banque espagnole est de constituer un réservoir d'information « unifié, fluide, agile, flexible, puissant et sécurisé » (sic !), permettant à un utilisateur « métier » d'obtenir facilement une réponse rapide à toute requête informelle. L'objectif est tout autant de rendre plus efficaces les processus de prises de décision que de stimuler et accélérer la conception et l'implémentation de nouveaux produits et services financiers.
En pratique, les idées d'utilisation du « Data Pool » sont déjà foisonnantes, de la mise en œuvre de la vue client à 360° dont rêvent toutes les banques à la faculté de répondre sans difficulté aux exigences réglementaires (notamment en matière de contrôle des risques), en passant par les opportunités de développement de modèles prédictifs ou encore l'amélioration des dispositifs de lutte contre la fraude. Ce sont en fait tous les cas d'usage expérimentés de par le monde qui sont ainsi envisagés par La Caixa.
Voilà justement le premier motif d'inquiétude pour ce projet aux allures titanesques : la priorité est mise sur l'implémentation d'une infrastructure destinée à héberger l'entrepôt de données, tandis que son utilisation est reléguée au second plan, semblant se cantonner à une vision générale dont la concrétisation devrait se produire comme par magie. En ce sens, l'initiative ressemble à toutes les tentatives passées de créer des datawarehouses d'entreprise, dont la plupart ont échoué.
Le doute se fait encore plus pressant à la découverte du partenaire principal de la banque dans la réalisation de son « Data Pool » : Oracle est incontournable sur nombre de technologies mais les « big data » ne font résolument pas partie du lot. En effet, malgré l'ajout de l'étiquette magique sur ses solutions, l'éditeur ne peut pas masquer le fait que celles-ci ne répondent pas aux besoins, par exemple en matière d'expansion (presque) à l'infini des capacités de stockage et d'analyse à coût marginal.
Fondamentalement, il n'est pas absurde pour un établissement innovant tel que La Caixa de vouloir dépasser le stade expérimental où se cantonnent aujourd'hui les « big data » pour passer à une dimension stratégique du sujet, à l'échelle de l'entreprise. Malheureusement, ses choix sont susceptibles de mettre en péril cette vision, ne serait-ce que parce que la mise en œuvre du projet sera coûteuse et (vraisemblablement) longue, avec des perspectives de retour sur investissement floues et lointaines.
Bonjour. C'est typiquement les sujets trop gros que l'on ne peut pas digérer. Le stratège doit avoir un agenda de projets Big Data qui soit exigeant, actif mais aussi en morceaux digestes à retour et mesure quantifiables et précis. Pensez DMP, pensez Obamacare etc...Big n'est pas beautiful même dans Big Data. Mais ces projets qui englobent tout n'englobent finalement rien sinon la vacuité de la réflexion et du processus de sélection des projets ou l'ego du dirigeant....tiens je suis en forme pour 2014! excellente année à tous
RépondreSupprimer