Capitalisant sur les principes de l'innovation ouverte, OpenInvo vient de lancer (en version beta) sa place de marché destinée à rapprocher des fournisseurs d'idées et des sociétés ou personnes à la recherche de concepts novateurs à implémenter.
Les premiers sont invités à s'inscrire (gratuitement) et soumettre leurs propositions en détail, qui sont alors évaluées et valorisées par l'équipe d'OpenInvo. Les seconds souscrivent un abonnement (plusieurs formules sont disponibles) pour accéder aux idées qui correspondent aux attentes qu'ils expriment, le cas échéant.
Aux "inventeurs" la plate-forme offre ainsi une solution pour commercialiser les idées qu'ils ne souhaitent pas concrétiser eux-mêmes, ce qui distingue OpenInvo des sites existants sur ce créneau. Il leur est également possible d'entrer dans une démarche collaborative d'échange et de partage avec leurs pairs, pour, par exemple, affiner et développer des innovations qui ne sont pas suffisamment mûres.
Les "acheteurs" ont, de leur côté, accès à une source d'innovation ouverte permanente, qui, certes, leur laisse moins de contrôle que dans des initiatives ciblées mais, en contrepartie, réduit les difficultés, en particulier de "recrutement".
Reste que le succès dépendra de l'adhésion des deux parties et, quand il s'agit de commercialiser des idées, il peut être difficile de gagner la confiance des utilisateurs. Il est probable que la plate-forme évoluera encore beaucoup avant d'atteindre un modèle stable dans lequel tous les intervenants sont convaincus de la valeur qu'elle peut apporter. Pour ma part, je suis convaincu que cet objectif peut être atteint !
Annonce repérée via TechCrunch
vendredi 31 décembre 2010
Projet eGo : l'authentification au bout des doigts
Récompensé par un trophée Sésames de l'innovation dans la catégorie sécurité informatique, au salon Cartes 2010, le projet eGo de Gemalto et ses partenaires (dont Atos Worldline, l'INRIA, Precise Biometrics...) proposent une nouvelle approche de l'échange d'informations entre un utilisateur et des objets intelligents, aux nombreuses applications possibles.
Avec eGo, l'utilisateur porte sur lui, dans une montre, un vêtement, un bijou, une ceinture..., un dispositif intégrant ses informations d'identification et un capteur biométrique avec lequel il s'authentifie (par exemple un lecteur d'empreinte digitale). Dès lors, pour réaliser une "transaction", il suffit de poser un doigt sur le "lecteur" eGo pour que les identifiants soient transmis, à travers la peau.
Parmi les multiples cas d'utilisation imaginés, j'en soulignerai deux. Le premier est celui du contrôle d'accès à un micro-ordinateur : la souris ou le clavier intègre le "lecteur" eGo et le simple fait de le toucher suffit à communiquer au PC l'identification et les droits d'accès de l'utilisateur. Le second concerne le domaine des paiements : l'acheteur "touche" le terminal du commerçant pour choisir son mode de paiement et transmettre les informations nécessaires à la transaction. Les autres idées d'applications se partagent entre les problématiques d'identification et la personnalisation des interactions entre une personne et un appareil.
Le concept développé par Gemalto et ses partenaires rappelle beaucoup celui proposé par la startup française Natural Security qui était aussi finaliste des trophées Sésames de l'Innovation dans la catégorie Banque / Commerce / Fidélité. Dans ce cas le dispositif est composé d'une carte avec capteur biométrique et d'un lecteur qui communique avec la carte par ondes radio à courte portée, la transaction restant délenchée par un geste volontaire de l'utilisateur (toucher du doigt) pour éviter les possibles détournements.
Ces innovations mettent en évidence une transition dans le domaine de la sécurité biométrique. On passe ainsi progressivement de systèmes centralisés, où les capteurs et les données d'identification sont "attachés" aux "applications", à un mode dans lequel c'est l'utilisateur qui possède et contrôle les éléments essentiels de la chaîne d'identification. Cette évolution devrait faciliter l'adoption de ces technologies, en satisfaisant directement les exigences de la CNIL et des organismes équivalents dans d'autres pays, qui voient d'un mauvais oeil la constitution de bases de données de données personnelles sensibles (telles que les données biométriques).
Avec eGo, l'utilisateur porte sur lui, dans une montre, un vêtement, un bijou, une ceinture..., un dispositif intégrant ses informations d'identification et un capteur biométrique avec lequel il s'authentifie (par exemple un lecteur d'empreinte digitale). Dès lors, pour réaliser une "transaction", il suffit de poser un doigt sur le "lecteur" eGo pour que les identifiants soient transmis, à travers la peau.
Parmi les multiples cas d'utilisation imaginés, j'en soulignerai deux. Le premier est celui du contrôle d'accès à un micro-ordinateur : la souris ou le clavier intègre le "lecteur" eGo et le simple fait de le toucher suffit à communiquer au PC l'identification et les droits d'accès de l'utilisateur. Le second concerne le domaine des paiements : l'acheteur "touche" le terminal du commerçant pour choisir son mode de paiement et transmettre les informations nécessaires à la transaction. Les autres idées d'applications se partagent entre les problématiques d'identification et la personnalisation des interactions entre une personne et un appareil.
Le concept développé par Gemalto et ses partenaires rappelle beaucoup celui proposé par la startup française Natural Security qui était aussi finaliste des trophées Sésames de l'Innovation dans la catégorie Banque / Commerce / Fidélité. Dans ce cas le dispositif est composé d'une carte avec capteur biométrique et d'un lecteur qui communique avec la carte par ondes radio à courte portée, la transaction restant délenchée par un geste volontaire de l'utilisateur (toucher du doigt) pour éviter les possibles détournements.
Ces innovations mettent en évidence une transition dans le domaine de la sécurité biométrique. On passe ainsi progressivement de systèmes centralisés, où les capteurs et les données d'identification sont "attachés" aux "applications", à un mode dans lequel c'est l'utilisateur qui possède et contrôle les éléments essentiels de la chaîne d'identification. Cette évolution devrait faciliter l'adoption de ces technologies, en satisfaisant directement les exigences de la CNIL et des organismes équivalents dans d'autres pays, qui voient d'un mauvais oeil la constitution de bases de données de données personnelles sensibles (telles que les données biométriques).
mercredi 29 décembre 2010
Santander déploie des cartes multi-applications dans les universités
L'initiative n'est pas récente puisqu'elle a été lancée en 1995, mais une étude de cas [lien PDF] publiée par Gemalto nous donne l'occasion de nous pencher un instant sur l'offre du groupe Santander de distribution de cartes intelligentes (smart cards) dans les universités, adoptée par plus de 200 d'entre elles dans 10 pays à travers le monde.
Les cartes sont distribuées gratuitement aux étudiants et personnels des universités partenaires, dans le cadre de l'action "Santander Universidades" de la banque pour la promotion de l'enseignement supérieur (au sein de son programme de responsabilité sociale et environnementale). Ce sont plus de 4 millions de cartes qui ont ainsi été déployées jusqu'à maintenant.
Au-delà de sa position de fabricant, Gemalto est aussi un véritable partenaire de l'opération, développant les services demandés par les utilisateurs. Et ceux-ci sont nombreux : cette carte d'étudiant intelligente sert non seulement pour l'identification mais peut aussi se transformer, selon les universités, en porte-monnaie électronique (pour les achats sur des distributeurs, pour les transports, les cantines...), en dispositif de contrôle d'accès (aux locaux, aux parkings, aux ordinateurs et kiosques en libre service...), en clé de signature électronique (pour la transmission sécurisée de mails et documents dématérialisés, pour des votes électroniques...), en carte de "pointage" et de contrôle des horaires...
Naturellement, la banque propose aussi, en option, d'ajouter à cette liste la fonction de carte bancaire, au standard EMV. En effet, il existe bien un objectif commercial derrière cette démarche : celui de se positionner au plus près du marché attractif des étudiants et d'imposer sa présence dans les universités partenaires.
Les cartes de Gemalto sont relativement classiques, disposant d'une puce sécurisée et d'une interface MiFare (un des standards de communication sans contact de la sphère NFC) et programmables via une interface Java. Pour l'avenir, Santander et Gemalto réfléchissent à l'intégration des mêmes fonctions dans les téléphones portables, quelques expérimentations ayant déjà été lancées.
La carte bancaire ISIC (carte internationale d'étudiant) lancée à grand renfort de communication par LCL l'an dernier (je crois) fait un peu pâle figure en comparaison de cette initiative de Santander...
Les cartes sont distribuées gratuitement aux étudiants et personnels des universités partenaires, dans le cadre de l'action "Santander Universidades" de la banque pour la promotion de l'enseignement supérieur (au sein de son programme de responsabilité sociale et environnementale). Ce sont plus de 4 millions de cartes qui ont ainsi été déployées jusqu'à maintenant.
Au-delà de sa position de fabricant, Gemalto est aussi un véritable partenaire de l'opération, développant les services demandés par les utilisateurs. Et ceux-ci sont nombreux : cette carte d'étudiant intelligente sert non seulement pour l'identification mais peut aussi se transformer, selon les universités, en porte-monnaie électronique (pour les achats sur des distributeurs, pour les transports, les cantines...), en dispositif de contrôle d'accès (aux locaux, aux parkings, aux ordinateurs et kiosques en libre service...), en clé de signature électronique (pour la transmission sécurisée de mails et documents dématérialisés, pour des votes électroniques...), en carte de "pointage" et de contrôle des horaires...
Naturellement, la banque propose aussi, en option, d'ajouter à cette liste la fonction de carte bancaire, au standard EMV. En effet, il existe bien un objectif commercial derrière cette démarche : celui de se positionner au plus près du marché attractif des étudiants et d'imposer sa présence dans les universités partenaires.
Les cartes de Gemalto sont relativement classiques, disposant d'une puce sécurisée et d'une interface MiFare (un des standards de communication sans contact de la sphère NFC) et programmables via une interface Java. Pour l'avenir, Santander et Gemalto réfléchissent à l'intégration des mêmes fonctions dans les téléphones portables, quelques expérimentations ayant déjà été lancées.
La carte bancaire ISIC (carte internationale d'étudiant) lancée à grand renfort de communication par LCL l'an dernier (je crois) fait un peu pâle figure en comparaison de cette initiative de Santander...
mardi 28 décembre 2010
Les applications mobiles d'ING Direct confortent sa stratégie en ligne
ComputerWorld présente un article à propos de la stratégie mobile d'ING Direct (USA), donnant également un aperçu inédit des "dessous" des applications pour smartphones de la banque.
Rudy Wolfs, DSI d'ING Direct, pense que d'ici 5 ans, la majorité des consommateurs ne possèdera plus de PC, utilisant celui de leur travail en cas de nécessité, et comptera surtout sur des appareils mobiles versatiles pour tous les besoins courants d'interactions en ligne. Dans ces conditions, il n'est pas étonnant que la banque prenne très au sérieux sa stratégie mobile !
Les récents succès de ses applications (300 000 téléchargements pour 7,5 millions de clients) poussent ING Direct à réaffirmer sa volonté de ne pas développer de réseau d'agences, et profiter de son modèle en ligne (avec tout de même un réseau très étendu de guichets automatiques) et de ses faibles coûts de structure pour proposer des taux avantageux et offrir des services à petits prix.
Les applications développées par la banque sont à la hauteur de ses ambitions. Disponibles pour iPhone, BlackBerry et, plus récemment, Android, elles donnent non seulement un accès aux fonctions bancaires classiques (consultation des soldes et des opérations, paiement de factures, virements...) mais intègrent également les applications "sociales" d'ING Direct, de manière ludique, avec "Flip for Fun" qui permet d'accéder directement aux pages Facebook et Twitter de la banque ainsi qu'à son blog "We, the Savers Blog" en "renversant" le téléphone. Une application distincte, ING ShareBuilder, offre en outre tous les outils nécessaires pour investir et gérer un portefeuille de valeurs.
Sans donner plus de détails, Rudy Wolfs révèle que le coût de ces applications s'élève à plusieurs millions de dollars, dont une bonne part a certainement été réservée à la conception, qui s'est étalée sur plus d'un an alors que le développement proprement dit n'a duré que 4 mois.
ING Direct a retenu Antenna Mobility Platform, d'Antenna Software, pour bâtir sa stratégie. Cette plate-forme offre une compatibilité étendue avec de multiples systèmes mobiles, via des applications natives (Android, iPhone, BlackBerry...) ou web, facilitant le déploiement des mêmes fonctions sur les différents téléphones du marché. Grâce à ses composantes "serveurs" dédiées (en mode SaaS, "Software as a Service"), l'infrastructure d'Antenna assure la robustesse de l'architecture face à une charge parfois difficile à prédire et que les systèmes internes des banques ne sont pas toujours capables de supporter aisément.
En conclusion, je m'étonnerai tout de même des coûts de mise en oeuvre évoqués (même approximatifs), dont il nous est assuré que l'investissement dans la plate-forme d'Antenna n'est qu'une toute petite partie. Ils tendent à relativiser fortement l'intérêt des solutions de développement mobile "universel", d'autant plus quand on réalise que la version Android de l'application d'ING Direct n'a été publiée que 4 mois après la version iPhone... Les promesses de développement rapide, économique et portable semblent un peu exagérées !
Rudy Wolfs, DSI d'ING Direct, pense que d'ici 5 ans, la majorité des consommateurs ne possèdera plus de PC, utilisant celui de leur travail en cas de nécessité, et comptera surtout sur des appareils mobiles versatiles pour tous les besoins courants d'interactions en ligne. Dans ces conditions, il n'est pas étonnant que la banque prenne très au sérieux sa stratégie mobile !
Les récents succès de ses applications (300 000 téléchargements pour 7,5 millions de clients) poussent ING Direct à réaffirmer sa volonté de ne pas développer de réseau d'agences, et profiter de son modèle en ligne (avec tout de même un réseau très étendu de guichets automatiques) et de ses faibles coûts de structure pour proposer des taux avantageux et offrir des services à petits prix.
Les applications développées par la banque sont à la hauteur de ses ambitions. Disponibles pour iPhone, BlackBerry et, plus récemment, Android, elles donnent non seulement un accès aux fonctions bancaires classiques (consultation des soldes et des opérations, paiement de factures, virements...) mais intègrent également les applications "sociales" d'ING Direct, de manière ludique, avec "Flip for Fun" qui permet d'accéder directement aux pages Facebook et Twitter de la banque ainsi qu'à son blog "We, the Savers Blog" en "renversant" le téléphone. Une application distincte, ING ShareBuilder, offre en outre tous les outils nécessaires pour investir et gérer un portefeuille de valeurs.
Sans donner plus de détails, Rudy Wolfs révèle que le coût de ces applications s'élève à plusieurs millions de dollars, dont une bonne part a certainement été réservée à la conception, qui s'est étalée sur plus d'un an alors que le développement proprement dit n'a duré que 4 mois.
ING Direct a retenu Antenna Mobility Platform, d'Antenna Software, pour bâtir sa stratégie. Cette plate-forme offre une compatibilité étendue avec de multiples systèmes mobiles, via des applications natives (Android, iPhone, BlackBerry...) ou web, facilitant le déploiement des mêmes fonctions sur les différents téléphones du marché. Grâce à ses composantes "serveurs" dédiées (en mode SaaS, "Software as a Service"), l'infrastructure d'Antenna assure la robustesse de l'architecture face à une charge parfois difficile à prédire et que les systèmes internes des banques ne sont pas toujours capables de supporter aisément.
En conclusion, je m'étonnerai tout de même des coûts de mise en oeuvre évoqués (même approximatifs), dont il nous est assuré que l'investissement dans la plate-forme d'Antenna n'est qu'une toute petite partie. Ils tendent à relativiser fortement l'intérêt des solutions de développement mobile "universel", d'autant plus quand on réalise que la version Android de l'application d'ING Direct n'a été publiée que 4 mois après la version iPhone... Les promesses de développement rapide, économique et portable semblent un peu exagérées !
lundi 27 décembre 2010
Carbon Hub aligne son modèle économique sur la taxe carbone
Profitant de la transformation du système britannique de compensation des émissions de gaz à effet de serre (GES) en une pure "taxe carbone", Carbon Hub, fournisseur de solutions de suivi et de gestion de l'impact environnemental des entreprises, propose [lien PDF] un nouveau modèle économique aux organisations concernées, qui permettra à celles-ci de payer une partie des économies qu'elles réaliseront en guise de licence.
La nouvelle réglementation, qui entre en vigueur à partir de 2011 sous le nom de "Carbon Reduction Commitment Energy Efficiency Scheme" (CRC) vise les quelques 4000 plus grandes entreprises et établissements publics britanniques, qui devront "compenser" leur émissions de GES par l'achat obligatoire de "crédits" dont le prix est fixé initialement à 12 £ par tonne d'équivalent CO2.
C'est à ces organisations que s'adresse la nouvelle offre de Carbon Hub : elles peuvent rejoindre librement et gratuitement le "hub" et ne paieront qu'une fraction des crédits qu'elles économiseront pour continuer à l'utiliser. Pour plus de sécurité, l'éditeur garantit qu'il adoptera les critères du CRC pour ses mesures d'émissions de GES et qu'il adaptera son mode de facturation à l'évolution de la réglementation.
Carbon Hub innove réellement avec son approche, qui ne manque pas de bon sens, bien que j'imagine qu'il puisse donner des migraines à quelques comptables. L'initiative est d'autant plus audacieuse pour un fournisseur de solutions de gestion des émissions de GES, qui peut difficilement garantir une réduction de ces émissions.
On l'attendrait plus (et on l'attend désormais !), par exemple, d'une société, comme 1E ou AVOB (ou les nombreuses autres), qui promet une baisse de la facture électrique par l'optimisation de l'alimentation des PCs. On se prendrait même à rêver d'une généralisation de ce modèle à tous les éditeurs qui vantent les réductions de coûts ou les améliorations de productivité apportées par leurs logiciels...
Pointeur glané sur GreenIT.fr (merci !)
La nouvelle réglementation, qui entre en vigueur à partir de 2011 sous le nom de "Carbon Reduction Commitment Energy Efficiency Scheme" (CRC) vise les quelques 4000 plus grandes entreprises et établissements publics britanniques, qui devront "compenser" leur émissions de GES par l'achat obligatoire de "crédits" dont le prix est fixé initialement à 12 £ par tonne d'équivalent CO2.
C'est à ces organisations que s'adresse la nouvelle offre de Carbon Hub : elles peuvent rejoindre librement et gratuitement le "hub" et ne paieront qu'une fraction des crédits qu'elles économiseront pour continuer à l'utiliser. Pour plus de sécurité, l'éditeur garantit qu'il adoptera les critères du CRC pour ses mesures d'émissions de GES et qu'il adaptera son mode de facturation à l'évolution de la réglementation.
Au-delà de son modèle économique original, la plate-forme de la jeune société (fondée à Londres par deux français) mérite également qu'on s'y attarde. Comptant parmi ses références une filiale de la Caisse des Dépôts et le Crédit Agricole d'Ille-et-Villaine, elle propose une solution relativement classique de suivi et de gestion des émissions de GES (en mode SaaS - Software as a Service) complétée d'une composante collaborative unique dans le domaine. Celle-ci permet à tous les utilisateurs d'échanger des bonnes pratiques, partager des documents et des expériences, développer des réseaux de participants, au sein de chaque entreprise cliente mais aussi entre entreprises...
Carbon Hub innove réellement avec son approche, qui ne manque pas de bon sens, bien que j'imagine qu'il puisse donner des migraines à quelques comptables. L'initiative est d'autant plus audacieuse pour un fournisseur de solutions de gestion des émissions de GES, qui peut difficilement garantir une réduction de ces émissions.
On l'attendrait plus (et on l'attend désormais !), par exemple, d'une société, comme 1E ou AVOB (ou les nombreuses autres), qui promet une baisse de la facture électrique par l'optimisation de l'alimentation des PCs. On se prendrait même à rêver d'une généralisation de ce modèle à tous les éditeurs qui vantent les réductions de coûts ou les améliorations de productivité apportées par leurs logiciels...
Pointeur glané sur GreenIT.fr (merci !)
jeudi 23 décembre 2010
Le paiement P2P réserve des surprises
Alors que les banques s'intéressent de plus en plus aux services de paiement de personne à personne (P2P), une étude du Mercator Advisory Group (que je ne peux malheureusement pas consulter dans son intégralité) vient à point pour en éclairer les usages et le potentiel. Et les résultats pourront surprendre !
Ainsi, en analysant les retours d'expérience des pionniers du paiement P2P (aux Etats-Unis), le rapport révèle que le montant moyen des échanges est de l'ordre de 200 dollars, soit 10 fois plus que ce qui est généralement attendu par les banques qui lancent ce service. Il s'avère en fait que ces transactions ne se limitent pas à des échanges entre amis ou membres d'une famille mais qu'elles concernent également, pour une large part, des paiements "commerciaux", vers des entrepreneurs individuels ou de petites entreprises (par exemple pour des services à la personne). En ce sens, il conviendrait plutôt de parler de "paiements de pair à pair" plutôt que de "personne à personne".
Ces constats ont des implications profondes. Tout d'abord, le paiement P2P ne se substitue pas uniquement aux échanges en espèces (de personne à personne) mais peut également remplacer les règlements par chèque (de personne à professionnel). De plus, cette typologie des usages laisse penser que les clients des banques ne sont probablement pas opposés à ce que le service leur soit facturé (dans des limites raisonnables), ce qui pourrait résoudre le dilemme des établissements qui ne savent pas encore s'il peut constituer une source de revenus ou s'il n'est qu'un facteur de rétention et de fidélisation de la clientèle.
L'étude du Mercator Advisory Group démontre une nouvelle fois la créativité des consommateurs, qui sont toujours prêts à adopter les services qui leur sont offerts, en inventant les usages répondant à leurs besoins, parfois éloignés de ceux imaginés par les concepteurs.
En tout état de cause, le paiement P2P séduit les consommateurs. Et, comme il semble aussi pouvoir offrir des opportunités de nouveaux revenus pour les banques, il ne reste plus de raisons pour qu'il ne se développe pas aussi en France !
Ainsi, en analysant les retours d'expérience des pionniers du paiement P2P (aux Etats-Unis), le rapport révèle que le montant moyen des échanges est de l'ordre de 200 dollars, soit 10 fois plus que ce qui est généralement attendu par les banques qui lancent ce service. Il s'avère en fait que ces transactions ne se limitent pas à des échanges entre amis ou membres d'une famille mais qu'elles concernent également, pour une large part, des paiements "commerciaux", vers des entrepreneurs individuels ou de petites entreprises (par exemple pour des services à la personne). En ce sens, il conviendrait plutôt de parler de "paiements de pair à pair" plutôt que de "personne à personne".
Ces constats ont des implications profondes. Tout d'abord, le paiement P2P ne se substitue pas uniquement aux échanges en espèces (de personne à personne) mais peut également remplacer les règlements par chèque (de personne à professionnel). De plus, cette typologie des usages laisse penser que les clients des banques ne sont probablement pas opposés à ce que le service leur soit facturé (dans des limites raisonnables), ce qui pourrait résoudre le dilemme des établissements qui ne savent pas encore s'il peut constituer une source de revenus ou s'il n'est qu'un facteur de rétention et de fidélisation de la clientèle.
L'étude du Mercator Advisory Group démontre une nouvelle fois la créativité des consommateurs, qui sont toujours prêts à adopter les services qui leur sont offerts, en inventant les usages répondant à leurs besoins, parfois éloignés de ceux imaginés par les concepteurs.
En tout état de cause, le paiement P2P séduit les consommateurs. Et, comme il semble aussi pouvoir offrir des opportunités de nouveaux revenus pour les banques, il ne reste plus de raisons pour qu'il ne se développe pas aussi en France !
lundi 20 décembre 2010
LG et VMWare virtualisent le mobile pour sécuriser les usages professionnels
Toutes les études l'annoncent (par exemple ici) et tous les DSI y sont confrontés à plus ou moins grande échelle : les collaborateurs des entreprises sont de plus en plus nombreux à utiliser leur PC, tablette ou smartphone personnel pour leurs besoins professionnels, créant un casse-tête pour les responsables de la sécurité qui voient s'évanouir les "murs" de protection qu'ils ont mis en place pour protéger les données et les communications de l'entreprise.
Pour les aider dans leur tâche, VMWare et LG ont annoncé un partenariat pour créer une plate-forme de virtualisation pour mobile, qui permettra aux entreprises d'offrir à leurs employés un environnement professionnel totalement sécurisé sur leur téléphone personnel.
Comme dans le cas des initiatives équivalentes sur PC, la DSI pourrait ainsi fournir aux collaborateurs une machine virtuelle à installer sur leur propre mobile, leur donnant accès aux logiciels et services internes (stockage et consultation de documents, messagerie, outils collaboratifs...). Cette machine virtuelle est totalement isolée de l'environnement "personnel" présent sur le téléphone et peut accueillir toutes les couches de sécurité et de protection "standards" de l'organisation (logiciels de chiffrage, mécanismes de désactivation à distance, restrictions d'utilisation...).
Les efforts de VMWare et LG porteront, dans un premier temps, sur la plate-forme Android de Google, dont l'ouverture (puisque le système est disponible en open source) leur facilitera la tâche. L'objectif reste tout de même d'offrir à terme une couverture du marché la plus large possible, pour adresser les besoins d'un maximum d'utilisateurs.
Le concept de la machine virtuelle "professionnel" isolée et sécurisée est séduisant pour répondre aux risques introduits par l'usage de smartphones personnels en entreprise. Pourtant, entre la théorie et l'exécution il restera un long chemin à parcourir. La fragmentation du marché du mobile (en termes de systèmes d'exploitation) rendra en effet la généralisation complexe (on peut notamment douter de la faisabilité sur la plate-forme fermée iOS d'Apple).
De plus, le fait que l'initiative annoncée par VMWare soit co-réalisée avec le constructeur LG laisse imaginer que ce dernier pourrait vouloir réserver la technologie à ses propres matériels, ce qui serait contradictoire avec l'objectif de couvrir les besoins de tous les utilisateurs, quel que soit leur choix d'appareil. Mais on peut tout de même espérer que VMWare est conscient de ces enjeux et que l'éditeur cherche surtout à "lancer" la tendance avec ce premier partenaire.
Pour les aider dans leur tâche, VMWare et LG ont annoncé un partenariat pour créer une plate-forme de virtualisation pour mobile, qui permettra aux entreprises d'offrir à leurs employés un environnement professionnel totalement sécurisé sur leur téléphone personnel.
Comme dans le cas des initiatives équivalentes sur PC, la DSI pourrait ainsi fournir aux collaborateurs une machine virtuelle à installer sur leur propre mobile, leur donnant accès aux logiciels et services internes (stockage et consultation de documents, messagerie, outils collaboratifs...). Cette machine virtuelle est totalement isolée de l'environnement "personnel" présent sur le téléphone et peut accueillir toutes les couches de sécurité et de protection "standards" de l'organisation (logiciels de chiffrage, mécanismes de désactivation à distance, restrictions d'utilisation...).
Les efforts de VMWare et LG porteront, dans un premier temps, sur la plate-forme Android de Google, dont l'ouverture (puisque le système est disponible en open source) leur facilitera la tâche. L'objectif reste tout de même d'offrir à terme une couverture du marché la plus large possible, pour adresser les besoins d'un maximum d'utilisateurs.
Le concept de la machine virtuelle "professionnel" isolée et sécurisée est séduisant pour répondre aux risques introduits par l'usage de smartphones personnels en entreprise. Pourtant, entre la théorie et l'exécution il restera un long chemin à parcourir. La fragmentation du marché du mobile (en termes de systèmes d'exploitation) rendra en effet la généralisation complexe (on peut notamment douter de la faisabilité sur la plate-forme fermée iOS d'Apple).
De plus, le fait que l'initiative annoncée par VMWare soit co-réalisée avec le constructeur LG laisse imaginer que ce dernier pourrait vouloir réserver la technologie à ses propres matériels, ce qui serait contradictoire avec l'objectif de couvrir les besoins de tous les utilisateurs, quel que soit leur choix d'appareil. Mais on peut tout de même espérer que VMWare est conscient de ces enjeux et que l'éditeur cherche surtout à "lancer" la tendance avec ce premier partenaire.
dimanche 19 décembre 2010
Nouvelles applications iPad pour BNP Paribas Fortis et BofA Merrill Lynch
Après la frénésie des applications pour iPhone, les banques commencent à développer leurs offres pour l'iPad, essayant de profiter des caractéristiques particulières de la tablette d'Apple pour de nouveaux usages.
Dans ce domaine, la dernière annonce de Bank of America Merrill Lynch semble confirmer la tendance actuelle, esquissée par les exemples de Citi, JP Morgan et quelques autres, de proposer aux clients des contenus et non plus des outils de gestion de comptes. Et, alors que ces premières initiatives s'adressent aux clients institutionnels ou de banque privée, BNP Paribas Fortis adopte maintenant une stratégie similaire dans la banque de détail.
Commençons par la Bank of America Merrill Lynch Global Research dont l'application, "Research Library", propose à ses clients institutionnels un accès à l'ensemble de ses analyses, études, rapports, recommandations et autres contenus produits par ses plus de 800 analystes à travers le monde.
Ces informations sont présentées à travers un certain nombre de "widgets", organisés par catégorie de valeurs, par industrie, par analyste..., permettant une personnalisation de l'expérience par l'utilisateur. Les capacités de la tablette sont mises à profit pour intégrer des contenus multimédias (graphiques et vidéos, notamment). Des alertes, ciblées, lors des nouvelles publications complètent la liste des fonctions offertes.
On peut néanmoins regretter qu'une bonne partie des contenus proposés ne soient en fait que de simples documents PDF, dont l'intégration dans l'application ne sera donc pas idéale...
Pour BNP Paribas Fortis (Belgique), UltiMag se présente comme un magazine proposant à tous ses clients particuliers des articles variés, non seulement sur les produits et services de la banque mais également sur des sujets plus généralistes, relatifs à la finance ou non (par exemple, sur des activités dont la banque est sponsor ou mécène).
Conçu comme une véritable revue interactive, les articles sélectionnés sont enrichis de contenus multimédias (vidéos, illustrations, témoignages...). Un accès direct à la banque en ligne est également intégré dans l'application.
La première vague d'applications pour iPad, que j'estime décevante, n'avait vu apparaître que des copies des logiciels de gestion de compte déjà proposés sur l'iPhone et, souvent, sans gros effort pour exploiter les possibilités de la tablette. La deuxième vague, que l'on voit donc émerger, est beaucoup plus intéressante puisqu'elle nous propose des applications qui n'existaient pas jusqu'à maintenant et qui sont parfaitement adaptées à l'usage principal de l'appareil, tel qu'il est observé sur le terrain : la consommation de contenus (par opposition à des outils transactionnels).
Par ailleurs, alors que les premières initiatives ciblaient "naturellement" les clients "haut de gamme", la démarche de BNP Paribas Fortis, qui veut s'adresser aux particuliers, est plus risquée puisqu'elle a peu de chances de toucher un large public. Cependant, le segment de clientèle possédant un iPad mérite certainement des attentions particulières, ce qui pourrait révéler une stratégie payante à moyen terme. Il reste tout de même à espérer qu'avec l'explosion attendue (en 2011) du marché des tablettes, la banque soit capable de proposer son application sur d'autres systèmes que celui d'Apple...
Dans ce domaine, la dernière annonce de Bank of America Merrill Lynch semble confirmer la tendance actuelle, esquissée par les exemples de Citi, JP Morgan et quelques autres, de proposer aux clients des contenus et non plus des outils de gestion de comptes. Et, alors que ces premières initiatives s'adressent aux clients institutionnels ou de banque privée, BNP Paribas Fortis adopte maintenant une stratégie similaire dans la banque de détail.
Commençons par la Bank of America Merrill Lynch Global Research dont l'application, "Research Library", propose à ses clients institutionnels un accès à l'ensemble de ses analyses, études, rapports, recommandations et autres contenus produits par ses plus de 800 analystes à travers le monde.
Ces informations sont présentées à travers un certain nombre de "widgets", organisés par catégorie de valeurs, par industrie, par analyste..., permettant une personnalisation de l'expérience par l'utilisateur. Les capacités de la tablette sont mises à profit pour intégrer des contenus multimédias (graphiques et vidéos, notamment). Des alertes, ciblées, lors des nouvelles publications complètent la liste des fonctions offertes.
On peut néanmoins regretter qu'une bonne partie des contenus proposés ne soient en fait que de simples documents PDF, dont l'intégration dans l'application ne sera donc pas idéale...
Pour BNP Paribas Fortis (Belgique), UltiMag se présente comme un magazine proposant à tous ses clients particuliers des articles variés, non seulement sur les produits et services de la banque mais également sur des sujets plus généralistes, relatifs à la finance ou non (par exemple, sur des activités dont la banque est sponsor ou mécène).
Conçu comme une véritable revue interactive, les articles sélectionnés sont enrichis de contenus multimédias (vidéos, illustrations, témoignages...). Un accès direct à la banque en ligne est également intégré dans l'application.
La première vague d'applications pour iPad, que j'estime décevante, n'avait vu apparaître que des copies des logiciels de gestion de compte déjà proposés sur l'iPhone et, souvent, sans gros effort pour exploiter les possibilités de la tablette. La deuxième vague, que l'on voit donc émerger, est beaucoup plus intéressante puisqu'elle nous propose des applications qui n'existaient pas jusqu'à maintenant et qui sont parfaitement adaptées à l'usage principal de l'appareil, tel qu'il est observé sur le terrain : la consommation de contenus (par opposition à des outils transactionnels).
Par ailleurs, alors que les premières initiatives ciblaient "naturellement" les clients "haut de gamme", la démarche de BNP Paribas Fortis, qui veut s'adresser aux particuliers, est plus risquée puisqu'elle a peu de chances de toucher un large public. Cependant, le segment de clientèle possédant un iPad mérite certainement des attentions particulières, ce qui pourrait révéler une stratégie payante à moyen terme. Il reste tout de même à espérer qu'avec l'explosion attendue (en 2011) du marché des tablettes, la banque soit capable de proposer son application sur d'autres systèmes que celui d'Apple...
samedi 18 décembre 2010
Brett King : les 14 innovations de l'année dans la finance
En dehors des prédictions pour l'année suivante, l'autre tradition de fin d'année est celle des rétrospectives. Ainsi Brett King, auteur de "Bank 2.0" nous livre sa sélection des 14 meilleures innovations dans la banque et les paiements pour 2010, toutes rendues possibles par les technologies actuelles.
Agence du futur de Citi. Initiative maintenant répliquée à New York, c'est d'abord à Shanghaï que Citi a lancé son nouveau concept d'agence, inspiré par les Apple Stores.
Dépôt de chèque par mobile pour USAA. Copié par de nombreuses autres banques depuis son lancement, USAA a été la première aux Etats-Unis à proposer le dépôt de chèque via une application iPhone et Android, rendu possible par la législation locale. Loin d'en rester là, la banque a ensuite exploité sa technologie pour offrir à ses clients des services de proximité dans les agences UPS.
Guichet automatique de BBVA. Renouvelant le classique guichet automatique (ATM), BBVA et son partenaire IDEO ont conçu leur distributeur en écoutant les clients de la banque. Le résultat se veut plus simple, plus intuitif et plus convivial, avec un grand écran tactile ressemblant un peu à un iPad.
Application iPad d'OCBC. Alors que la plupart des banques se sont contentées, au mieux, d'adapter leur application iPhone à la taille de l'écran de l'iPad, OCBC est l'un des rares établissements à avoir réalisé une version mettant à profit les caractéristiques de la tablette d'Apple, en particulier avec des fonctions de suivi de budget graphiques et riches.
M-Pesa, et la banque devient mobile. Après avoir révolutionné les paiements par mobile avec M-Pesa, l'opérateur kenyan Safaricom poursuit le développement de son service en proposant le retrait d'espèces avec son téléphone sur les distributeurs de deux banques partenaires.
Google adopte le sans contact. Le paiement sans contact sur téléphone mobile est annoncé comme la prochaine "révolution" depuis presque 10 ans, mais la généralisation tarde... Google vient secouer le marché en intégrant la technologie NFC dans son système Android et dans son propre téléphone, le Nexus S.
Faible latence. Malgré le "flash crash" du 6 mai, partiellement imputé aux systèmes de trading automatisés, 2010 restera comme l'année de la course à la latence, pour réaliser des opérations sur les marchés en des temps toujours plus courts, aujourd'hui mesurés en microsecondes.
Prêts-emprunts P2P. Ils existent depuis plusieurs années mais ils s'incrustent désormais dans le paysage de la finance, les sites de prêts-emprunts de particulier à particulier (P2P), comme LendingClub ou Zopa, font leur pub et "gèrent" des dizaines de millions de dollars chaque mois. Malheureusement, cette tendance n'a toujours pas percé en France...
Facebook Credits. Avec ses 500 millions d'utilisateurs à travers le monde et l'évolution de sa monnaie virtuelle, qui pourra bientôt être achetée dans les grandes chaines de distribution américaines, Facebook est peut-être en train de créer la première monnaie universelle...
Charité sur mobile. Après le tremblement de terre à Haïti, les applications mobiles de la Croix Rouge américaine ont permis de recueillir plus de 10 millions de dollars de donations en quelques jours, établissant définitivement le mobile comme un canal majeur pour les efforts de charité.
Progression du PFM. La gestion de finances personnelles (PFM ou Personal Finance Management) a vécu une année marquée par la disparition de Wesabe et le rachat, inquiétant au premier abord, de Mint par Intuit. Mais le PFM est en passe de devenir une fonction incontournable pour les banques, s'immisçant rapidement dans les solutions progicielles et dans la banque en ligne.
Démonstration hi-tech de Santander. Dans une pure démonstration technologique, Santander a créé un "centre visiteurs" offrant des expériences de réalité augmentée, des murs d'écrans tactiles interactifs, des robots pour guider l'utilisateur (image ci-dessus)...
North Shore Bank et la géolocalisation. Petite banque communautaire du Wisconson, North Shore Bank est la première à avoir utilisé le jeu à base de géolocalisation FourSquare dans une opération de communication. En devenant "major" de leur agence (c'est-à-dire en enregistrant le maximum de "check-ins"), les clients pouvaient recevoir des offres promotionnelles.
Square. Parmi de multiples initiatives visant le même objectif, Square restera la start-up qui a réellement inventé le terminal de paiement sur mobile, avec son application et son petit accessoire de lecture de piste magnétique pour iPhone et Android. Avec Square, pour la première fois, tous les commerçants, réguliers ou occasionnels, fixes ou ambulants, peuvent accepter les paiements par carte.
Merci à @WilliamDeckers pour le pointeur !
Agence du futur de Citi. Initiative maintenant répliquée à New York, c'est d'abord à Shanghaï que Citi a lancé son nouveau concept d'agence, inspiré par les Apple Stores.
Dépôt de chèque par mobile pour USAA. Copié par de nombreuses autres banques depuis son lancement, USAA a été la première aux Etats-Unis à proposer le dépôt de chèque via une application iPhone et Android, rendu possible par la législation locale. Loin d'en rester là, la banque a ensuite exploité sa technologie pour offrir à ses clients des services de proximité dans les agences UPS.
Guichet automatique de BBVA. Renouvelant le classique guichet automatique (ATM), BBVA et son partenaire IDEO ont conçu leur distributeur en écoutant les clients de la banque. Le résultat se veut plus simple, plus intuitif et plus convivial, avec un grand écran tactile ressemblant un peu à un iPad.
Application iPad d'OCBC. Alors que la plupart des banques se sont contentées, au mieux, d'adapter leur application iPhone à la taille de l'écran de l'iPad, OCBC est l'un des rares établissements à avoir réalisé une version mettant à profit les caractéristiques de la tablette d'Apple, en particulier avec des fonctions de suivi de budget graphiques et riches.
M-Pesa, et la banque devient mobile. Après avoir révolutionné les paiements par mobile avec M-Pesa, l'opérateur kenyan Safaricom poursuit le développement de son service en proposant le retrait d'espèces avec son téléphone sur les distributeurs de deux banques partenaires.
Google adopte le sans contact. Le paiement sans contact sur téléphone mobile est annoncé comme la prochaine "révolution" depuis presque 10 ans, mais la généralisation tarde... Google vient secouer le marché en intégrant la technologie NFC dans son système Android et dans son propre téléphone, le Nexus S.
Faible latence. Malgré le "flash crash" du 6 mai, partiellement imputé aux systèmes de trading automatisés, 2010 restera comme l'année de la course à la latence, pour réaliser des opérations sur les marchés en des temps toujours plus courts, aujourd'hui mesurés en microsecondes.
Prêts-emprunts P2P. Ils existent depuis plusieurs années mais ils s'incrustent désormais dans le paysage de la finance, les sites de prêts-emprunts de particulier à particulier (P2P), comme LendingClub ou Zopa, font leur pub et "gèrent" des dizaines de millions de dollars chaque mois. Malheureusement, cette tendance n'a toujours pas percé en France...
Facebook Credits. Avec ses 500 millions d'utilisateurs à travers le monde et l'évolution de sa monnaie virtuelle, qui pourra bientôt être achetée dans les grandes chaines de distribution américaines, Facebook est peut-être en train de créer la première monnaie universelle...
Charité sur mobile. Après le tremblement de terre à Haïti, les applications mobiles de la Croix Rouge américaine ont permis de recueillir plus de 10 millions de dollars de donations en quelques jours, établissant définitivement le mobile comme un canal majeur pour les efforts de charité.
Progression du PFM. La gestion de finances personnelles (PFM ou Personal Finance Management) a vécu une année marquée par la disparition de Wesabe et le rachat, inquiétant au premier abord, de Mint par Intuit. Mais le PFM est en passe de devenir une fonction incontournable pour les banques, s'immisçant rapidement dans les solutions progicielles et dans la banque en ligne.
Démonstration hi-tech de Santander. Dans une pure démonstration technologique, Santander a créé un "centre visiteurs" offrant des expériences de réalité augmentée, des murs d'écrans tactiles interactifs, des robots pour guider l'utilisateur (image ci-dessus)...
North Shore Bank et la géolocalisation. Petite banque communautaire du Wisconson, North Shore Bank est la première à avoir utilisé le jeu à base de géolocalisation FourSquare dans une opération de communication. En devenant "major" de leur agence (c'est-à-dire en enregistrant le maximum de "check-ins"), les clients pouvaient recevoir des offres promotionnelles.
Square. Parmi de multiples initiatives visant le même objectif, Square restera la start-up qui a réellement inventé le terminal de paiement sur mobile, avec son application et son petit accessoire de lecture de piste magnétique pour iPhone et Android. Avec Square, pour la première fois, tous les commerçants, réguliers ou occasionnels, fixes ou ambulants, peuvent accepter les paiements par carte.
Merci à @WilliamDeckers pour le pointeur !
Chase et IHG créent une carte privative avec leurs meilleurs clients
Le creux d'actualités qui se dessine en cette fin d'année me permet de revenir sur quelques sujets "oubliés" les mois derniers. Ainsi, parmi les initiatives distinguées par un "Forrester Groundswell Award" en octobre, celle de Chase mérite un coup de projecteur.
Lorsqu'en juin 2009 InterContinental Hotel Group (IHG) et Chase Card Services ont décidé de renouveler leur offre de carte privative, leur volonté était de concevoir un produit qui soit en réelle adéquation avec les attentes de leur clientèle. Pour atteindre cet objectif, une communauté de 300 clients soigneusement sélectionnés (participants actifs au programme de fidélité d'IHG et porteurs de la carte existante) a été constituée et une plate-forme collaborative privée mise en place.
Celle-ci, basée sur la solution de Communispace, offrait aux organisateurs les moyens de solliciter les avis et d'écouter les participants, à travers des enquêtes en ligne, des discussions, des galeries de photos, des dialogues ouverts entre membres... Elle a permis de recueillir des informations préciseuses sur ce qui motive le choix d'une carte de crédit par rapport à une autre, sur les offres concurrentes, sur les caractéristiques qui les inciteraient à payer une cotisation annuelle... Malgré la petite taille de la communauté, plus de 30 000 contributions (100 par personne, en moyenne !) ont été apportées à la conversation pendant l'année qu'a duré l'opération.
Forts des résultats de cette phase d'écoute, IHG et Chase ont lancé leur nouvelle carte "Priority Club Select" en juin 2010, proposant les caractéristiques les plus demandées (une nuit d'hôtel gratuite chaque année, l'absence de frais pour les transactions à l'étranger...) et offerte à un prix (annuel) de 49 dollars, également "fixé par les clients", comme celui qu'ils étaient prêts à payer pour ces avantages.
Et les efforts semblent payants puisque la première campagne marketing (par mail) pour cette nouvelle carte a généré 80% de plus d'ouvertures de comptes que la précédente (avec l'ancienne carte), y compris parmi une population qui était jusqu'alors réticente à l'idée de payer une cotisation pour une carte de crédit. Un autre bénéfice espéré avec l'ensemble de l'opération, la démarche participative et la nouvelle offre, est de renforcer la fidélité des clients.
Cet exemple est une brillante démonstration de la valeur des démarches de co-innovation qui se développent encore timidement. Pour ma part, j'en retiens deux leçons, qui vont un peu à l'encontre des "normes" du genre : une petite communauté de clients (s'ils sont suffisamment "engagés") peut suffire dans ce genre d'approche et la conversation peut se prolonger dans la durée avant toute concrétisation.
Notons que la plate-forme Communispace était présente dans une autre initiative, plus ancienne, soumise aux Forrester Groundswell Awards : le "Student Pulse" de Bank of America, dont l'objectif était d'échanger avec une population de collégiens pour accroître la notoriété de la banque, améliorer son image de marque et développer ses activités dans ce segment de clientèle.
Lorsqu'en juin 2009 InterContinental Hotel Group (IHG) et Chase Card Services ont décidé de renouveler leur offre de carte privative, leur volonté était de concevoir un produit qui soit en réelle adéquation avec les attentes de leur clientèle. Pour atteindre cet objectif, une communauté de 300 clients soigneusement sélectionnés (participants actifs au programme de fidélité d'IHG et porteurs de la carte existante) a été constituée et une plate-forme collaborative privée mise en place.
Celle-ci, basée sur la solution de Communispace, offrait aux organisateurs les moyens de solliciter les avis et d'écouter les participants, à travers des enquêtes en ligne, des discussions, des galeries de photos, des dialogues ouverts entre membres... Elle a permis de recueillir des informations préciseuses sur ce qui motive le choix d'une carte de crédit par rapport à une autre, sur les offres concurrentes, sur les caractéristiques qui les inciteraient à payer une cotisation annuelle... Malgré la petite taille de la communauté, plus de 30 000 contributions (100 par personne, en moyenne !) ont été apportées à la conversation pendant l'année qu'a duré l'opération.
Forts des résultats de cette phase d'écoute, IHG et Chase ont lancé leur nouvelle carte "Priority Club Select" en juin 2010, proposant les caractéristiques les plus demandées (une nuit d'hôtel gratuite chaque année, l'absence de frais pour les transactions à l'étranger...) et offerte à un prix (annuel) de 49 dollars, également "fixé par les clients", comme celui qu'ils étaient prêts à payer pour ces avantages.
Et les efforts semblent payants puisque la première campagne marketing (par mail) pour cette nouvelle carte a généré 80% de plus d'ouvertures de comptes que la précédente (avec l'ancienne carte), y compris parmi une population qui était jusqu'alors réticente à l'idée de payer une cotisation pour une carte de crédit. Un autre bénéfice espéré avec l'ensemble de l'opération, la démarche participative et la nouvelle offre, est de renforcer la fidélité des clients.
Cet exemple est une brillante démonstration de la valeur des démarches de co-innovation qui se développent encore timidement. Pour ma part, j'en retiens deux leçons, qui vont un peu à l'encontre des "normes" du genre : une petite communauté de clients (s'ils sont suffisamment "engagés") peut suffire dans ce genre d'approche et la conversation peut se prolonger dans la durée avant toute concrétisation.
Notons que la plate-forme Communispace était présente dans une autre initiative, plus ancienne, soumise aux Forrester Groundswell Awards : le "Student Pulse" de Bank of America, dont l'objectif était d'échanger avec une population de collégiens pour accroître la notoriété de la banque, améliorer son image de marque et développer ses activités dans ce segment de clientèle.
mercredi 15 décembre 2010
S1 invite PayPal dans ses solutions de banque en ligne et mobile
En annonçant un partenariat avec PayPal, l'éditeur de progiciels bancaires S1 esquisse la généralisation du paiement de particulier à particulier (P2P) dans la banque en ligne et mobile. Ce sont les solutions de sa filiale PM Systems Corportation, ciblant les credit unions (les banques coopératives américaines), qui bénéficient pour l'instant de cette nouveauté, déjà retenue par une dizaine de ses clients.
L'option de paiement intégrée garde toute la simplicité du système original de PayPal : une fois connecté sur son site de banque en ligne ou mobile, l'utilisateur n'a plus qu'à fournir le montant à transférer et le numéro de téléphone ou l'adresse mail du destinataire pour réaliser un paiement. Le bénéficiaire reçoit les fonds immédiatement sur son compte PayPal, la création d'un compte lui étant proposée s'il n'en possède pas. La plate-forme de S1 permet à la banque de facturer ou non le service à ses clients, à sa convenance.
Après les premières initiatives individuelles de quelques établissements, cette annonce renforce encore la crédibilité de PayPal comme partenaire des banques. Après une longue période de défiance, à la fois vis-à-vis de la startup souvent perçue comme une concurrente et aussi vis-à-vis du paiement P2P, elles prennent maintenant conscience de l'intérêt qu'elles peuvent avoir à intégrer tous les services financiers au sein de leurs plates-formes de banque à distance.
Par ailleurs, il est révélateur de voir les credit unions prendre de vitesse les grandes institutions, démontrant ainsi encore une fois leur réactivité et leur capacité à répondre aux attentes réelles de leurs clients. Ce constat est d'autant plus visible quand l'innovation ne requiert pas de moyens importants, ce qui est naturellement le cas pour l'intégration des services de PayPal dans un site de banque en ligne ou dans une application mobile.
Les banques françaises, dont celles qui ont lancé leur propre système de paiement P2P (au succès, au mieux, modeste), finiront certainement par rejoindre ce mouvement. Espérons ne pas avoir à attendre trop longtemps...
L'option de paiement intégrée garde toute la simplicité du système original de PayPal : une fois connecté sur son site de banque en ligne ou mobile, l'utilisateur n'a plus qu'à fournir le montant à transférer et le numéro de téléphone ou l'adresse mail du destinataire pour réaliser un paiement. Le bénéficiaire reçoit les fonds immédiatement sur son compte PayPal, la création d'un compte lui étant proposée s'il n'en possède pas. La plate-forme de S1 permet à la banque de facturer ou non le service à ses clients, à sa convenance.
Après les premières initiatives individuelles de quelques établissements, cette annonce renforce encore la crédibilité de PayPal comme partenaire des banques. Après une longue période de défiance, à la fois vis-à-vis de la startup souvent perçue comme une concurrente et aussi vis-à-vis du paiement P2P, elles prennent maintenant conscience de l'intérêt qu'elles peuvent avoir à intégrer tous les services financiers au sein de leurs plates-formes de banque à distance.
Par ailleurs, il est révélateur de voir les credit unions prendre de vitesse les grandes institutions, démontrant ainsi encore une fois leur réactivité et leur capacité à répondre aux attentes réelles de leurs clients. Ce constat est d'autant plus visible quand l'innovation ne requiert pas de moyens importants, ce qui est naturellement le cas pour l'intégration des services de PayPal dans un site de banque en ligne ou dans une application mobile.
Les banques françaises, dont celles qui ont lancé leur propre système de paiement P2P (au succès, au mieux, modeste), finiront certainement par rejoindre ce mouvement. Espérons ne pas avoir à attendre trop longtemps...
mardi 14 décembre 2010
Visa crée une application mobile pour les fêtes
Poursuivant sa stratégie de séduction des consommateurs, comme les autres grands réseaux électroniques de paiements, Visa annonce, juste avant les fêtes de fin d'année, le lancement de son application pour mobile (Android et iPhone) permettant aux porteurs de cartes de la marque (aux Etats-Unis) de bénéficier d'offres promotionnelles sur leurs achats en ligne ou dans des boutiques "physiques".
L'application n'apporte pas de fonctions particulièrement innovantes mais regroupe une combinaison de services intéressante. Les offres délivrées au consommateur peuvent être ciblées, par l'annonceur (les porteurs de carte "Signature" ont par ailleurs accès à des promotions spécifiques) ou selon les préférences de l'utilisateur lui-même, qui peut choisir les catégories qui l'intéressent : vêtements, restaurant, voyage... Les fonctions de géolocalisation des smartphones sont aussi mises à contribution pour faciliter la recherche des boutiques participantes (et des guichets automatiques) à proximité de l'utilisateur.
Pour le lancement de cette nouvelle solution, Visa a recruté 50 commerçants participants, pour l'essentiel des grandes chaînes nationales, mais la liste évolue régulièrement. Par ailleurs, c'est Monitise, spécialiste de la banque et du paiement mobiles, qui fournit la plate-forme technique de l'application.
L'initiative de Visa intéressera naturellement les consommateurs mais les commercçants devraient également y trouver leur compte, avec un nouveau moyen d'atteindre et de fidéliser de nouveaux clients.
Pourquoi nos banques ne nous proposent-elles pas des services similaires ?
L'application n'apporte pas de fonctions particulièrement innovantes mais regroupe une combinaison de services intéressante. Les offres délivrées au consommateur peuvent être ciblées, par l'annonceur (les porteurs de carte "Signature" ont par ailleurs accès à des promotions spécifiques) ou selon les préférences de l'utilisateur lui-même, qui peut choisir les catégories qui l'intéressent : vêtements, restaurant, voyage... Les fonctions de géolocalisation des smartphones sont aussi mises à contribution pour faciliter la recherche des boutiques participantes (et des guichets automatiques) à proximité de l'utilisateur.
Pour le lancement de cette nouvelle solution, Visa a recruté 50 commerçants participants, pour l'essentiel des grandes chaînes nationales, mais la liste évolue régulièrement. Par ailleurs, c'est Monitise, spécialiste de la banque et du paiement mobiles, qui fournit la plate-forme technique de l'application.
L'initiative de Visa intéressera naturellement les consommateurs mais les commercçants devraient également y trouver leur compte, avec un nouveau moyen d'atteindre et de fidéliser de nouveaux clients.
Pourquoi nos banques ne nous proposent-elles pas des services similaires ?
lundi 13 décembre 2010
Etude Accenture : l'impératif du multi-canal dans l'assurance
La dernière édition du magazine "The Point" d'Accenture présente les résultats d'une double étude autour des stratégies multi-canal des compagnies d'assurance. Double car elle a été menée auprès de 3500 consommateurs de 6 pays (dont la France) d'une part et de 125 dirigeants de compagnies d'autre part. Cette analyse croisée permet de montrer l'écart existant entre les attentes des uns et les réponses des autres.
D'un côté, les consommateurs déclarent pour plus de la moitié d'entre eux qu'ils feront le "tour du marché" avant de renouveler leurs contrats ou de souscrire de nouveaux produits d'assurance. Et ils seront 43% à passer par un canal internet dans cette démarche, soit à peine moins que les 49% qui consulteront un agent, sans parler de la frange émergente qui utilisera des services sur mobile. Leurs principaux critères de choix sont, dans l'ordre, la rapidité de traitement des problèmes, la transparence des prix et une gamme de produits précisément ajustée à leurs besoins.
Comment sont positionnées les compagnies d'assurance pour répondre à ces attentes ? En un mot : mal. Côté réactivité et rapidité de traitement des dossiers, 42% ont la capacité de diffuser l'information en temps réel dans les agences, 32% peuvent le faire dans les centres d'appel et 27% en ligne. Le constat est encore plus sombre pour les exigences d'offres personnalisées, seulement 14% des établissements interrogés se déclarant en mesure de proposer des produits, promotions et politiques tarifaires spécifiques par segment de clientèle.
L'intégration des canaux de vente est donc bien un impératif et, selon Accenture, les compagnies les plus performantes l'ont bien compris, puiqu'elles investiront en moyenne 50% de plus que les autres dans ce domaine au cours des 3 prochaines années. Intégration ne veut pour autant pas dire uniformisation : il s'agit également d'identifier les usages et les catégories de clientèle "privilégiés" de chaque canal pour concentrer les efforts sur ceux-ci.
En ce sens, le canal de distribution constitue un nouveau critère de personnalisation aux côtés des traditionnels segments de clients, qui sont pourtant déjà difficiles à identifier, par manque d'information pertinente et d'outils d'analyse puissants et maîtrisés.
Pour les spécialistes d'Accenture, les stratégies des compagnies d'assurance doivent être redéfinies, mettant l'accent sur la multi-canalité, en particulier sur mobile, et la personnalisation des offres. Etant encore peu répandues, ces stratégies offriraient une quasi-garantie de succès auprès des consommateurs, à court terme. Mais elles deviendront rapidement impératives pour la survie des assureurs.
Bien que l'étude d'Accenture traite de l'assurance, je suis convaincu que les mêmes constats et, donc, les mêmes recommandations peuvent aussi s'appliquer dans la banque, qui n'est pas beaucoup plus avancée dans les domaines clés du multi-canal et de la personnalisation...
Merci à Laurent pour le pointeur ;-)
D'un côté, les consommateurs déclarent pour plus de la moitié d'entre eux qu'ils feront le "tour du marché" avant de renouveler leurs contrats ou de souscrire de nouveaux produits d'assurance. Et ils seront 43% à passer par un canal internet dans cette démarche, soit à peine moins que les 49% qui consulteront un agent, sans parler de la frange émergente qui utilisera des services sur mobile. Leurs principaux critères de choix sont, dans l'ordre, la rapidité de traitement des problèmes, la transparence des prix et une gamme de produits précisément ajustée à leurs besoins.
Comment sont positionnées les compagnies d'assurance pour répondre à ces attentes ? En un mot : mal. Côté réactivité et rapidité de traitement des dossiers, 42% ont la capacité de diffuser l'information en temps réel dans les agences, 32% peuvent le faire dans les centres d'appel et 27% en ligne. Le constat est encore plus sombre pour les exigences d'offres personnalisées, seulement 14% des établissements interrogés se déclarant en mesure de proposer des produits, promotions et politiques tarifaires spécifiques par segment de clientèle.
L'intégration des canaux de vente est donc bien un impératif et, selon Accenture, les compagnies les plus performantes l'ont bien compris, puiqu'elles investiront en moyenne 50% de plus que les autres dans ce domaine au cours des 3 prochaines années. Intégration ne veut pour autant pas dire uniformisation : il s'agit également d'identifier les usages et les catégories de clientèle "privilégiés" de chaque canal pour concentrer les efforts sur ceux-ci.
En ce sens, le canal de distribution constitue un nouveau critère de personnalisation aux côtés des traditionnels segments de clients, qui sont pourtant déjà difficiles à identifier, par manque d'information pertinente et d'outils d'analyse puissants et maîtrisés.
Pour les spécialistes d'Accenture, les stratégies des compagnies d'assurance doivent être redéfinies, mettant l'accent sur la multi-canalité, en particulier sur mobile, et la personnalisation des offres. Etant encore peu répandues, ces stratégies offriraient une quasi-garantie de succès auprès des consommateurs, à court terme. Mais elles deviendront rapidement impératives pour la survie des assureurs.
Bien que l'étude d'Accenture traite de l'assurance, je suis convaincu que les mêmes constats et, donc, les mêmes recommandations peuvent aussi s'appliquer dans la banque, qui n'est pas beaucoup plus avancée dans les domaines clés du multi-canal et de la personnalisation...
Merci à Laurent pour le pointeur ;-)
dimanche 12 décembre 2010
New York Life ouvre les réseaux sociaux à ses agents
L'utilisation des réseaux sociaux est encore souvent limitée au sein des institutions financières, par crainte de comportements inappropriés, débordements, pertes de productivité, risques pour la sécurité... Quelques entreprises pionnières ayant "ouvert les vannes" ont démontré que les réticences n'étaient pas très justifiées mais, pour les autres, l'assureur New York Life donne un exemple un peu différent.
Reconnaissant la popularité des réseaux sociaux et souhaitant les intégrer dans son métier, sans pour autant prendre de risque avec son image et avec la législation, New York Life a choisi de déployer la solution Compass de Socialware, auprès d'une population pilote (pour l'instant) de 750 agents.
Avec cette plate-forme, les collaborateurs peuvent accéder aux réseaux sociaux publics (Facebook, Twitter, LinkedIn...) et participer aux conversations des internautes. Mais l'entreprise contrôle les règles du jeu : l'administrateur peut limiter les fonctions accessibles et définir des filtres sur les messages postés. De plus, tous les échanges sont archivés et peuvent être facilement recherchés, ce qui permettra de répondre aux exigences réglementaires strictes qui touchent certains métiers de la finance.
Le contrôle permanent des collaborateurs n'est probablement pas la solution idéale pour l'engagement des entreprises sur le web social mais la solution de Socialware a au moins le mérite de retirer un argument aux opposants. Les institutions financières n'auront bientôt plus aucune excuse pour rester à l'écart des réseaux sociaux !
Reconnaissant la popularité des réseaux sociaux et souhaitant les intégrer dans son métier, sans pour autant prendre de risque avec son image et avec la législation, New York Life a choisi de déployer la solution Compass de Socialware, auprès d'une population pilote (pour l'instant) de 750 agents.
Avec cette plate-forme, les collaborateurs peuvent accéder aux réseaux sociaux publics (Facebook, Twitter, LinkedIn...) et participer aux conversations des internautes. Mais l'entreprise contrôle les règles du jeu : l'administrateur peut limiter les fonctions accessibles et définir des filtres sur les messages postés. De plus, tous les échanges sont archivés et peuvent être facilement recherchés, ce qui permettra de répondre aux exigences réglementaires strictes qui touchent certains métiers de la finance.
Le contrôle permanent des collaborateurs n'est probablement pas la solution idéale pour l'engagement des entreprises sur le web social mais la solution de Socialware a au moins le mérite de retirer un argument aux opposants. Les institutions financières n'auront bientôt plus aucune excuse pour rester à l'écart des réseaux sociaux !
Salesforce lance le SGBDR dans le nuage
Fort de l'expérience acquise avec ses applications en SaaS (Software as a Service) stockant 20 milliards d'enregistrements et gérant 25 milliards de transactions par trimestre (plus de 3000 par seconde !), Salesforce lance Database.com, une base de données relationnelle (SGBDR) dans le cloud.
A la différence de la plupart des solutions existantes, Database.com n'est ni une instance de SGBDR dans un nuage d'infrastructure (qu'il faut donc administrer), ni un système de stockage spécifique à l'architecture en cloud (avec leurs modèles non relationnels). L'offre de Salesforce est en effet une véritable base de données relationnelle géante, telle que les connaissent et les maîtrisent des millions d'administrateurs et de développeurs dans le monde, spécialement conçue pour la co-location, adaptable à la demande en temps réel et facturée à l'usage (en fonction du volume de données et du nombre de transactions et d'utilisateurs).
Petit bémol dans ce panorama, l'accès aux données est réalisé via un langage spécifique, baptisé SOQL ou via des services web ("REST"). Mais un partenariat avec Progress Software promet une conversion automatique des requêtes en langage SQL (le standard d'interrogation des bases de données). Un autre partenaire, Informatica, a quant à lui annoncé une solution de transfert des bases classiques vers Database.com. Autant de facteurs qui faciliteront la transition pour ceux qui se laisseront séduire.
Avec cette nouvelle offre, Salesforce renforce ses positions dans le nuage de "plate-forme" (PaaS, Platform as a Service), alors que l'entreprise reste surtout connue pour sa solution de CRM (Customer Relationship Management ou Gestion de la Relation Client) et ses efforts dans le SaaS.
Convaincre les clients d'héberger leurs données dans le cloud, dans un système en co-location risque d'être difficile et les adversaires de Salesforce ne manquent pas de souligner les risques de sécurité (Oracle en tête, alors que Database.com est construit sur son SGBD). Mais le spécialiste du cloud dispose d'atouts pour s'imposer, notamment à travers ses utilisateurs actuels, les 87 000 entreprises clientes de l'offre de CRM étant de fait aussi clientes de la base de données.
[Mis à jour le 13/12/2010 pour clarifier le positionnement de Database.com parmi les bases de données en cloud.]
A la différence de la plupart des solutions existantes, Database.com n'est ni une instance de SGBDR dans un nuage d'infrastructure (qu'il faut donc administrer), ni un système de stockage spécifique à l'architecture en cloud (avec leurs modèles non relationnels). L'offre de Salesforce est en effet une véritable base de données relationnelle géante, telle que les connaissent et les maîtrisent des millions d'administrateurs et de développeurs dans le monde, spécialement conçue pour la co-location, adaptable à la demande en temps réel et facturée à l'usage (en fonction du volume de données et du nombre de transactions et d'utilisateurs).
Petit bémol dans ce panorama, l'accès aux données est réalisé via un langage spécifique, baptisé SOQL ou via des services web ("REST"). Mais un partenariat avec Progress Software promet une conversion automatique des requêtes en langage SQL (le standard d'interrogation des bases de données). Un autre partenaire, Informatica, a quant à lui annoncé une solution de transfert des bases classiques vers Database.com. Autant de facteurs qui faciliteront la transition pour ceux qui se laisseront séduire.
Avec cette nouvelle offre, Salesforce renforce ses positions dans le nuage de "plate-forme" (PaaS, Platform as a Service), alors que l'entreprise reste surtout connue pour sa solution de CRM (Customer Relationship Management ou Gestion de la Relation Client) et ses efforts dans le SaaS.
Convaincre les clients d'héberger leurs données dans le cloud, dans un système en co-location risque d'être difficile et les adversaires de Salesforce ne manquent pas de souligner les risques de sécurité (Oracle en tête, alors que Database.com est construit sur son SGBD). Mais le spécialiste du cloud dispose d'atouts pour s'imposer, notamment à travers ses utilisateurs actuels, les 87 000 entreprises clientes de l'offre de CRM étant de fait aussi clientes de la base de données.
[Mis à jour le 13/12/2010 pour clarifier le positionnement de Database.com parmi les bases de données en cloud.]
Greenpeace classe les entreprises technologiques
Greenpeace a publié la quatrième version de son "Cool IT Leaderboard", dans lequel l'association évalue et compare les actions et la politique en faveur de l'environnement des 17 plus grandes entreprises de technologies mondiales. En tête du classement, et seules à obtenir la moyenne, figurent dans l'ordre Cisco, Ericsson et Fujitsu alors que ce sont Oracle, Panasonic et SAP qui occupent le (très) bas de tableau.
Chaque entreprise est notée sur plusieurs critères répartis en 3 catégories : leurs efforts pour produire des solutions technologiques favorisant la réduction des émissions de gaz à effet de serre (GES), leurs initiatives pour réduire leur propre empreinte environnementale et, plus subjectif, leur engagement "politique".
Chaque entreprise est notée sur plusieurs critères répartis en 3 catégories : leurs efforts pour produire des solutions technologiques favorisant la réduction des émissions de gaz à effet de serre (GES), leurs initiatives pour réduire leur propre empreinte environnementale et, plus subjectif, leur engagement "politique".
Greenpeace réserve la plus grande importance à la première catégorie, considérant que les technologies de l'information et de la communication offrent une capacité de réduire de 15% les émissions globales de GES. Dans ce domaine, Cisco, Fujitsu et Ericsson mènent la charge non seulement par les solutions qu'elles proposent mais également par leurs priorités de développement placées sur celles-ci.
Pour ce qui concerne les émissions propres des entreprises évaluées, c'est IBM qui recueille la meilleure note, suivie de près par Cisco, qui ont toutes les deux une véritable politique de réduction, qui ne s'appuie pas prioritairement sur des actions de compensation. Les efforts de Google, avec ses récents investissements dans l'énergie éolienne, sont bien notés mais Greenpeace juge inacceptable que le géant Internet ne publie pas son empreinte environnementale et n'ait pas établi de cible de réduction.
Côté engagement politique, Google prend la tête du classement, devant Cisco et Ericsson, grâce à ses actions concrètes en faveur de l'environnement (par exemple, son support pour une loi californienne contre le réchauffement climatique). Greenpeace indique que les notes ont globalement baissé depuis la version précédente de son évaluation, qui coïncidait avec le sommet de Copenhague (et une forte implication des entreprises technologiques lors de cet événement).
Enfin, il faut bien revenir sur le cas d'Oracle, qui recueille un score de 12 points sur 100 (Cisco en obtenant 70, pour comparaison) à son arrivée dans le classement, correspondant aux plus mauvaises notes (ou presque) sur l'ensemble des critères retenus. Et le cas de SAP n'est pas beaucoup plus brillant... Greenpeace note d'ailleurs que les écarts se creusent entre les meilleurs et les pires élèves.
Pourquoi parler de ce classement ici ? Parce que les actions technologiques en faveur de l'environnement relèvent toujours (malheureusement) de l'innovation et qu'il me semble important de mettre en avant les meilleurs exemples en la matière. Lorsque Cisco développe des outils collaboratifs pour réduire les déplacements des collaborateurs ou quand IBM rationalise et consolide ses centres de production informatique pour limiter sa consommation électrique, elles prouvent à leurs clients que ces approches sont possibles et en valent la peine.
De plus, pour les entreprises qui s'engagent dans la réduction de leurs émissions de GES, la sélection de fournisseurs "responsables" est une des actions à leur disposition. Le classement de Greenpeace peut les aider à faire les "bons choix".
Pour ce qui concerne les émissions propres des entreprises évaluées, c'est IBM qui recueille la meilleure note, suivie de près par Cisco, qui ont toutes les deux une véritable politique de réduction, qui ne s'appuie pas prioritairement sur des actions de compensation. Les efforts de Google, avec ses récents investissements dans l'énergie éolienne, sont bien notés mais Greenpeace juge inacceptable que le géant Internet ne publie pas son empreinte environnementale et n'ait pas établi de cible de réduction.
Côté engagement politique, Google prend la tête du classement, devant Cisco et Ericsson, grâce à ses actions concrètes en faveur de l'environnement (par exemple, son support pour une loi californienne contre le réchauffement climatique). Greenpeace indique que les notes ont globalement baissé depuis la version précédente de son évaluation, qui coïncidait avec le sommet de Copenhague (et une forte implication des entreprises technologiques lors de cet événement).
Enfin, il faut bien revenir sur le cas d'Oracle, qui recueille un score de 12 points sur 100 (Cisco en obtenant 70, pour comparaison) à son arrivée dans le classement, correspondant aux plus mauvaises notes (ou presque) sur l'ensemble des critères retenus. Et le cas de SAP n'est pas beaucoup plus brillant... Greenpeace note d'ailleurs que les écarts se creusent entre les meilleurs et les pires élèves.
Pourquoi parler de ce classement ici ? Parce que les actions technologiques en faveur de l'environnement relèvent toujours (malheureusement) de l'innovation et qu'il me semble important de mettre en avant les meilleurs exemples en la matière. Lorsque Cisco développe des outils collaboratifs pour réduire les déplacements des collaborateurs ou quand IBM rationalise et consolide ses centres de production informatique pour limiter sa consommation électrique, elles prouvent à leurs clients que ces approches sont possibles et en valent la peine.
De plus, pour les entreprises qui s'engagent dans la réduction de leurs émissions de GES, la sélection de fournisseurs "responsables" est une des actions à leur disposition. Le classement de Greenpeace peut les aider à faire les "bons choix".
Etude iPass : émergence de la "mobilocratie"
Le spécialiste des solutions mobiles pour entreprise iPass présente [lien PDF] un état des lieux des usages professionnels du mobile et délivre ses prédictions pour 2011, dont la principale est l'avènement d'une "mobilocratie" dominante.
Le rapport, établi sur la base d'une enquête auprès de 4000 utilisateurs des services d'iPass et d'une analyse de 30 millions de sessions, présente les 5 principales tendances observées en 2010 et propose 5 prédictions majeures pour l'année qui vient.
Tendances 2010
Le rapport, établi sur la base d'une enquête auprès de 4000 utilisateurs des services d'iPass et d'une analyse de 30 millions de sessions, présente les 5 principales tendances observées en 2010 et propose 5 prédictions majeures pour l'année qui vient.
Tendances 2010
- Il existe un fort déséquilibre entre les impératifs des entreprises et les attentes des collaborateurs, notamment les plus jeunes. Parmi ces derniers, près des deux tiers utilisent leur mobile personnel pour des tâches professionnelles, que cette pratique soit effectivement admise ou non. Naturellement, pour les organisations où elle ne l'est pas, les risques sont plus élevés de voir des données internes s'envoler dans la nature, à l'occasion d'une perte ou d'un vol.
- Les collaborateurs restent toujours plus connectés à leur travail. Près de 9 sur 10 admettent utiliser leur smartphone à des fins professionnelles pendant leurs heures de loisir, notamment pendant leurs congés, et pour 61% d'entre eux cela constitue désormais une habitude. Plus intéressant, deux tiers des personnes interrogées estiment que le mobile leur permet de mieux gérer l'équilibre entre travail et loisirs alors que seulement 11% considèrent que l'impact est négatif.
- L'ère du PC de bureau est derrière nous. Le PC portable a pris sa place et commence à voir les mêmes modes d'utilisation. Ainsi, de plus en plus de personnes laissent-elles leur notebook au bureau, préférant leur smartphone (ou leur tablette) pour rester connectées à l'extérieur.
- Ces évolutions traversent les générations et les géographies. Contrairement aux idées reçues, les collaborateurs plus âgés sont tout aussi sensibles que les plus jeunes aux nouveaux modes de travail mobile. Selon iPass, le travailleur mobile aurait un âge moyen de 46 ans (à comparer aux 38 ans de l'utilisateur moyen de Facebook). Et l'étude ne fait pas ressortir de différences majeures entre les diverses régions du monde.
- Le mobile règne en maître. Une écrasante majorité (97%) de personnes utilisent au moins deux appareils mobiles (environ la moitié en utilisent 3 ou plus), les plus populaires étant, dans l'ordre, le PC portable, le smartphone, le téléphone mobile. Les tablettes, dont l'inévitable iPad, constituent une tendance montante et leurs utilisateurs n'hésitent pas à les transporter en plus de leurs autres équipements.
- La mobilocratie s'affirme. Les collaborateurs sont moins enclins à accepter les choix de l'entreprise en matière d'équipement technologique, en particulier mobile, et veulent pouvoir choisir leurs appareils eux-mêmes, pour un usage à la fois personnel et professionnel.
- Les entreprises vont adopter des politiques d'usage d'appareils personnels. Pour répondre à ces attentes des collaborateurs, les responsables informatiques vont en effet mettre en place les règles nécessaires pour gérer les matériels utilisés par chacun et, notamment, permettre leur connexion au réseau interne.
- Les politiques de sécurité vont évoluer. Principale préoccupation dans les DSI, la sécurité des appareils mobiles, mise en péril par les mobiles personnels, est en cours de transition d'une approche "périmétrique" (autour de l'entreprise) et d'une protection de chaque à appareil vers une logique de protection des données elles-mêmes. Celle-ci passera, en particulier, par une sensibilisation et une éducation des utilisateurs.
- La délocalisation du bureau. Le bureau traditionnel n'est pas nécessairement le lieu idéal pour travailler, avec les nombreuses distractions qu'il induit (par exemple dans les grands open spaces). Les technologies mobiles permettront à chacun de travailler là où il est le plus à son aise et le plus efficace.
- Les frontières sociales vont être redéfinies. Si, aujourd'hui, les collaborateurs acceptent un plus grand mélange entre vie professionnelle et personnelle, restant toujours connectés à leur entreprise, de nouveaux modes de séparation vont émerger, qui permettront de maintenir un équilibre sain entre ces deux "vies".
vendredi 10 décembre 2010
Oberthur implémente une interface NFC dans la SIM
Malgré les annonces successives de Nokia et d'Apple, puis l'intégration effective par Google d'une interface sans contact dans son nouveau téléphone mobile Nexus S (et dans son système Android), la généralisation de cette technologie reste élusive en raison du faible nombre d'appareils équipés aujourd'hui.
Pour répondre à cette pénurie, Oberthur Technologies vient de dévoiler un adaptateur de carte SIM embarquant l'antenne et les circuits de communication en champ proche (NFC, "Near Field Communication") nécessaires à l'intégration des fonctions de paiement, de tickets (de transports, notamment)... sans contact dans la majorité des mobiles du marché.
Contrairement aux solutions sur carte mémoire, telle que celle de DeviceFidelity [lien PDF], récemment approuvée par Visa, l'intégration des puces NFC dans le format SIM offre une compatibilité bien plus large et, surtout, ne monopolisera pas l'emplacement prévu sur les smartphones pour le stockage, en particulier de musique. Grâce à cette "transparence", son acceptation par les utilisateurs sera donc logiquement plus facile.
La nouvelle risque pourtant de ne pas ravir l'industrie du paiement (banques, émetteurs de cartes...), puisqu'elle marque un retour des opérateurs de téléphonie mobile, qui "possèdent" les cartes SIM de leurs clients, dans l'écosystème du paiement sans contact. Il est en effet certain qu'ils exigeront une participation dans la mise en oeuvre des solutions utilisant "leurs" SIMs, d'autant plus qu'ils sont à la recherche de relais de croissance alors que le marché des communications mobiles atteint la saturation et que leurs revenus stagnent. Certains opérateurs pourraient même être tentés d'investir directement le domaine du paiement mobile et introduire une nouvelle vague de concurrence, comme cela s'est produit dans plusieurs pays à travers le monde.
Quoiqu'il en soit, si les applications sans contact finissent réellement par se généraliser, toutes ces solutions, sur carte mémoire, sticker, SIM... ne marqueront qu'une étape avant une intégration native dans les téléphones qui résoudra toutes les hésitations et incertitudes.
Pour répondre à cette pénurie, Oberthur Technologies vient de dévoiler un adaptateur de carte SIM embarquant l'antenne et les circuits de communication en champ proche (NFC, "Near Field Communication") nécessaires à l'intégration des fonctions de paiement, de tickets (de transports, notamment)... sans contact dans la majorité des mobiles du marché.
Contrairement aux solutions sur carte mémoire, telle que celle de DeviceFidelity [lien PDF], récemment approuvée par Visa, l'intégration des puces NFC dans le format SIM offre une compatibilité bien plus large et, surtout, ne monopolisera pas l'emplacement prévu sur les smartphones pour le stockage, en particulier de musique. Grâce à cette "transparence", son acceptation par les utilisateurs sera donc logiquement plus facile.
La nouvelle risque pourtant de ne pas ravir l'industrie du paiement (banques, émetteurs de cartes...), puisqu'elle marque un retour des opérateurs de téléphonie mobile, qui "possèdent" les cartes SIM de leurs clients, dans l'écosystème du paiement sans contact. Il est en effet certain qu'ils exigeront une participation dans la mise en oeuvre des solutions utilisant "leurs" SIMs, d'autant plus qu'ils sont à la recherche de relais de croissance alors que le marché des communications mobiles atteint la saturation et que leurs revenus stagnent. Certains opérateurs pourraient même être tentés d'investir directement le domaine du paiement mobile et introduire une nouvelle vague de concurrence, comme cela s'est produit dans plusieurs pays à travers le monde.
Quoiqu'il en soit, si les applications sans contact finissent réellement par se généraliser, toutes ces solutions, sur carte mémoire, sticker, SIM... ne marqueront qu'une étape avant une intégration native dans les téléphones qui résoudra toutes les hésitations et incertitudes.
mercredi 8 décembre 2010
Wells Fargo amène la gestion de budget sur ses guichets automatiques
Après avoir déployé l'envoi par mail des reçus de retrait d'espèces en juin dernier, Wells Fargo poursuit sa stratégie de développement de nouveaux services sur ses guichets automatiques de banque (GAB), avec une option originale de suivi des retraits.
Les écrans des plus de 12000 distributeurs de la banque proposent ainsi un nouveau choix "ATM Cash Tracker" à ses clients. Celui-ci leur permet d'activer l'option et de définir une cible mensuelle de montant de retraits. Une fois la configuration réalisée (elle peut aussi être modifiée à tout moment), un nouveau bouton apparaît sur l'écran d'accueil, proposant de consulter le montant total des retraits du mois précédent et la moyenne des douze derniers mois. Le communiqué de Wells Fargo ne le précise pas mais on peut également supposer que le choix d'un montant cible est assorti d'une alerte lorsque le total des retraits du mois atteint cette limite.
Cette modeste initiative ne va pas révolutionner l'industrie bancaire mais elle est néanmoins notable pour (au moins) deux raisons :
Les écrans des plus de 12000 distributeurs de la banque proposent ainsi un nouveau choix "ATM Cash Tracker" à ses clients. Celui-ci leur permet d'activer l'option et de définir une cible mensuelle de montant de retraits. Une fois la configuration réalisée (elle peut aussi être modifiée à tout moment), un nouveau bouton apparaît sur l'écran d'accueil, proposant de consulter le montant total des retraits du mois précédent et la moyenne des douze derniers mois. Le communiqué de Wells Fargo ne le précise pas mais on peut également supposer que le choix d'un montant cible est assorti d'une alerte lorsque le total des retraits du mois atteint cette limite.
Cette modeste initiative ne va pas révolutionner l'industrie bancaire mais elle est néanmoins notable pour (au moins) deux raisons :
- D'une part, elle confirme l'attrait des banques (américaines, en tous cas) pour les outils de gestion de budget (PFM, "Personal Finance Management"), Wells Fargo proposant par ailleurs un tel service à ses clients. Ces outils font face à un obstacle puisqu'ils ne permettent de gérer que les transactions bancaires, à l'exclusion des dépenses en espèces. Le suivi des retraits sur les distributeurs est une solution minimale pour répondre à cette limite, disponible au plus près (pour ce qu'en connait la banque) de l'interaction des consommateurs avec l'argent liquide.
- D'autre part, les réseaux de guichets automatiques constituent un investissement important que toutes les banques souhaitent rentabiliser, sans parler de la valeur financière (via les commissions inter-bancaires) de leur utilisation. En ce sens, tout service supplémentaire ne peut qu'inciter un peu plus les clients à utiliser les distributeurs de leur banque plutôt que ceux des concurrents.
mardi 7 décembre 2010
Institutions financières et médias sociaux : point de vue des consommateurs
Après l'étude d'Aite Group sur la maturité des institutions financières en matière de médias sociaux, une enquête de FiServ nous livre [lien PDF] cette fois le point de vue des consommateurs sur le sujet. Bien qu'elle ait été menée exclusivement aux Etats-Unis, je pense que ses conclusions sont également applicables de notre côté de l'Atlantique et nous donnent quelques éléments de réflexion utiles et certainement universels pour une stratégie pertinente.
En préambule, l'étude nous rappelle que les médias sociaux prennent une place importante dans la vie des internautes, leur utilisation atteignant en moyenne plus de 20% du temps passé sur Internet. Bien que les plus assidus restent les Générations X et Y (31 à 45 ans et 21 à 30 ans, respectivement), toutes les classes d'âge sont concernées (deux tiers des seniors, notamment).
Le principal moteur d'utilisation du web social reste l'envie de maintenir des relations avec les amis, la famille, les collègues ou des personnes partageant les mêmes centres d'intérêt. Mais la création de liens avec des marques ou des entreprises se développe fortement et touche plus de la moitié des répondants, avec une prépondérance marquée de ce comportement parmi les jeunes.
Cependant, dans ce paysage, seulement 11% des personnes interrogées se sont "connectées" à une institution financière.Ceux qui l'ont fait citent (pour deux tiers d'entre eux) l'accès à des informations financières comme motivation principale. Pour les nombreux autres consommateurs (36%) qui se déclarent intéressés, les attentes sont plus variées : être alertés sur les promotions et offres disponibles, contacter le service client, lire les avis de leurs pairs ou encore pouvoir exprimer leurs propres opinions.
Autre résultat intéressant, la majorité des internautes n'entre pas en relation avec les établissements financiers sur les médias sociaux pour trois grandes raisons : l'ignorance de leur présence, l'absence de valeur perceptible et les craintes pour les données personnelles. Toutes pointent vers un seul "défaut", celui de la communication (de la présence, de la valeur apportée et de l'étanchéité entre les médias sociaux et les données et transactions bancaires).
L'étude de FiServ aborde également la question des bénéfices possibles pour les institutions financières de leur participation au web social. Ainsi, il ressort que les clients "connectés" ou intéressés à le devenir sont sensiblement plus utilisateurs des services en ligne et détenteurs de plus de produits de leur établissement.
En conclusion, les médias sociaux constituent une formidable opportunité pour les institutions financières de renforcer leurs liens avec leurs clients (et leur fidélité), en répondant à leurs attentes d'information et d'échanges. Pour atteindre cet objectif, le principal obstacle, de communication, devrait être aisé à dépasser...
En préambule, l'étude nous rappelle que les médias sociaux prennent une place importante dans la vie des internautes, leur utilisation atteignant en moyenne plus de 20% du temps passé sur Internet. Bien que les plus assidus restent les Générations X et Y (31 à 45 ans et 21 à 30 ans, respectivement), toutes les classes d'âge sont concernées (deux tiers des seniors, notamment).
Le principal moteur d'utilisation du web social reste l'envie de maintenir des relations avec les amis, la famille, les collègues ou des personnes partageant les mêmes centres d'intérêt. Mais la création de liens avec des marques ou des entreprises se développe fortement et touche plus de la moitié des répondants, avec une prépondérance marquée de ce comportement parmi les jeunes.
Cependant, dans ce paysage, seulement 11% des personnes interrogées se sont "connectées" à une institution financière.Ceux qui l'ont fait citent (pour deux tiers d'entre eux) l'accès à des informations financières comme motivation principale. Pour les nombreux autres consommateurs (36%) qui se déclarent intéressés, les attentes sont plus variées : être alertés sur les promotions et offres disponibles, contacter le service client, lire les avis de leurs pairs ou encore pouvoir exprimer leurs propres opinions.
Autre résultat intéressant, la majorité des internautes n'entre pas en relation avec les établissements financiers sur les médias sociaux pour trois grandes raisons : l'ignorance de leur présence, l'absence de valeur perceptible et les craintes pour les données personnelles. Toutes pointent vers un seul "défaut", celui de la communication (de la présence, de la valeur apportée et de l'étanchéité entre les médias sociaux et les données et transactions bancaires).
L'étude de FiServ aborde également la question des bénéfices possibles pour les institutions financières de leur participation au web social. Ainsi, il ressort que les clients "connectés" ou intéressés à le devenir sont sensiblement plus utilisateurs des services en ligne et détenteurs de plus de produits de leur établissement.
En conclusion, les médias sociaux constituent une formidable opportunité pour les institutions financières de renforcer leurs liens avec leurs clients (et leur fidélité), en répondant à leurs attentes d'information et d'échanges. Pour atteindre cet objectif, le principal obstacle, de communication, devrait être aisé à dépasser...
lundi 6 décembre 2010
Deuxième round : les prédictions d'IDC
Après Gartner la semaine dernière, c'est au tour d'IDC de livrer ses prédictions pour l'année 2011. Elles reprennent, sans grande surprise, les sujets "chauds" du moment : cloud, mobile et médias sociaux, avec une mention spéciale pour la BI (Business Intelligence).
Dans un contexte de reprise des dépenses informatiques des entreprises (+5,7%), l'institut de recherche voit ces thèmes sortir de leur statut de technologies émergentes, réservées à quelques pionniers, pour entrer dans une phase d'adoption généralisée.
Le cloud computing verrait ainsi une croissance de plus de 30%, principalement dans les PME qui se familiarisent avec les modèles de services dans les nuages. Parallèlement, le concept de "cloud privé" va se développer dans les grandes structures, grâce à une collaboration accrue entre fournisseurs de logiciels, d'infrastructures et de services pour proposer des solutions convaincantes. Côté solutions, la bataille va faire rage pour les premières positions, d'une part, dans les offres de cloud elles-mêmes et, d'autre part, sur le marché des solutions d'administration "universelles".
L'explosion du mobile va se poursuivre, notamment dans le secteur des smartphones et des applications. Pour le premier, les acteurs issus du monde du PC (Microsoft est certainement le premier visé) auront du mal à s'imposer, mais la diversité restera de mise. Par ailleurs, IDC considère que les plates-formes d'accès aux applications (telles que l'AppStore d'Apple), présagent d'un futur modèle de diffusion de tous les contenus numériques, affectant profondément ce secteur.
Enfin, les outils sociaux d'entreprise maintiendront leur croissance (+38% en 2011) et la prévision d'un mouvement de consolidation du secteur donnera un signe clair de son arrivée à maturité. D'une manière plus générale, les médias sociaux seront exploités pour délivrer de la valeur, à travers, notamment, de nouveaux outils décisionnels.
Mais pour IDC, ce qui distinguera vraiment 2011, ce sera l'intégration entre ces technologies : cloud et mobile, mobile et média sociaux, média sociaux et BI en temps réel... De plus, avec l'impact qu'elles ont sur les comportements des consommateurs, elles pénètrent au coeur des stratégies des entreprises et ne pourront plus être traitées comme des initiatives "périphériques".
Dans un contexte de reprise des dépenses informatiques des entreprises (+5,7%), l'institut de recherche voit ces thèmes sortir de leur statut de technologies émergentes, réservées à quelques pionniers, pour entrer dans une phase d'adoption généralisée.
Le cloud computing verrait ainsi une croissance de plus de 30%, principalement dans les PME qui se familiarisent avec les modèles de services dans les nuages. Parallèlement, le concept de "cloud privé" va se développer dans les grandes structures, grâce à une collaboration accrue entre fournisseurs de logiciels, d'infrastructures et de services pour proposer des solutions convaincantes. Côté solutions, la bataille va faire rage pour les premières positions, d'une part, dans les offres de cloud elles-mêmes et, d'autre part, sur le marché des solutions d'administration "universelles".
L'explosion du mobile va se poursuivre, notamment dans le secteur des smartphones et des applications. Pour le premier, les acteurs issus du monde du PC (Microsoft est certainement le premier visé) auront du mal à s'imposer, mais la diversité restera de mise. Par ailleurs, IDC considère que les plates-formes d'accès aux applications (telles que l'AppStore d'Apple), présagent d'un futur modèle de diffusion de tous les contenus numériques, affectant profondément ce secteur.
Enfin, les outils sociaux d'entreprise maintiendront leur croissance (+38% en 2011) et la prévision d'un mouvement de consolidation du secteur donnera un signe clair de son arrivée à maturité. D'une manière plus générale, les médias sociaux seront exploités pour délivrer de la valeur, à travers, notamment, de nouveaux outils décisionnels.
Mais pour IDC, ce qui distinguera vraiment 2011, ce sera l'intégration entre ces technologies : cloud et mobile, mobile et média sociaux, média sociaux et BI en temps réel... De plus, avec l'impact qu'elles ont sur les comportements des consommateurs, elles pénètrent au coeur des stratégies des entreprises et ne pourront plus être traitées comme des initiatives "périphériques".
dimanche 5 décembre 2010
Développement logiciel : viser la perfection ou accepter les défauts ?
A l'occasion du Syposium Gartner 2008, j'ai eu l'occasion de suivre une session "non-conformiste" ("maverick session") passionnante de Nick Jones (habituellement spécialisé dans les technologies mobiles) dans laquelle l'analyste développait l'idée qu'avec leur complexité croissante, la cible de logiciels sans défaut devient une utopie et qu'il vaudrait mieux consacrer ses efforts et ses budgets à préparer et gérer les conséquences des défauts qu'ils comportent inévitablement.
Lydia Leong, autre analyste de Gartner, développe maintenant des idées similaires, en partant du constat que les infrastructures de cloud computing qui se popularisent sont elles aussi loin d'être parfaites et requièrent de nouvelles approches d'architecture et de conception des applications. Le postulat de base est réel et, ceux qui ont "tâté" du nuage pourront le confirmer, les incidents sur les serveurs, le stockage ou le réseau sont des événements courants dans la vie d'une application en cloud. Lorsqu'il s'agit d'indisponibilités "pures et simples", l'architecte peut toujours compter sur les mécanismes de redondance plus ou moins inhérents aux offres les plus sérieuses, mais des problèmes plus insidieux sont nettement plus complexes à prendre en compte, par exemple la variabilité des temps de réponse des services sur le web.
Traditionnellement, les applications sont conçues en supposant que ces problèmes ne se produiront pas et ce sont sur les responsables des infrastructures de l'entreprise que retombe la responsabilité de garantir la fiabilité des systèmes dont ils ont la charge. Les DSI auraient donc facilement le réflexe de considérer que ce risque est une raison supplémentaire pour éviter le cloud computing et continuer à privilégier leurs installations internes supposées "parfaites".
Pourtant, je prétends que cette approche ne suffit pas à écarter la menace et que les réflexions sur la "tolérance applicative aux pannes" restent un impératif dans toutes les configurations. En effet, les architectures applicatives mises en oeuvre de nos jours dans les grandes entreprises deviennent tellement complexes et impliquent tellement de composants, internes et externes, que la fiabilité de l'infrastructure devient presque anecdotique dans la gestion des incidents.
Pour prendre un exemple auquel je suis actuellement confronté, prenez un système relativement simple de e-commerce (qui n'est pas déployé dans le cloud). Pour encaisser les paiements des internautes, il fait appel à un composant externe, comme tant d'autres sites. L'application a été conçue, sans surprise, comme si le module de paiement fonctionnait parfaitement ou, au pire, devenait totalement indisponible. Malheureusement, l'expérience prouve que la réalité est bien différente : parfois les temps de réponse s'allongent et l'application "croit", à tort, que le paiement a échoué, parfois le service fournit des résultats incohérents... Nous sommes bien là dans un cas, qui n'a rien d'exceptionnel, où il aurait été utile de prévoir le pire dès la conception...
Qu'il s'agisse des incidents touchant les infrastructures ou des inévitables bugs émaillant les applications, il serait vain d'espérer pouvoir tous les éviter, surtout lorsqu'ils échappent à notre contrôle, comme dans le cas du cloud computing ou de l'utilisation de services externes. La seule solution qui reste est donc de concevoir des systèmes qui acceptent ces anomalies et les gèrent au mieux. Naturellement, cela demande une nouvelle approche de l'architecture et de la conception des applications, qui n'est pas encore répandue chez les professionnels. La bonne nouvelle est qu'avec la popularité grandissante du nuage, les compétences nécessaires vont se développer...
Lydia Leong, autre analyste de Gartner, développe maintenant des idées similaires, en partant du constat que les infrastructures de cloud computing qui se popularisent sont elles aussi loin d'être parfaites et requièrent de nouvelles approches d'architecture et de conception des applications. Le postulat de base est réel et, ceux qui ont "tâté" du nuage pourront le confirmer, les incidents sur les serveurs, le stockage ou le réseau sont des événements courants dans la vie d'une application en cloud. Lorsqu'il s'agit d'indisponibilités "pures et simples", l'architecte peut toujours compter sur les mécanismes de redondance plus ou moins inhérents aux offres les plus sérieuses, mais des problèmes plus insidieux sont nettement plus complexes à prendre en compte, par exemple la variabilité des temps de réponse des services sur le web.
Traditionnellement, les applications sont conçues en supposant que ces problèmes ne se produiront pas et ce sont sur les responsables des infrastructures de l'entreprise que retombe la responsabilité de garantir la fiabilité des systèmes dont ils ont la charge. Les DSI auraient donc facilement le réflexe de considérer que ce risque est une raison supplémentaire pour éviter le cloud computing et continuer à privilégier leurs installations internes supposées "parfaites".
Pourtant, je prétends que cette approche ne suffit pas à écarter la menace et que les réflexions sur la "tolérance applicative aux pannes" restent un impératif dans toutes les configurations. En effet, les architectures applicatives mises en oeuvre de nos jours dans les grandes entreprises deviennent tellement complexes et impliquent tellement de composants, internes et externes, que la fiabilité de l'infrastructure devient presque anecdotique dans la gestion des incidents.
Pour prendre un exemple auquel je suis actuellement confronté, prenez un système relativement simple de e-commerce (qui n'est pas déployé dans le cloud). Pour encaisser les paiements des internautes, il fait appel à un composant externe, comme tant d'autres sites. L'application a été conçue, sans surprise, comme si le module de paiement fonctionnait parfaitement ou, au pire, devenait totalement indisponible. Malheureusement, l'expérience prouve que la réalité est bien différente : parfois les temps de réponse s'allongent et l'application "croit", à tort, que le paiement a échoué, parfois le service fournit des résultats incohérents... Nous sommes bien là dans un cas, qui n'a rien d'exceptionnel, où il aurait été utile de prévoir le pire dès la conception...
Qu'il s'agisse des incidents touchant les infrastructures ou des inévitables bugs émaillant les applications, il serait vain d'espérer pouvoir tous les éviter, surtout lorsqu'ils échappent à notre contrôle, comme dans le cas du cloud computing ou de l'utilisation de services externes. La seule solution qui reste est donc de concevoir des systèmes qui acceptent ces anomalies et les gèrent au mieux. Naturellement, cela demande une nouvelle approche de l'architecture et de la conception des applications, qui n'est pas encore répandue chez les professionnels. La bonne nouvelle est qu'avec la popularité grandissante du nuage, les compétences nécessaires vont se développer...
BBVA réinvente la banque en ligne
Après sa première initiative "Tú Cuentas" dans le PFM ("Personal Finance Management", gestion de finances personnelles), la banque espagnole BBVA a mis en place au printemps une nouvelle version de son offre de banque en ligne, intégrant toutes les composantes d'un site de nouvelle génération : intégration, personnalisation, simplicité d'utilisation, et une pincée de web social.
Avec 400 000 utilisateurs conquis en un an, le site "BBVA Tú Cuentas", lancé fin 2008, a rencontré un succès inattendu, dans un pays où les consommateurs sont encore assez réticents à la banque en ligne. Mais la banque n'a pas voulu en rester là et a continué à développer sa stratégie, pour toucher tous ses clients. Ainsi, les fonctions de PFM de "Tú Cuentas" ont été directement intégrées au site transactionnel BBVA.es afin d'offrir une expérience unifiée pour la gestion des finances personnelles et d'attirer les internautes peu enclins à utiliser deux sites distincts.
La nouvelle plate-forme retient les éléments de son succès initial avec, notamment, la possibilité d'agréger les données financières issues de tous les comptes de l'utilisateur, et pas seulement ceux gérés par BBVA. C'est d'ailleurs toujours la solution de Strands, dans laquelle la banque a depuis investi, qui constitue le socle de l'offre de PFM.
L'intégration entre médias est également prise en compte : le site permet de contacter directement et simplement un service d'assistance ou un conseiller financier, avec lequel il est possible, dans un espace privé, d'échanger et de signer électroniquement des documents, facilitant ainsi la finalisation des transactions initiées en ligne. La plupart des fonctions proposées sur le site sont aussi naturellement accessibles sur mobile.
Loin d'imposer ses choix à ses clients, la banque a conçu un portail entièrement personnalisable par l'utilisateur, lui permettant de sélectionner les widgets (et, donc, les informations) qui composent sa page d'accueil, de définir les catégories et les "tags" (étiquettes) associées à ses transactions (pour les classer), de créer des rapports personnalisés sur ses finances...
Cerise sur le gâteau, BBVA ajoute à cet ensemble une touche de web social avec la possibilité pour chaque client de comparer ses comportements financiers avec ceux de ses pairs, en présentant des données agrégées (et, par conséquent, anonymisées) des utilisateurs au profil similaire (par âge, profession, région).
La banque ne s'est pas lancée dans ce projet, dont le coût est estimé à 1,7 millions d'euros (hors mise en place initiale de "Tú Cuentas"), à l'aveugle. Une anlyse rigoureuse et permanente des effets des services mis en place permet de justifier cet investissement : les premiers retours démontrent une augmentation significative des visites et des transactions réalisées en ligne. De plus, le site est inscrit dans une stratégie de conquête de nouveaux clients : les fonctions de PFM sont offertes gratuitement aux non clients pendant 6 mois, période à l'issue de laquelle ils se voient proposer d'ouvrir un compte (ou de continuer à utiliser le site moyennant une redevance mensuelle). L'objectif est de donner aux consommateurs la raison supplémentaire qui va les aider à décider de changer d'établissement, un pas toujours difficile à franchir.
La nouvelle plate-forme de BBVA représente (presque) tout ce que l'on peut espérer de la banque en ligne en 2010, mais reste malheureusement l'exception. Alors que les banques françaises (et la plupart des autres dans le monde) développent des initiatives plutôt dispersées, cet exemple démontre la valeur d'une approche intégrée, mûrement réfléchie, qui séduit les clients et devient rapidement génératrice de revenus.
Avec 400 000 utilisateurs conquis en un an, le site "BBVA Tú Cuentas", lancé fin 2008, a rencontré un succès inattendu, dans un pays où les consommateurs sont encore assez réticents à la banque en ligne. Mais la banque n'a pas voulu en rester là et a continué à développer sa stratégie, pour toucher tous ses clients. Ainsi, les fonctions de PFM de "Tú Cuentas" ont été directement intégrées au site transactionnel BBVA.es afin d'offrir une expérience unifiée pour la gestion des finances personnelles et d'attirer les internautes peu enclins à utiliser deux sites distincts.
La nouvelle plate-forme retient les éléments de son succès initial avec, notamment, la possibilité d'agréger les données financières issues de tous les comptes de l'utilisateur, et pas seulement ceux gérés par BBVA. C'est d'ailleurs toujours la solution de Strands, dans laquelle la banque a depuis investi, qui constitue le socle de l'offre de PFM.
L'intégration entre médias est également prise en compte : le site permet de contacter directement et simplement un service d'assistance ou un conseiller financier, avec lequel il est possible, dans un espace privé, d'échanger et de signer électroniquement des documents, facilitant ainsi la finalisation des transactions initiées en ligne. La plupart des fonctions proposées sur le site sont aussi naturellement accessibles sur mobile.
Loin d'imposer ses choix à ses clients, la banque a conçu un portail entièrement personnalisable par l'utilisateur, lui permettant de sélectionner les widgets (et, donc, les informations) qui composent sa page d'accueil, de définir les catégories et les "tags" (étiquettes) associées à ses transactions (pour les classer), de créer des rapports personnalisés sur ses finances...
Cerise sur le gâteau, BBVA ajoute à cet ensemble une touche de web social avec la possibilité pour chaque client de comparer ses comportements financiers avec ceux de ses pairs, en présentant des données agrégées (et, par conséquent, anonymisées) des utilisateurs au profil similaire (par âge, profession, région).
La banque ne s'est pas lancée dans ce projet, dont le coût est estimé à 1,7 millions d'euros (hors mise en place initiale de "Tú Cuentas"), à l'aveugle. Une anlyse rigoureuse et permanente des effets des services mis en place permet de justifier cet investissement : les premiers retours démontrent une augmentation significative des visites et des transactions réalisées en ligne. De plus, le site est inscrit dans une stratégie de conquête de nouveaux clients : les fonctions de PFM sont offertes gratuitement aux non clients pendant 6 mois, période à l'issue de laquelle ils se voient proposer d'ouvrir un compte (ou de continuer à utiliser le site moyennant une redevance mensuelle). L'objectif est de donner aux consommateurs la raison supplémentaire qui va les aider à décider de changer d'établissement, un pas toujours difficile à franchir.
La nouvelle plate-forme de BBVA représente (presque) tout ce que l'on peut espérer de la banque en ligne en 2010, mais reste malheureusement l'exception. Alors que les banques françaises (et la plupart des autres dans le monde) développent des initiatives plutôt dispersées, cet exemple démontre la valeur d'une approche intégrée, mûrement réfléchie, qui séduit les clients et devient rapidement génératrice de revenus.
samedi 4 décembre 2010
Favoriser l'innovation : un exemple chez Procter & Gamble
Nombreuses sont les entreprises qui se veulent innovantes mais plus rares sont celles qui mettent les moyens à la hauteur de leurs ambitions. Procter & Gamble, avec sa longue histoire parsemée de nouvelles créations, est de celles-ci. Alors qu'InformationWeek vient de décerner le titre de DSI de l'année à Filippo Passerini, de P&G, l'hebdomadaire dévoile un peu des secrets de l'entreprise, qui pourraient en inspirer d'autres...
Une partie du siège de Procter & Gamble est occupé par l'"espace solutions" (solutions space), où les employés imaginent et démontrent de nouvelles idées pour changer les modèles de l'entreprise, qu'il s'agisse des produits de son coeur de métier, de nouvelles technologies ou même de techniques financières (la gestion de trésorerie n'est pas négligeable pour une société de cette taille). Cet espace est composé de plusieurs salles aux objectifs bien particuliers.
La "salle de démonstration" (demonstration room) peut accueillir des groupes importants, avec un écran géant, pour concevoir de nouvelles solutions et peut également être subdivisée en petites cellules pour mettre au point les détails en petites équipes.
La "salle d'immersion" (engagement room) sert à réaliser des tests de prototypes, par exemple d'un nouveau tableau de bord analytique ou d'un système de visio conférence, et évaluer leur qualité. L'équipement comprend des outils de suivi du regard, pour analyser la perception d'un site web ou d'une étiquette de produit par un consommateur.
Les "vignettes" sont des répliques d'environnements externes à l'entreprises (une salle de séjour, un train de banlieue et un bureau) qui permettent de projeter les "cobayes" dans des conditions réelles d'utilisation et d'affiner la pertinence des solutions présentées.
Enfin, la "salle poignée de main" (handshake room) est une salle de conférence où les décideurs sont réunis pour des démonstrations, à l'issue desquelles ils donnent leur avis et lorsque celui-ci est favorable, leur accord pour la poursuite du projet.
Cet exemple de Procter & Gamble, qui n'illustre probablement qu'une initiative parmi bien d'autres, démontre avec quel sérieux l'entreprise prend le sujet. Une vraie démarche d'innovation demande en effet de nombreux efforts, et des moyens, pour faire émerger et développer la créativité des collaborateurs (même lorsqu'il s'agit d'équipes dédiées), ce que beaucoup tendent à oublier... L'espace solutions donnent également un petit aperçu de l'engagement des dirigeants de P&G, auxquelles une bonne partie des salles de démonstration sont destinées. Encore une donnée qui n'est pas commune à toutes les entreprises...
Une partie du siège de Procter & Gamble est occupé par l'"espace solutions" (solutions space), où les employés imaginent et démontrent de nouvelles idées pour changer les modèles de l'entreprise, qu'il s'agisse des produits de son coeur de métier, de nouvelles technologies ou même de techniques financières (la gestion de trésorerie n'est pas négligeable pour une société de cette taille). Cet espace est composé de plusieurs salles aux objectifs bien particuliers.
La "salle de démonstration" (demonstration room) peut accueillir des groupes importants, avec un écran géant, pour concevoir de nouvelles solutions et peut également être subdivisée en petites cellules pour mettre au point les détails en petites équipes.
La "salle d'immersion" (engagement room) sert à réaliser des tests de prototypes, par exemple d'un nouveau tableau de bord analytique ou d'un système de visio conférence, et évaluer leur qualité. L'équipement comprend des outils de suivi du regard, pour analyser la perception d'un site web ou d'une étiquette de produit par un consommateur.
Les "vignettes" sont des répliques d'environnements externes à l'entreprises (une salle de séjour, un train de banlieue et un bureau) qui permettent de projeter les "cobayes" dans des conditions réelles d'utilisation et d'affiner la pertinence des solutions présentées.
Enfin, la "salle poignée de main" (handshake room) est une salle de conférence où les décideurs sont réunis pour des démonstrations, à l'issue desquelles ils donnent leur avis et lorsque celui-ci est favorable, leur accord pour la poursuite du projet.
Cet exemple de Procter & Gamble, qui n'illustre probablement qu'une initiative parmi bien d'autres, démontre avec quel sérieux l'entreprise prend le sujet. Une vraie démarche d'innovation demande en effet de nombreux efforts, et des moyens, pour faire émerger et développer la créativité des collaborateurs (même lorsqu'il s'agit d'équipes dédiées), ce que beaucoup tendent à oublier... L'espace solutions donnent également un petit aperçu de l'engagement des dirigeants de P&G, auxquelles une bonne partie des salles de démonstration sont destinées. Encore une donnée qui n'est pas commune à toutes les entreprises...
Gartner prédit l'avenir...
La fin de l'année approche et amène sa traditionnelle vague de prévisions pour l'avenir. Gartner ouvre le bal, avec une série de prédictions technologiques couvrant les prochaines années, jusqu'à 2015.
Même si elles ne se concrétisent pas (ce que nous vérifierons dans 5 ans, si je suis encore ici), ces prédictions ont au moins le mérite de mettre en lumière quelques thèmes importants et constituent ainsi un petit aide-mémoire des technologies à suivre dans les prochains mois.
D'ici 2015, au moins un pays du G20 sera visé par une cyber-attaque massive, mettant en péril ses infrastructures critiques. Les systèmes financiers constituent une des cibles possibles, aux côtés des réseaux d'énergie et de télécommunication, ayant la capacité de provoquer des répercussions durables et profondes sur le pays attaqué. Une préparation à ce scénario est nécessaire, à l'échelle gouvernementale, mais également au niveau de chaque entreprise.
D'ici 2015, la performance des DSI sera mesurée par leur contribution à l'augmentation des revenus de l'entreprise. En sortie de récession, les mesures de réduction de coût vont marquer le pas et la croissance organique va redevenir une priorité. En parallèle, les nouvelles technologies sont désormais reconnues par les directions générales comme génératrice de nouvelles opportunités de revenus et les DSI auront donc pour objectif de les concrétiser.
D'ici 2015, les investissements informatiques par employé augmenteront de 60% dans les entreprises les plus efficaces dans leur utilisation des technologies. Cette croissance est en partie due à une visibilité accrue des dépenses, surtout lorsqu'elle sont de plus en plus centralisées, ainsi qu'à une réduction des effectifs après la crise, accompagnée d'efforts d'augmentation de la productivité par les outils informatiques. Pour les DSI, cela se traduira par une pression accrue pour démontrer leur contribution au succès de l'entreprise.
D'ici 2015, l'automatisation et de nouveaux outils élmineront un quart des besoins de personnel dans les DSI. La maturité venant, l'informatique est en train de s'industrialiser. Avec, d'une partn des fournisseurs proposant des services externalisés adoptant des approches industrielles et, d'autre part, des technologies mises en oeuvre et visibles dans les grandes offres de "cloud", la preuve est faite du potentiel d'automatisation d'une grande partie des tâches qui restent aujourd'hui manuelles.
D'ici 2015, 20% des entreprises non informatiques du "Global 500" seront des fournisseurs de service en cloud. Peut-être la prédiction la plus étonnante de cette série, elle veut démontrer l'émergence de la perception du cloud computing comme un moyen de délivrer des services supportés par les technologies (et non plus seulement délivrant des services informatiques). Elle est également portée par la popularité grandissante des processus externalisés, qui vont entrer en forte concurrence avec les service traditionnellement offerts par les DSI des entreprises.
D'ici 2015, les entreprises génèreront la moitié de leurs ventes en ligne sur les réseaux sociaux et sur mobile. Les attentes des consommateurs, les possibilités d'offrir des services personnalisés (en exploitant le contexte d'une demande), la facilité d'accès (pour les entreprises) aux technologies associées sont autant de facteurs justifiant cette prédiction.
D'ici 2014, 90% des entreprises offriront un accès à leurs applications internes sur les appareils personnels de leurs collaborateurs. Le mouvement, déjà engagé dans les entreprises les plus en pointe, va s'accentuer sous la pression des utilisateurs qui exigent ces accès sur leur propre PC, leur smartphone, leur iPad et, bientôt, sur d'autres matériels. Le règne de la DSI maîtresse de la sélection des PC et mobiles fournis aux collaborateurs touche à sa fin...
Dans la même logique, d'ici 2013, 80% des entreprises admettront l'usage de tablettes par leurs employés. 75% d'entre elles ont déjà des utilisateurs connectés (autorisés ou non) et la moitié ont été contraintes de prendre en compte les iPads de leurs dirigeants. Les tablettes introduisent également de nouveaux usages, plus orientés vers la consommation d'information que vers l'utilisation d'applications "classiques".
D'ici 2015, 10% de vos "amis" en ligne ne seront pas humains. Le web social investit l'ensemble du web et les interactions des entreprises avec leurs contacts, aujourd'hui gérées par des personnes physiques, ne pourront pas suivre son expansion. L'arrivée de "bots", agents automatisés de la relation sur les réseaux sociaux est donc inévitable et paraîtra normale aux internautes.
En complément du communiqué de presse de Gartner, cette synthèse est aussi inspirée par un webinar du 30 novembre, dont l'accès est gratuit.
Même si elles ne se concrétisent pas (ce que nous vérifierons dans 5 ans, si je suis encore ici), ces prédictions ont au moins le mérite de mettre en lumière quelques thèmes importants et constituent ainsi un petit aide-mémoire des technologies à suivre dans les prochains mois.
D'ici 2015, au moins un pays du G20 sera visé par une cyber-attaque massive, mettant en péril ses infrastructures critiques. Les systèmes financiers constituent une des cibles possibles, aux côtés des réseaux d'énergie et de télécommunication, ayant la capacité de provoquer des répercussions durables et profondes sur le pays attaqué. Une préparation à ce scénario est nécessaire, à l'échelle gouvernementale, mais également au niveau de chaque entreprise.
D'ici 2015, la performance des DSI sera mesurée par leur contribution à l'augmentation des revenus de l'entreprise. En sortie de récession, les mesures de réduction de coût vont marquer le pas et la croissance organique va redevenir une priorité. En parallèle, les nouvelles technologies sont désormais reconnues par les directions générales comme génératrice de nouvelles opportunités de revenus et les DSI auront donc pour objectif de les concrétiser.
D'ici 2015, les investissements informatiques par employé augmenteront de 60% dans les entreprises les plus efficaces dans leur utilisation des technologies. Cette croissance est en partie due à une visibilité accrue des dépenses, surtout lorsqu'elle sont de plus en plus centralisées, ainsi qu'à une réduction des effectifs après la crise, accompagnée d'efforts d'augmentation de la productivité par les outils informatiques. Pour les DSI, cela se traduira par une pression accrue pour démontrer leur contribution au succès de l'entreprise.
D'ici 2015, l'automatisation et de nouveaux outils élmineront un quart des besoins de personnel dans les DSI. La maturité venant, l'informatique est en train de s'industrialiser. Avec, d'une partn des fournisseurs proposant des services externalisés adoptant des approches industrielles et, d'autre part, des technologies mises en oeuvre et visibles dans les grandes offres de "cloud", la preuve est faite du potentiel d'automatisation d'une grande partie des tâches qui restent aujourd'hui manuelles.
D'ici 2015, 20% des entreprises non informatiques du "Global 500" seront des fournisseurs de service en cloud. Peut-être la prédiction la plus étonnante de cette série, elle veut démontrer l'émergence de la perception du cloud computing comme un moyen de délivrer des services supportés par les technologies (et non plus seulement délivrant des services informatiques). Elle est également portée par la popularité grandissante des processus externalisés, qui vont entrer en forte concurrence avec les service traditionnellement offerts par les DSI des entreprises.
D'ici 2015, les entreprises génèreront la moitié de leurs ventes en ligne sur les réseaux sociaux et sur mobile. Les attentes des consommateurs, les possibilités d'offrir des services personnalisés (en exploitant le contexte d'une demande), la facilité d'accès (pour les entreprises) aux technologies associées sont autant de facteurs justifiant cette prédiction.
D'ici 2014, 90% des entreprises offriront un accès à leurs applications internes sur les appareils personnels de leurs collaborateurs. Le mouvement, déjà engagé dans les entreprises les plus en pointe, va s'accentuer sous la pression des utilisateurs qui exigent ces accès sur leur propre PC, leur smartphone, leur iPad et, bientôt, sur d'autres matériels. Le règne de la DSI maîtresse de la sélection des PC et mobiles fournis aux collaborateurs touche à sa fin...
Dans la même logique, d'ici 2013, 80% des entreprises admettront l'usage de tablettes par leurs employés. 75% d'entre elles ont déjà des utilisateurs connectés (autorisés ou non) et la moitié ont été contraintes de prendre en compte les iPads de leurs dirigeants. Les tablettes introduisent également de nouveaux usages, plus orientés vers la consommation d'information que vers l'utilisation d'applications "classiques".
D'ici 2015, 10% de vos "amis" en ligne ne seront pas humains. Le web social investit l'ensemble du web et les interactions des entreprises avec leurs contacts, aujourd'hui gérées par des personnes physiques, ne pourront pas suivre son expansion. L'arrivée de "bots", agents automatisés de la relation sur les réseaux sociaux est donc inévitable et paraîtra normale aux internautes.
En complément du communiqué de presse de Gartner, cette synthèse est aussi inspirée par un webinar du 30 novembre, dont l'accès est gratuit.
jeudi 2 décembre 2010
Betterment pour investir en toute simplicité
Lancée à l'occasion de TechCrunch Disrupt au printemps, puis remarquée au FinovateFall en octobre dernier, la startup Betterment vient de lever 3 millions de dollars pour assurer son développement. Une bonne occasion de revenir sur le modèle de cette entreprise qui veut bousculer le marché de l'épargne, en simplifiant l'accès à l'investissement financier.
Betterment propose aux néophytes et aux investisseurs las de gérer leur portefeuille eux-mêmes une plate-forme leur permettant de laisser leur capital fructifier « automatiquement ». Après son inscription, l'internaute établit un lien avec son compte courant (pour réaliser les dépôts et les retraits de fonds) puis se laisse guider, par quelques questions et une comparaison avec des profils similaires parmi les autres utilisateurs, dans le choix d'un niveau de risque qu'il considère acceptable. Il ne lui reste plus alors qu'à regarder son épargne se développer…
Le niveau de risque sélectionné se traduit concrètement par un investissement réparti, en proportion, en bons du trésor (peu risqués mais à faible rentabilité) et en actions (plus volatiles mais potentiellement plus rémunératrices). Betterment ne promet pas une performance extraordinaire mais vise uniquement à s'aligner sur les principaux index boursiers, ce qui constitue une forme de garantie pour ses clients et lui permet (probablement) d'automatiser sa gestion. Grâce à cette approche, le service reste très abordable avec des frais (tout compris) limités à 0,9% du capital moyen investi sur une année.
Les clients gardent un contrôle total sur leur capital : les retraits et les dépôts (qu'il est possible de programmer automatiquement chaque mois) sont gratuits et possibles à tout moment et le profil de risque retenu peut être modifié en permanence (toujours sans frais supplémentaires). Naturellement, des outils en ligne (et sur iPhone) sont également disponibles pour suivre la performance de son portefeuille.
Avec sa plate-forme, Betterment cible une large base de consommateurs disposant d'économies qui dorment sur des comptes courants ou à faible taux d'intérêt. Sa proposition de valeur, équilibrant à volonté risque et rendement, assortie d'une certaine sécurité et, surtout, libérant le client de tout souci de gestion de portefeuille a de quoi les séduire. Par rapport à des fonds d'investissement plus classiques, la startup ne cherche certes pas à vanter ses performances financières mais préfère mettre en avant des coûts réduits et transparents, qui l'aideront certainement à trouver son marché.
Betterment propose aux néophytes et aux investisseurs las de gérer leur portefeuille eux-mêmes une plate-forme leur permettant de laisser leur capital fructifier « automatiquement ». Après son inscription, l'internaute établit un lien avec son compte courant (pour réaliser les dépôts et les retraits de fonds) puis se laisse guider, par quelques questions et une comparaison avec des profils similaires parmi les autres utilisateurs, dans le choix d'un niveau de risque qu'il considère acceptable. Il ne lui reste plus alors qu'à regarder son épargne se développer…
Le niveau de risque sélectionné se traduit concrètement par un investissement réparti, en proportion, en bons du trésor (peu risqués mais à faible rentabilité) et en actions (plus volatiles mais potentiellement plus rémunératrices). Betterment ne promet pas une performance extraordinaire mais vise uniquement à s'aligner sur les principaux index boursiers, ce qui constitue une forme de garantie pour ses clients et lui permet (probablement) d'automatiser sa gestion. Grâce à cette approche, le service reste très abordable avec des frais (tout compris) limités à 0,9% du capital moyen investi sur une année.
Les clients gardent un contrôle total sur leur capital : les retraits et les dépôts (qu'il est possible de programmer automatiquement chaque mois) sont gratuits et possibles à tout moment et le profil de risque retenu peut être modifié en permanence (toujours sans frais supplémentaires). Naturellement, des outils en ligne (et sur iPhone) sont également disponibles pour suivre la performance de son portefeuille.
Avec sa plate-forme, Betterment cible une large base de consommateurs disposant d'économies qui dorment sur des comptes courants ou à faible taux d'intérêt. Sa proposition de valeur, équilibrant à volonté risque et rendement, assortie d'une certaine sécurité et, surtout, libérant le client de tout souci de gestion de portefeuille a de quoi les séduire. Par rapport à des fonds d'investissement plus classiques, la startup ne cherche certes pas à vanter ses performances financières mais préfère mettre en avant des coûts réduits et transparents, qui l'aideront certainement à trouver son marché.
Inscription à :
Articles (Atom)