Investir dans des programmes universitaires de formation à la science des données et l'intelligence artificielle devient aujourd'hui une tactique courante parmi les institutions financières désireuses, entre autres, de s'assurer l'accès à un vivier de talents essentiels pour leur avenir. Quand RBC se lance dans dans une telle démarche, elle ne se focalise toutefois pas exclusivement sur des compétences techniques.
Le partenariat qu'engage la canadienne avec la Western University à London (dans l'Ontario), assorti d'une contribution de trois millions de dollars, vise en effet à mettre en place et développer non seulement un cursus consacré à la programmation et la pensée conceptuelle, ainsi que deux bourses en analyse de données et génie logiciel, mais également une formation focalisée plus particulièrement sur les enjeux éthiques et les implications sociales de ces nouvelles disciplines informatiques.
Par rapport à la pénurie de spécialistes opérationnels, le besoin dans ces domaines est certainement moins criant et immédiat dans les grands groupes qui, pour la plupart, n'en sont encore qu'à explorer les opportunités de l'intelligence artificielle à travers quelques expérimentations prudentes. Pourtant, les inquiétudes surgissent rapidement, suscitant parfois des emballements médiatiques suspects et des alertes régulières de la part des régulateurs craignant une montée incontrôlable des discriminations.
Or, par la nature de leurs métiers, touchant à un aspect extrêmement sensible et intime de la vie de leurs clients (l'argent), les banques sont naturellement en première ligne sur ces questions. Qu'il s'agisse pour elles de rester dans des limites acceptables de l'usage des technologies ou d'écarter le risque d'image guettant le moindre faux pas (ce qui constitue un puissant inhibiteur d'initiatives), elles ne pourront avancer sans disposer d'une stratégie cohérente, établie avec des personnes qui en maîtrisent les arcanes.
Le partenariat qu'engage la canadienne avec la Western University à London (dans l'Ontario), assorti d'une contribution de trois millions de dollars, vise en effet à mettre en place et développer non seulement un cursus consacré à la programmation et la pensée conceptuelle, ainsi que deux bourses en analyse de données et génie logiciel, mais également une formation focalisée plus particulièrement sur les enjeux éthiques et les implications sociales de ces nouvelles disciplines informatiques.
Par rapport à la pénurie de spécialistes opérationnels, le besoin dans ces domaines est certainement moins criant et immédiat dans les grands groupes qui, pour la plupart, n'en sont encore qu'à explorer les opportunités de l'intelligence artificielle à travers quelques expérimentations prudentes. Pourtant, les inquiétudes surgissent rapidement, suscitant parfois des emballements médiatiques suspects et des alertes régulières de la part des régulateurs craignant une montée incontrôlable des discriminations.
Or, par la nature de leurs métiers, touchant à un aspect extrêmement sensible et intime de la vie de leurs clients (l'argent), les banques sont naturellement en première ligne sur ces questions. Qu'il s'agisse pour elles de rester dans des limites acceptables de l'usage des technologies ou d'écarter le risque d'image guettant le moindre faux pas (ce qui constitue un puissant inhibiteur d'initiatives), elles ne pourront avancer sans disposer d'une stratégie cohérente, établie avec des personnes qui en maîtrisent les arcanes.
De ce point de vue, le curriculum mis en place par la Western University devrait apporter une réponse appropriée. En les intégrant dans les équipes de science des données de l'entreprise, ses futurs diplômés pourront participer activement à la définition d'un cadre d'utilisation respectueux des valeurs et des sensibilités de chaque client et de la société en général (sans oublier la réglementation). Cela sera même, selon toute vraisemblance, un facteur d'accélération des applications de l'intelligence artificielle dans la banque.
En revanche, le plan élaboré par RBC laisse de côté un volet tout aussi important et beaucoup plus complexe du sujet, mis en lumière récemment avec l'« affaire » du sexisme de la carte Apple : l'exigence d'acculturation de l'ensemble des collaborateurs aux changements induits par les technologies. Et elle est d'autant plus sérieuse et pressante que se répandent les velléités de faire des conseillers les intermédiaires entre clients et algorithmes, imposant une compréhension des mécanismes à l'œuvre.
Une réflexion (sous la forme d'un programme de recherche ?) sur l'accompagnement des professionnels au contact de l'intelligence artificielle pourrait être un complément intéressant au dispositif tel qu'il est construit à ce jour, toujours en ligne avec son orientation sociologique. Idéalement, il pourrait aboutir à la création de corpus pédagogiques adaptés, prenant en compte toutes les dimensions nécessaires : collaboration homme-machine, explicabilité des « raisonnements », veille éthique…
En revanche, le plan élaboré par RBC laisse de côté un volet tout aussi important et beaucoup plus complexe du sujet, mis en lumière récemment avec l'« affaire » du sexisme de la carte Apple : l'exigence d'acculturation de l'ensemble des collaborateurs aux changements induits par les technologies. Et elle est d'autant plus sérieuse et pressante que se répandent les velléités de faire des conseillers les intermédiaires entre clients et algorithmes, imposant une compréhension des mécanismes à l'œuvre.
Une réflexion (sous la forme d'un programme de recherche ?) sur l'accompagnement des professionnels au contact de l'intelligence artificielle pourrait être un complément intéressant au dispositif tel qu'il est construit à ce jour, toujours en ligne avec son orientation sociologique. Idéalement, il pourrait aboutir à la création de corpus pédagogiques adaptés, prenant en compte toutes les dimensions nécessaires : collaboration homme-machine, explicabilité des « raisonnements », veille éthique…
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)