Dans ses métiers autour de l'information, Thomson Reuters se place logiquement aux premières loges des opportunités de l'intelligence artificielle. Voilà pourquoi son expérience, en particulier en matière de démocratisation auprès de l'ensemble de ses collaborateurs, revêt un caractère innovant digne d'intérêt pour d'autres secteurs.
Engagée depuis plusieurs décennies (?) dans l'exploitation de l'IA, notamment en vue de faciliter l'exploration de ses montagnes de données, l'agence a immédiatement perçu la valeur qu'elle pouvait tirer de sa variante générative lorsque le lancement public de ChatGPT a démontré la maturité qu'elle avait atteinte. Il lui devenait possible, par exemple, d'aider ses collaborateurs ou ses clients à parcourir, synthétiser et filtrer les contenus restitués par une recherche thématique, jusqu'alors traités manuellement.
En fait, au vu des capacités soudain disponibles, la multitude de cas d'usage envisageables est rapidement apparue comme son problème numéro un. Et parce qu'il était impensable, surtout dans le marché de l'emploi actuel, de trouver et recruter les centaines d'experts dont elle aurait eu besoin, elle a entièrement focalisé ses efforts sur la mise en place d'une approche industrielle des implémentations, capable de répondre dans les meilleurs délais aux attentes et aux demandes des utilisateurs.
La solution retenue consiste donc à permettre à tous les salariés de créer leurs propres applications. Mais, naturellement, une telle ouverture requiert un cadre rigoureux, dans un contexte aussi exigeant que les services aux professionnels du juridique, de la fiscalité, de la comptabilité… En premier lieu, outre le respect d'exigences strictes de sécurité et de confidentialité, la plate-forme de Thomson Reuters manipule exclusivement des données internes, de manière à garantir la qualité des résultats.
Par ailleurs, une stratégie de construction de briques réutilisables à grande échelle a été instaurée. Les spécialistes aguerris consacrent l'essentiel de leurs compétences à la fabrication de ces composants primaires. Ensuite, la faculté de les mettre en œuvre dans différentes situations autorise l'accélération des développements, aussi bien pour les projets d'ampleur destinés à un passage en production que pour les expérimentations et autres initiatives tactiques d'employés lambda.
Les exemples évoqués concernent, entre autres, des éléments conçus dans le but de tester plusieurs modèles de langages (« LLM »), afin de sélectionner facilement le plus efficace pour une tâche donnée, ou encore une sorte de générateur de « prompts » grâce auquel un néophyte est en mesure de formuler une question élaborée dans les règles de l'art pour sa prise en charge par l'IA générative, sans avoir à apprendre au préalable toutes les subtilités et les complexités inhérentes à ce genre d'exercice.
En filigrane, la perspective proposée par Thomson Reuters révèle la profonde limitation des outils d'intelligence artificielle distribués aujourd'hui. Tant que leur exploitation requerra une formation dédiée, sinon une qualification professionnelle extensive, ils ne pourront pas s'imposer (dans les entreprises) avec l'universalité qu'on leur prête généralement. Cependant, les moyens émergent déjà, eux-mêmes à base d'IA, d'éliminer ces barrières. Leur intégration n'est qu'une question de temps.
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)