Free cookie consent management tool by TermsFeed

samedi 6 octobre 2018

L'IA pour lutter contre les biais de l'IA ?

IBM
Alors que des embryons d'intelligence artificielle s'infiltrent doucement dans une multitude de situations de notre vie quotidienne, les biais susceptibles d'entacher les décisions ainsi automatisées commencent à soulever de sérieuses inquiétudes. IBM, parmi d'autres, travaille sur des solutions possible… elles-mêmes à base d'intelligence artificielle.

Les applications qui mettent en œuvre aujourd'hui des techniques d'apprentissage automatique (machine learning, deep learning…) et qui évolueront demain vers des approches toujours plus sophistiquées s'exposent à l'introduction de défauts de « raisonnement », notamment par le simple fait de l'imperfection des informations qui les alimentent, par exemple quand la reconnaissance faciale est plus efficace sur les visages d'hommes blancs parce qu'ils composent l'essentiel de l'échantillon d'entraînement.

À l'extrême, comme l'a montré la désormais fameuse expérience Tay de Microsoft, des personnes malintentionnées peuvent manipuler le fonctionnement des algorithmes dans le but d'introduire volontairement de tels biais. En combinant ces risques à l'opacité des mécanismes par lesquels elle produit un résultat, l'intelligence artificielle est menacée de rejet pour subjectivité incontrôlable, ce qui pourrait également, dans certains domaines tels que la banque et l'assurance, constituer un enjeu réglementaire.

Logiquement, le problème déclenche l'appétit des fournisseurs technologiques et les premières velléités d'offrir des solutions ont commencé à émerger, chez Microsoft (à qui on peut reconnaître d'être sensibilisée !), Facebook, Accenture… et IBM, donc. Cette dernière propose dès maintenant une boîte à outils relativement complète, open source, accompagnée de divers matériels pédagogiques, destinés à aider les utilisateurs à appréhender le sujet, et de 3 démonstrateurs, dont un sur le risque de crédit.

L'IA est-elle la solution aux biais de l'IA@nbsp;?

Comme, semble-t-il, toutes les tentatives du genre à ce stade, la priorité pour AI Fairness 360 (AIF360) est de cibler les biais liés aux personnes, sur des critères de catégories démographiques (âge, genre…), de profils sociologiques (revenus…) ou autres. IBM indique avoir déjà mis au point plus de 30 modèles différents (reposant sur autant d'indicateurs et exploitant une large variété de kits techniques de programmation) pour détecter les défauts des jeux de données qui sont soumis à son analyse.

Plus intéressant, l'éditeur distribue en outre 9 algorithmes correctifs (intervenant, selon les cas, sur les informations sources, sur les méthodes de classification, sur les prédictions…) qui, une fois les biais identifiés, permettent de tester des stratégies visant à les réduire. D'autre part, le logiciel restitue quelques explications sur les décisions prises, sur leur niveau de confiance, sur les facteurs les ayant motivées… qui constitueront peut-être les fondations de la conformité aux futures réglementations.

Le défi des biais algorithmiques est extrêmement réel et il exige des réponses concrètes avant que l'intelligence artificielle ne prenne le contrôle de nos vies. Faut-il pour autant faire reposer la solution sur ce qui, en pratique, est le problème d'origine ? L'idée d'utiliser encore plus d'IA pour détecter et corriger ses propres défauts ressemble furieusement à une fuite en avant, démultipliant implicitement l'opacité et l'incertitude, malgré une apparence rassurante, derrière une complexité qui croît exponentiellement…

Aucun commentaire:

Enregistrer un commentaire

Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)