Free cookie consent management tool by TermsFeed

lundi 22 avril 2024

L'épineuse question de l'exactitude de l'IA

ICO
Dans un monde confronté quotideiennement aux dangers de la désinformation, l'intelligence artificielle – prise entre ses graves hallucinations et ses petites approximations – génère des inquiétudes supplémentaires pour la notion même de vérité. Alors le gendarme britannique de la protection des données (l'ICO) consulte sur le sujet.

Depuis l'irruption de ChatGPT sur internet et l'engouement massif qu'il a provoqué, tous les régulateurs de la planète se précipitent afin de comprendre les défis inédits qu'engendrent les plates-formes de ce genre et de tenter de leur apporter des réponses, en vue de leur exploitation bénéfique pour tous dans des conditions satisfaisantes. Or, si les préoccupations qu'elles expriment paraissent légitimes, leur manière d'envisager des solutions appropriées laisse malheureusement beaucoup à désirer.

Ainsi, dans le cas de l'ICO (qui pourrait aussi être celui de la CNIL française ou de l'EDPB européen), la question soulevée, évidente, se révèle aussi critique qu'urgente : comment éviter que l'application de l'intelligence artificielle ne s'égare quand elle s'exerce sur une matière aussi sensible que la personne et quand les erreurs commises peuvent causer des préjudices plus ou moins graves, depuis l'atteinte à la réputation jusqu'au refus d'accorder un crédit (pour ne prendre que ce seul exemple financier) ?

Dans son exploration de ce véritable trou noir, qui menace autant à travers les outils mis à disposition du grand public que via ceux que déploient progressivement les entreprises (en général avec une certaine prudence, par bonheur), l'agence commence par interroger les parties prenantes en évoquant les pistes de réflexion qui lui semblent les plus prometteuses, à savoir le contrôle de la justesse des données d'entraînement des modèles et l'évaluation (et la divulgation) du degré de précision de leurs résultats.

ICO Consultation

Hélas, ces orientations, bien que logiques en apparence, n'aideront guère à faire face au problème. Sur le premier aspect, si l'introduction de contenus de mauvaise qualité (tels que ceux issus des réseaux sociaux) lors de la mise au point des « raisonnements » de l'IA (par imitation, rappelons-le) entraîne inévitablement des défauts majeurs, la véracité des entrants n'offre aucune garantie de fiabilité à la sortie, ne serait-ce qu'en raison des déformations que peut susciter la façon d'interagir avec le logiciel (le « prompt »).

Quant à la mesure de l'exactitude des modèles, même statistique, on perçoit bien combien elle est insaisissable. Outre son évolution dans le temps, à peu près imprévisible, elle est surtout fortement dépendante des usages : le moindre écart par rapport au domaine de « compétences » initial d'une solution la rend instantanément caduque. Par ailleurs, il faudrait que les utilisateurs – humains ou robots – apprennent à prendre en compte cette estimation avant d'exploiter les informations produites.

En conclusion, l'intelligence artificielle générative a ouvert une boîte de Pandore, dont on discerne difficilement les options disponibles afin d'en maîtriser les conséquences. Espérons que la consultation de l'ICO (et, éventuellement, de ses équivalents dans le monde) permette de dégager quelques idées opportunes… En attendant, le plus sage consiste à maintenir un contrôle (humain) systématique sur ce qui émane de cette technologie et à ne jamais la laisser nous faire croire qu'elle détiendrait la vérité !

Aucun commentaire:

Enregistrer un commentaire

Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)