La passe d'armes qui a eu lieu il y a quelques jours entre le président des États-Unis, accusant les réseaux sociaux de contribuer aux décès du COVID, et Facebook, rétorquant par un étalement de ses actions en faveur de la vaccination, m'amène à cette question existentielle : les algorithmes qui régissent nos vies sont-ils encore sous contrôle ?
D'un côté, Joe Biden s'inquiète de la désinformation qui se propage toujours aussi rapidement sur le web. De l'autre, les acteurs visés affirment déployer des efforts considérables afin, entre autres, de ré-équilibrer les débats, de supprimer des millions de fausses nouvelles et de limiter la visibilité de contenus contestables. Qui a raison ? Le premier, malheureusement. Car, en dépit de leurs actions de surface, Facebook et ses compères laissent leurs logiciels propager et amplifier ce qui leur rapporte le plus.
La logique mise en œuvre n'est pas l'apanage de ces plates-formes, qui ne font qu'appliquer les recettes du sensationnalisme réussissant si bien à certains médias traditionnels. Leur seul « mérite » est de les avoir automatisées. Grâce à la mise en avant systématique des sujets polémiques, des débats enflammés, des photos et vidéos choc…, dont l'infox constitue un des des moteurs les plus puissants, elles s'assurent de la fidélité, voire l'addiction, de leurs utilisateurs… et développent ainsi leurs revenus.
Quelles que soient les mesures prises pour modérer les enragés qui vont trop loin, jamais Facebook n'évoque la possibilité de corriger les programmes qui encouragent à outrance des dérives considérées acceptables, alors qu'elles représentent, de toute évidence, l'essentiel du problème. Tout se passe comme si l'entreprise s'ingéniait à mettre tout en œuvre au niveau humain pour maîtriser la situation… tandis que ses algorithmes auraient acquis une existence propre et qu'ils n'obéiraient plus à leurs géniteurs !
Sur cet arrière-plan, la proposition par la Commission Européenne d'élaborer une réglementation autour de l'intelligence artificielle, qui met spécifiquement en exergue les enjeux de confiance, prend un relief particulier. Le citoyen pourrait en effet légitimement espérer qu'un tel texte oblige les réseaux sociaux à éclairer (à défaut d'éliminer) les manipulations que leurs outils orchestrent afin d'accroître leurs profits coûte que coûte. Mais est-on bien sûr que le projet présenté réponde à un besoin de cet ordre ?
Malheureusement, avec son insistance à encadrer la technologie avant les usages, l'ébauche actuelle s'engage dans une voie dangereuse… qui tend à devenir une tragique habitude (la blockchain a subi un traitement similaire). Ainsi, les systèmes de Facebook pourraient tomber sous le coup de la loi s'ils sont pilotés par des modèles de « machine learning »… mais y échapperaient s'ils recourent uniquement à une approche statistique basique (potentiellement suffisante), qui peut pourtant être aussi nuisible.
Encore une fois, il semblerait que le législateur se trouve complètement dépassé par la réalité du monde moderne, entraînant l'Europe dans une surenchère de règles qui ne parviendra vraisemblablement pas à éviter les risques identifiés initialement, relevant d'abord des comportements des entreprises, mais qui, en revanche, par son ciblage explicite de techniques prometteuses, découragera bien l'innovation sur le continent.
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)