Dans son rapport de situation et de tendances pour 2024, l'Agence Internationale de l'Énergie s'inquiète de la contribution des centres de production informatiques à la croissance attendue de la consommation d'électricité dans le monde. Elle pointe notamment du doigt les impacts de l'intelligence artificielle et des cryptomonnaies.
La part des services « digitaux » s'élèverait à ce jour à 2% de la demande globale à l'échelle mondiale, à 4% aux États-Unis et en Europe – où les capacités se concentrent autour des capitales financières (Londres, Paris, Francfort…) – … et à 17% en Irlande, avec sa fiscalité attractive pour les multinationales. Ces taux sont voués à continuer à augmenter, avec des projections suggérant une progression de la consommation de 35 à 130% (jusqu'à atteindre un tiers du total en Irlande) d'ici à 2026.
Parmi les principaux facteurs de hausse des besoins, l'IEA souligne l'engouement suscité par l'IA. Elle illustre son propos avec un exemple éclairant : si les 9 milliards de recherches effectuées quotidiennement avec le moteur de Google se reportaient sur ChatGPT, elles engloutiraient un surcroît d'énergie de 10 TWh, soit plus de 2% de ce qu'absorbent aujourd'hui tous les serveurs de la planète. Et les prédictions de ventes de Nvidia (fournisseur n°1 du domaine) s'orientent clairement dans cette direction.
L'autre coupable désigné est donc l'univers des cryptodevises, qui, actuellement, représenterait déjà 0,4% de la demande générale. Malgré les efforts consentis par certaines applications telles qu'Ethereum (et qui dénaturent son fonctionnement, selon moi), les perspectives sont également pessimistes dans cette industrie, avec une recrudescence prévue de 40%, essentiellement en raison de la multiplication des instruments déployés, annulant les gains d'efficacité obtenus par ailleurs.
Que faire afin de renverser la tendance ? Une première piste consisterait à améliorer la performance énergétique des centres de production. Quand on découvre que 40% de leur consommation est convertie en puissance de calcul, la même proportion étant consacrée au refroidissement et les 20% restant à des équipements divers, il existe là une réserve d'optimisation évidente (pour mémoire les infrastructures de Google limitent les déperditions à environ 10%… loin de cette moyenne de 150%).
Deuxième possibilité, qui provoque fréquemment une sorte de réflexe (entre autres chez les crypto-fanatiques), il s'agirait d'encourager le recours à des sources renouvelables pour ces utilisations. En réalité, cette solution est un leurre, puisque, d'une part, elle devrait se décliner sur tous les usages et, d'autre part, elle ne change rien à l'équilibre global, tant qu'une partie (conséquente) reste issue de combustibles fossiles.
Enfin, à l'écart des propositions de l'IEA, la dernière idée à explorer, en particulier dans les institutions financières, grosses consommatrices d'informatique, tournerait autour d'une logique de rationalisation. Outre les démarches, utiles mais marginales, d'éco-conception logicielle, il devient probablement indispensable d'anticiper l'impact environnemental des projets – encore plus ceux impliquant l'IA – avant leur lancement et intégrer celui-ci dans les critères de faisabilité et de retour sur investissement. Il faudra alors apprendre à renoncer quand le bilan estimé s'avère calamiteux.
Aucun commentaire:
Enregistrer un commentaire
Afin de lutter contre le spam, les commentaires ne sont ouverts qu'aux personnes identifiées et sont soumis à modération (je suis sincèrement désolé pour le désagrément causé…)