Le numérique est souvent présenté comme immatériel, comme s’il était indépendant de toute infrastructure, et que son développement était par conséquent peu polluant. Il est même perçu comme une « solution » au changement climatique : les mails qui remplacent les documents imprimés, les bilans carbone « neutres » des GAFAM ; c’est une vision omniprésente.

Article Environnement
Accès libre
publié le 05/09/2023 Par Thomas Le Bonniec
abonnement abonnement
bulb

Abonnement Élucid

Google, par exemple, s’emploie à faire des annonces « parmi les plus ambitieuses » du secteur, et affirme que son « objectif zéro émission nette se construit sur deux décennies d’action climatique » de l'entreprise. Elle pourrait ainsi « aider plus de 500 villes et gouvernements locaux à réduire l’équivalent d’une gigatonne d’émissions carbone annuellement d’ici à 2030 ». Google parie notamment sur le « Project Green Light, une IA qui fournit des recommandations pour les planificateurs urbains afin d’optimiser les feux de circulation et de réduire le trafic ».

Cette conception, qui met au centre du jeu les solutions techniques, est un miroir aux alouettes. Les effets de la production d’Intelligences Artificielles, d’algorithmes, et la collecte et le traitement de données, s’avèrent au contraire particulièrement tangibles : ils sont énergivores, très consommateurs d’eau, mais aussi de minerais pour leurs supports électroniques. Surtout, les ressources nécessaires au maintien – voire à l’expansion – du numérique sous sa forme actuelle sont limitées.

Une explosion du nombre de terminaux et des données collectées

Pour exister, les outils numériques dépendent des câbles de fibre optique qui se croisent au fond des océans, des centres de données parfois gigantesques qui éclosent partout, y compris dans les villes, et des ordinateurs et des téléphones par milliards qui s’allument et se connectent aux réseaux quotidiennement. Corinne Morel Darleux, auteure du livre Être heureux avec moins, le disait de manière assez abrupte dans une interview récente :

« Il va falloir apprendre à se passer du numérique. On devrait déjà être en train d’anticiper le moment où on n’aura plus les ressources nécessaires. […] Il nous reste environ trente ans de numérique devant nous, selon le cabinet Green IT. Or, même dans les milieux technocritiques, on s’inquiète – à juste titre – de l’essor du numérique, mais très peu de sa fin programmée. »

Que dit précisément le cabinet Green IT ? Dans son étude de 2019 intitulée « Empreinte environnementale du numérique mondial », son objectif est de quantifier précisément les coûts en eau, en électricité, en matières premières et ses émissions de gaz à effet de serre. La somme des énergies et des matières premières nécessaires au renouvellement et à la croissance de cette infrastructure est colossale. Le journaliste Guillaume Pitron explique ainsi, dans son ouvrage L’enfer numérique (1) :

« La “génération climat” sera l’un des principaux acteurs du doublement, annoncé à l’horizon 2025, de la consommation d’électricité du secteur numérique (20 % de la production mondiale) ainsi que de ses rejets de gaz à effet de serre (7,5 % des émissions globales). »

Pour donner une idée de ces perspectives, l’agence de la transition écologique ADEME et l’Arcep ont publié en mars 2023 une étude sur les effets environnementaux du numérique. Ciblée sur la France uniquement, elle corrobore ces projections, estimant que, sans changement majeur, l’empreinte carbone du secteur augmenterait de 45 % d’ici 2030.

Les estimations de Green IT font état d’un triplement de la consommation énergétique par le numérique à l’échelle mondiale, en grande partie en raison d’effets de rattrapage dans les pays moins équipés en outils numériques, mais aussi d’un accroissement du nombre d’objets connectés et de données disponibles. Ces derniers devraient voir leur nombre « multiplié par 48 en 15 ans ». Selon Green IT, « la part des télévisions et des objets connectés dans celle du numérique mondial va être multipliée par 5 entre 2010 et 2025 passant de 5 % et 15 % des impacts en 2010 à 27 % et 43 % en 2025 ».

Les chiffres sont édifiants : en 2018, on recensait déjà 34 milliards d’équipements informatiques, dont 3,5 milliards de smartphones et entre 8 et 19 milliards d’objets connectés, c’est-à-dire toute sorte d’équipements agrémentés de capteurs accessibles par voie numérique, comme une tasse chauffante contrôlée avec une application.

Une projection de l’institut Statista dans son Digital Economy Compass de 2019 estimait à 33 zettaoctets la production de données à l’échelle mondiale pour 2018 (1 zettaoctet représente 1021 octets, soit 1 000 milliards de gigaoctets). Dès 2025, on arriverait à 175 zettaoctets, soit cinq fois plus. Si la tendance se poursuivait, on atteindrait plus de 2 000 zettaoctets en 2035, c’est-à-dire une multiplication par quarante-cinq en l'espace de 17 ans.

Collecte de données et coût environnemental de la surveillance

Stocker des données, cela nécessite de la place sur des disques durs. Ces disques doivent être alimentés en énergie et en eau pour continuer de fonctionner. Une fois assemblés en structure, c’est-à-dire en « data center », ils doivent stocker les immenses masses de données que l’on continue de créer et d’amasser : c’est pourquoi leur nombre ne cesse de croître. Guillaume Pitron détaille :

« Il existerait aujourd’hui près de trois millions de datacenters d’une surface de moins de 500 m2 dans le monde, 85 000 de dimension intermédiaire […] et au cœur de cette Toile de béton et d’acier prospèrent plus de 500 datacenters dits “hyperscale”, souvent vastes comme un terrain de foot. »

Il prend pour exemples ceux des villes d’Haarlemmermeer et d’Amsterdam, dont près de 10 % de la consommation en électricité est consacrée à ces structures, car celles-ci s’avèrent très gourmandes en énergie – et en eau.

Souvent, cette électricité est issue d’énergies fossiles, qui continuent d’être utilisées pour des projets en développement. L’un des derniers exemples en date concerne Microsoft, qui a reçu l’aval des autorités irlandaises pour faire construire une usine à gaz permettant d’alimenter son «data center campus » à Dublin. D’après le journal américain The Register :

« La centrale serait donc capable de générer 170 mégawatts d’énergie à partir de 22 générateurs pour un coût d’environ 100 millions d’euros. […] La dépendance continue de Microsoft à l’égard des énergies fossiles nous rappelle ses engagements pour le développement durable, l’entreprise s’étant engagée à se fournir à “100 %” en énergies renouvelables d’ici 2025, et à être “négative en empreinte carbone” d’ici 2030. »

Microsoft précise que cette centrale fonctionnera uniquement comme un générateur « de secours », au cas où le réseau viendrait à flancher. Mais peu importe que cette affirmation soit vraie ou fausse. Pour Madeleine Johansson, élue municipale de Dublin, « ce projet d’usine à gaz privée est clairement un moyen pour Microsoft de s’affranchir des nouveaux critères plus stricts pour les data centers dans la région de Dublin ».

Cette situation rappelle un impératif dans le domaine du numérique : pour contrôler les données, il faut se rendre maître de leurs espaces de stockage – et plus largement, être propriétaire de la totalité des infrastructures de transport des données. Il en va de même des câbles sous-marins financés par Google et Facebook par exemple.

C’est d’ailleurs un enjeu primordial pour la collecte de données à des fins de surveillance. Afin d’avoir le droit de continuer d’opérer en Chine, Apple s’est engagé à conserver les données des utilisateurs uniquement sur le territoire national, et à permettre le contrôle de ses data centers par les autorités gouvernementales.

Mais le sujet du coût environnemental de la surveillance n’est pas nouveau. En 2013, la NSA avait déjà connu des difficultés en souhaitant installer un énorme data center consommant « entre 100 000 et 200 000 mètres cubes d’eau » tous les mois en Utah, aux États-Unis (2). Malgré une farouche opposition locale qui mêlait enjeux environnementaux, enjeux de surveillance et opposition à l’État fédéral, l’agence de renseignement a fini par réussir à s’y installer l’année suivante.

Comment estimer les effets environnementaux des algorithmes et des IA ?

À Mannheim, outre-Rhin, un système de surveillance « intelligent » a été mis en place fin 2018. L’ONG Algorithm Watch rapporte que la ville sert de « terrain d’expérimentation pour ce que le ministre de l’Intérieur de la région de Bade-Wurtemberg décrit comme le premier système de vidéo surveillance intelligent d’Europe, désormais testé à Hambourg ».

Pour entraîner des « algorithmes de surveillance vidéo », il faut de grandes quantités de données. Une fois déployés, reste à les ajuster – en continu. C’est le cas des flux d’images de la ville de Mannheim, dont les algorithmes ont encore du mal à distinguer une accolade d’une agression... C’est aussi le cas des voitures « autonomes » de Tesla qui s’appuient sur des bases de données considérables et des personnes chargées d’annoter les données.

La question que posent désormais tous ces flux vidéo et leur traitement algorithmique destinés à la surveillance – dont la France veut devenir une championne – est celle de leur coût énergétique, au vu du nombre de données qu’elles doivent collecter et traiter. Mais elle pose deux problèmes de nature différente, qui ne permettent pas d’obtenir une réponse claire. D’abord, il faudrait que les informations nécessaires à leur évaluation soient librement accessibles. Paradoxalement, les entreprises qui collectent le plus de données sont souvent celles qui en partagent le moins. Ensuite, il faudrait réussir à se mettre d’accord sur les méthodes de calcul.

Prenons par exemple ChatGPT. À partir d’hypothèses raisonnables et des informations qu’il a pu collecter, le chercheur danois Kasper Groes Ludvigsen, spécialiste des données, a cherché à faire des estimations pour le coût environnemental des Intelligences Artificielles. Selon lui, les IA génératives sont surtout polluantes dans leur phase de « déploiement », c’est-à-dire au moment où elles deviennent publiquement accessibles, émettant alors 97 % de leurs émissions annuelles de CO2.

Lorsqu’il s'intéresse ensuite à ChatGPT, en mars 2023, il estime que sa consommation d'électricité pourrait être équivalente, au minimum, à celle de 8 700 danois, au maximum à celle 175 000 danois – qui consomment chacun en moyenne 1 600 kilowatts annuels, soit une fourchette de 1 à 20. Puis il déclare en juillet : « ChatGPT pourrait avoir une empreinte carbone mensuelle équivalant à 58 200 tonnes et un coût en eau de 458 millions de litres ». Un article du Guardian paru au même moment explique qu’il est néanmoins difficile de « quantifier l’impact environnemental des IA ». Puis le journal partage des estimations issues d’une autre étude :

« Entraîner GPT-3 a nécessité environ 3,5 millions de litres d’eau […], et ce si l'on assume que ce sont des datacenters plus efficients. S’il avait été entraîné dans les datacenters de Microsoft en Asie, l’utilisation d’eau grimpe à près de 5 millions de litres.

Avant l’intégration de GPT-4 dans ChatGPT, des chercheurs on estimé que le robot conversationnel d’IA générative utiliserait environ 500 mL d’eau – une bouteille d’eau standard – toutes les 20 questions avec leurs réponses correspondantes. Et ChatGPT ne deviendrait que plus assoiffé avec la sortie de GPT-4. »

Pourquoi ces calculs sont-ils si difficile ? D’abord, parce qu’il faudrait savoir quelle est la quantité de requêtes traitée par ChatGPT, et connaître le nombre de processeurs graphiques qu’emploie OpenAI. Ensuite, il faudrait pouvoir estimer le coût en énergie ou en eau de chacune de ces requêtes. Puisque OpenAI ne communique pas librement sur ces chiffres, il ne peut y avoir que des estimations, qui seraient difficiles à faire même en disposant des données brutes.

La question de l’évaluation des effets environnementaux du numérique est cependant bien plus large, car l’évaluation des coûts en électricité ou en eau, ou la conversion en production de CO2 est plus difficile encore que dans d’autres secteurs. Dans une note sur son site, le chercheur Gautier Roussilhe, spécialiste de ces enjeux, explique ainsi à propos de l’empreinte carbone du numérique  :

« Pasek et al. soutiennent [dans leur étude] que l’empreinte environnementale mondiale du secteur numérique ne sera jamais vraiment calculable pour six raisons : l’accès aux données industrielles ; les évaluations ascendantes (bottom-up) et descendantes (top-down) ; la définition du périmètre du secteur numérique ; les moyennes géographiques ; les unités fonctionnelles et l’efficacité énergétique.

C’est un résumé clair des obstacles auxquels nous faisons face aujourd’hui dont je conseille grandement la lecture. Je suis pour ma part aligné avec leur constat et c’est pour cela que j’ai arrêté de m’intéresser aux estimations globales depuis deux ans. […] »

Les questions méthodologiques et les manières de calculer ces effets sont d’une grande complexité, qui se double donc de l’impossibilité d’accéder aux données nécessaires afin de mener à bien ces calculs.

Puisqu’il est impossible de savoir même combien de données sont collectées ou à quelles fins, le coût en eau et en énergie de la surveillance numérique de masse par les États est donc encore plus difficile à estimer. Les promoteurs de la vidéosurveillance algorithmique dans la ville de Mannheim n’ont aucun intérêt à voir sortir des chiffres qui montreraient la formidable dépense que cela représente. Et ce d’autant plus que son efficacité et son utilité restent à démontrer...

Mais peut-être que l’essentiel est ailleurs : cette dépendance au numérique qui s’accroît constamment est insoutenable du point de vue des matières premières. L’avenir de la contestation de la surveillance numérique réside peut-être dans la dénonciation de son immense coût environnemental.

Des matières premières et des terres rares aux déchets électroniques

Philippe Bihouix, essayiste et auteur de L’Âge des low-tech, expliquait dans une conférence aux APIDays en 2018 :

« Vous avez tous dans la poche avec votre smartphone quelques dizaines de métaux différents, des métaux rares qui font fonctionner le système numérique : vous avez peut-être entendu parler du lithium et du cobalt dans les batteries, du tantale dans les micro-condensateurs. […]

Cette extraction minière est l’une des activités humaines les plus polluantes [...]. C’est une extraction de ressources non renouvelables, c’est un stock [...] qu’il faudrait essayer de recycler, d’économiser. Dans le système numérique, on est au contraire à le gâcher de plus en plus et de plus en plus rapidement. […] De très nombreux métaux emblématiques du numérique, dont les terres rares, sont recyclés à hauteur de 1 %. »

L’un des enjeux géopolitiques majeurs des années à venir consiste à se trouver et s’assurer des sources d’approvisionnement pour les matières premières nécessaires à la fabrication de terminaux électroniques : il s’agit surtout de minerais et de terres rares. Désormais, les ressources minières deviennent primordiales pour les États et les entreprises du secteur.

C’est tout le sens, par exemple, que prend l’annonce de la création d’une mine de lithium en Alsace. C’est aussi un des sujets de discussion lors de la récente visite d’Emmanuel Macron en Nouvelle-Calédonie, où l’on trouve des mines de nickel exploitées par de grosses multinationales comme Eramet.

Au tout début de la production des objets numériques, il y a cet extractivisme qui ne sait pas gérer des stocks finis. Et tout en bout de course, les objets « périmés » deviennent des déchets impérissables. L’étude de l’ADEME et de l’Arcep que nous citions plus haut estimait ainsi que presque 80 % de l’empreinte carbone des objets numériques est issue de leur fabrication, les 20 % restants proviennent de leur utilisation. En complément, 300 kilos de déchets par Français sont produits annuellement, uniquement en relation avec ses usages numériques. Le philosophe Alexandre Monnin explique, dans son ouvrage Politiser le renoncement, quel sera le bilan de ces activités (3) :

« C’est ici que la notion de “technologies zombies” s’avère des plus précieuses. Introduite par le physicien José Halloy, elle désigne toutes les technologies qui, notamment parce qu’elles ne s’inscrivent pas, peu ou prou dans les grands cycles biogéochimiques, sont vouées à survivre sous une forme dégradée pour des durées particulièrement longues. À l’instar des zombies, elles ne parviennent pas à mourir ni à disparaître. »

Le numérique est une formidable usine à produire des déchets polluants et impérissables : c’est l’un des « communs négatifs » – comme en produisent le nucléaire et les usines pétrochimiques –  qu’il faudra prendre en charge collectivement tôt ou tard.

À la remorque du temps perdu

La question environnementale a souvent été remisée au placard par les entreprises du numérique, ou bien elle a servi de prétexte pour vendre des logiciels et des terminaux électroniques. Tournant autour du lieu commun selon lequel il représenterait l’avenir, accompagnant la « croissance verte » et les « industries décarbonées », tout un discours de négation des coûts matériels du numérique continue d’exister aujourd’hui.

Le numérique occupe une place centrale dans les systèmes de production et de surveillance contemporains. La numérisation des services et des outils, si elle est présentée aujourd’hui comme un atout, représente en réalité une faiblesse à moyen et long terme. Les systèmes qui se mettent à dépendre aujourd’hui d’outils et de terminaux numériques auront demain à affronter des questions de pénurie – en cela, ils ne sont pas différents des autres. Mais il sera peut-être plus difficile de justifier de leur allouer des quantités considérables d’énergie, d’eau et de minéraux.

Pour le reste, il s’agit d’un secteur traversé des mêmes enjeux environnementaux que tous les autres : extractivisme, pollution, surexploitation des ressources sans lendemain. Les journalistes Fabien Benoît et Nicolas Celnik concluent dans leur ouvrage Technoluttes (4) :

« Non, les technologies ne seront pas la réponse à la crise environnementale. On ne résout pas des problèmes engendrés par l’industrialisation du monde par un surcroît de technologie qui, jusqu’à aujourd’hui, a toujours posé d’autres problèmes, a conduit à une consommation finale d’énergie accrue et a généré des pollutions supplémentaires.

À l’heure de la crise écologique et de l’épuisement des promesses modernisatrices, le “sens de l’histoire”, pour répondre à ceux qui se gargarisent de cette expression, est aujourd’hui d’être résolument technocritique. »

En somme, la question environnementale nécessite une perspective politique. C’est d’ailleurs le sens d’une autre conclusion, celle du sociologue Razmig Keucheyan. Il écrit dans les dernières pages de La nature est un champ de bataille (5) :

« En régime capitaliste, le rapport entre l’accumulation du capital et la nature est toujours amorti ou articulé par l’État. Pourquoi ? La logique du capital est aveugle et sans limite. Livrée à elle-même, elle tire profit des ressources – naturelles ou autres – à sa disposition jusqu’à les épuiser. Elle est de surcroît incapable de gérer les effets néfastes du processus productif : pollutions, épuisement des stocks, atteintes à la santé, crises économiques, conflits… Pour tout cela, il y a l’État. […]

Alors quelle alternative au catastrophisme ? La réponse aujourd’hui est la même qu’à l’époque de Walter Benjamin : politiser la crise. Autrement dit, défaire le triptyque que forment le capitalisme, la nature et l’État, et empêcher que ce dernier œuvre en faveur des intérêts du capital. »

Photo d'ouverture : PeachShutterStock - @Shutterstock

Cet article est gratuit grâce aux contributions des abonnés !
Pour nous soutenir et avoir accès à tous les contenus, c'est par ici :

S’abonner
Accès illimité au site à partir de 1€
Des analyses graphiques pour prendre du recul sur les grands sujets de l’actualité
Des chroniques et des interviews de personnalités publiques trop peu entendues
Des synthèses d’ouvrages dans notre bibliothèque d’autodéfense intellectuelle
Et bien plus encore....

Déjà abonné ? Connectez-vous