Vers une IA sobre : conditions d'une alliance improbable
Vers une IA sobre : conditions d'une alliance improbable
Ou quand le calcul pourrait enfin servir le vivant
Cycle « Technologie et responsabilité » – Prométhée Technologies & Ingénierie
[Chapô de série commun]
À l'heure où l'intelligence artificielle s'impose comme la technologie la plus disruptive du XXIe siècle, et où l'urgence écologique redéfinit les conditions mêmes de l'activité industrielle, une question décisive émerge : ces deux dynamiques peuvent-elles converger, ou sont-elles structurellement incompatibles ?
Ce cycle de quatre articles propose une exploration rigoureuse, à la fois scientifique, philosophique et politique, de cette tension fondatrice. Son ambition : outiller décideurs, ingénieurs et citoyens pour comprendre ce qui se joue réellement dans la mutation technologique contemporaine, au-delà des mythes et des slogans.
La série se déploie en quatre temps :
- L'intelligence artificielle : démystifier la machine à calculer — Comprendre ce qu'est vraiment l'IA, ses principes techniques, ses promesses et ses angles morts.
- L'éco-ingénierie : l'intelligence du juste nécessaire — Explorer les fondements d'une ingénierie compatible avec les limites planétaires, sobre et systémique.
- IA et éco-ingénierie : les noces impossibles ? — Cartographier les cinq tensions structurelles qui opposent calcul et sobriété.
- Vers une IA sobre : conditions d'une alliance improbable — Identifier les convergences possibles et les conditions politiques nécessaires à leur généralisation.
Ni technophilie béate, ni ascèse punitive : cette série défend une politique des moyens orientée vers l'efficience systémique, la mesure et la traçabilité. Elle interroge les choix civilisationnels que nous devons faire, collectivement, pour que la technique serve enfin le vivant.
Chapô
Cet article clôt le cycle « Technologie et responsabilité » de Prométhée Technologies & Ingénierie.
L'article précédent a cartographié les tensions structurelles qui opposent intelligence artificielle et éco-ingénierie : logiques de maximisation contre optimisation, opacité contre traçabilité, universalité contre contextualisation, vitesse contre lenteur, pouvoir privé contre régulation publique. Ces contradictions semblent insurmontables.
Pourtant, des convergences fragiles émergent — rares, marginales, mais réelles. Elles prouvent qu'une autre voie est techniquement possible : celle d'une IA mise au service de la sobriété plutôt qu'au service de la croissance illimitée.
Mais cette possibilité technique ne deviendra réalité que si des conditions politiques, économiques et culturelles radicales sont réunies. Cet article les explore sans naïveté : ni promesse facile, ni défaitisme résigné. Juste une cartographie lucide de ce qu'il faudrait vraiment pour que le calcul serve enfin le vivant.
1. Introduction : des signes d'espoir fragiles
L'article précédent a montré pourquoi l'IA et l'éco-ingénierie semblent condamnées à l'incompatibilité : leurs logiques fondamentales s'opposent terme à terme. Maximisation contre optimisation. Opacité contre traçabilité. Universalité contre contextualisation. Vitesse contre lenteur. Pouvoir privé contre régulation publique. Faut-il pour autant conclure à l'impossibilité absolue de leur convergence ?
Non. Car quelques expériences, encore trop rares mais significatives, démontrent qu'une autre trajectoire est techniquement envisageable. Ces convergences ne sont pas advenues spontanément — elles ont toutes été le fruit de choix délibérés, souvent contre-intuitifs dans une logique de marché, parfois même contre-productifs à court terme pour la compétitivité. Elles ne résolvent pas les tensions structurelles identifiées, mais elles montrent que sous certaines conditions — politiques, économiques, institutionnelles — l'IA peut basculer du côté de la sobriété.
Ces signes d'espoir méritent d'être explorés, non pour se rassurer à bon compte avec quelques success stories qui masqueraient la tendance générale, mais pour identifier précisément ce qui les a rendus possibles. Car la question n'est plus « est-ce techniquement faisable ? » — la réponse est oui, les exemples le prouvent. La question devient : « quelles conditions politiques, économiques, culturelles faut-il réunir pour que l'exception devienne norme ? »
C'est cette question que cet article se propose d'explorer, en trois temps : d'abord les convergences possibles (section 2), puis les conditions nécessaires à leur généralisation (section 3), enfin les limites structurelles qui subsisteraient même si ces conditions étaient réunies (section 4).
2. Les convergences possibles : quand l'IA sert la sobriété
Malgré toutes les tensions documentées dans l'article précédent, l'intelligence artificielle et l'éco-ingénierie ne sont pas absolument irréconciliables. Plusieurs cas d'usage prouvent qu'une IA sobre, contextualisée, utile est possible — à condition que les incitations économiques, les choix techniques et les finalités politiques soient alignés.
L'optimisation énergétique des infrastructures : l'exemple DeepMind
Dans les centres de données de Google, une IA développée par DeepMind a permis dès 2016 de réduire de 40 % la consommation énergétique liée au refroidissement. Le principe est simple mais puissant : le système apprend en temps réel à ajuster les flux d'air, les températures d'eau, les régimes de pompes et de ventilateurs en fonction de centaines de paramètres environnementaux et opérationnels — charges de calcul instantanées, météo extérieure, état des équipements, prévisions de demande à court terme, historique des performances.
Cette optimisation dynamique, impossible à réaliser manuellement tant les variables sont nombreuses et les interactions complexes, produit des résultats spectaculaires : des dizaines de millions de kilowattheures économisés chaque année, sans dégrader les performances des serveurs, sans augmenter les risques de panne, sans investissement matériel supplémentaire majeur. Ce n'est pas de l'écologie de façade ni une opération de communication ; c'est de l'optimisation intelligente qui réconcilie efficacité technique et frugalité énergétique.
Mais pourquoi Google a-t-il investi dans cette IA sobre ? Non par pure vertu écologique, mais parce que l'électricité représente 30 à 40% des coûts opérationnels d'un data center. Réduire la consommation, c'est directement augmenter les marges bénéficiaires. L'intérêt économique immédiat a aligné sobriété et profit. Sans cette convergence fortuite, le projet n'aurait probablement jamais vu le jour, ou serait resté un prototype de recherche sans déploiement industriel.
Cette leçon est cruciale pour la suite : la sobriété advient massivement quand elle devient rentable, rarement par pure vertu écologique. Ce n'est ni cynique ni déprimant ; c'est réaliste. Et cela indique où placer les leviers d'action : modifier les incitations économiques pour que vertu écologique et intérêt financier convergent systématiquement, plutôt que de compter sur la bonne volonté des acteurs.
La maintenance prévisionnelle : prolonger plutôt que remplacer
Appliquée à la maintenance industrielle, l'IA prévisionnelle prolonge radicalement la durée de vie des équipements en détectant les anomalies avant qu'elles ne deviennent pannes catastrophiques. Un roulement qui vibre anormalement, une température qui dérive lentement, une consommation électrique qui augmente imperceptiblement, un bruit de fonctionnement qui change : autant de signaux faibles invisibles à l'oreille humaine ou noyés dans le bruit de fond, mais que l'IA capte et interprète en croisant des milliers de mesures.
On remplace la pièce défectueuse au bon moment — ni trop tôt (gaspillage d'une pièce encore fonctionnelle, coût inutile), ni trop tard (casse en cascade qui endommage d'autres composants, arrêt de production coûteux, risque pour la sécurité). Rolls-Royce, avec son modèle Power-by-the-Hour, a économiquement intérêt à ce que ses moteurs d'avion durent le plus longtemps possible : l'entreprise ne vend plus le moteur mais facture des heures de vol ; chaque heure supplémentaire de fonctionnement est du profit additionnel, chaque panne coûte cher. L'obsolescence programmée devient économiquement absurde. La durabilité maximale devient le modèle économique lui-même.
L'économie de matière précède ici l'économie de données. L'IA ne maximise pas la production ; elle minimise le gaspillage. Elle ne pousse pas à consommer davantage ; elle fait durer ce qui existe. Elle devient outil de résilience plutôt que d'obsolescence, instrument de sobriété plutôt que de croissance aveugle.
Ce basculement de l'économie de la propriété (vendre un bien) vers l'économie de la fonctionnalité (vendre un usage) est potentiellement révolutionnaire. Michelin vend des kilomètres parcourus plutôt que des pneus ; Xerox vend des pages imprimées plutôt que des photocopieurs ; Philips vend de la lumière plutôt que des ampoules. Dans chaque cas, l'intérêt économique du fournisseur rejoint la durabilité : plus le produit dure, plus l'entreprise gagne.
L'IA prévisionnelle devient l'outil technique qui rend ce modèle viable industriellement. Sans elle, impossible de monitorer en temps réel des milliers d'équipements dispersés géographiquement, impossible de prédire les pannes avec assez de précision pour planifier les interventions, impossible d'optimiser les stocks de pièces détachées pour minimiser les coûts tout en garantissant la disponibilité.
La conception générative : frugalité structurelle
Les algorithmes de conception générative explorent des milliers — parfois des millions — de configurations géométriques impossibles à imaginer pour un ingénieur humain contraint par ses habitudes mentales et ses conventions professionnelles. Ils produisent des pièces mécaniques allégées de 30 à 50 % tout en conservant, voire en améliorant, leur résistance mécanique, leur rigidité, leur durabilité.
Les constructeurs aéronautiques utilisent désormais massivement ces techniques pour réduire le poids des avions et donc leur consommation de carburant sur toute leur durée de vie — plusieurs décennies d'exploitation intensive. Le support de siège redessiné par IA ressemble à une structure organique, presque végétale, avec des vides là où la matière n'est pas sollicitée et des renforts là où les contraintes mécaniques sont maximales. Il est 45% plus léger que le design conventionnel rectangulaire, tout en étant plus résistant aux chocs et vibrations.
Sur un avion long-courrier, économiser 300 kg de structure métallique représente plusieurs dizaines de milliers de litres de kérosène économisés chaque année, soit plusieurs centaines de tonnes de CO₂ évitées sur la durée de vie de l'appareil (20 à 30 ans). Le calcul économique est imparable : moins de poids = moins de carburant = coûts opérationnels réduits. Encore une fois, l'intérêt financier et l'intérêt écologique convergent.
C'est une intelligence du retrait, de l'épure, de la juste suffisance. L'IA ne maximise pas la quantité de matière ; elle minimise la matière nécessaire pour remplir une fonction donnée. Elle ne pousse pas au « toujours plus » mais au « juste assez, élégamment conçu ». Elle incarne une forme de sobriété structurelle, inscrite dès la conception dans la géométrie même de l'objet.
Cette approche pourrait s'étendre à d'autres secteurs : bâtiment (structures porteuses optimisées), automobile (châssis allégés), mobilier (réduction de matière sans perte de résistance), emballages (protection maximale avec matériau minimal). À chaque fois, moins de ressources extraites, moins d'énergie pour la fabrication, moins de transport, moins de déchets. Une IA au service de l'élégance fonctionnelle.
Les symbioses industrielles 2.0 : l'IA comme révélateur de complémentarités
Plus discrètes mais tout aussi prometteuses, certaines applications territorialisées montrent que l'IA peut devenir un outil de symbiose industrielle. En cartographiant finement les flux de chaleur, d'eau, de matières, de déchets, d'énergie d'une zone d'activité — avec une granularité temporelle (heure par heure) et spatiale (bâtiment par bâtiment) impossible à atteindre manuellement —, des algorithmes peuvent identifier des complémentarités invisibles à l'œil nu.
Tel surplus thermique d'une usine de métallurgie (chaleur fatale rejetée à 80-120°C) pourrait, moyennant un réseau de canalisations isolées, alimenter le réseau de chauffage urbain du quartier voisin, évitant ainsi de brûler du gaz naturel dans des milliers de chaudières individuelles. Telle eau de refroidissement d'une centrale (tiède mais propre, 25-35°C) pourrait irriguer une serre maraîchère où cette température légèrement supérieure à l'ambiante allongerait la saison de culture. Tels déchets organiques d'une agro-industrie (résidus de transformation alimentaire) pourraient nourrir une unité de méthanisation produisant du biogaz injecté dans le réseau local, remplaçant du gaz fossile importé.
Ces symbioses 2.0, numériquement assistées mais ancrées dans le réel géographique, incarnent ce que pourrait être une IA contextuelle, locale, utile plutôt qu'universelle et envahissante. Elles ne remplacent pas la coopération humaine — qui reste absolument indispensable pour bâtir la confiance entre acteurs économiques parfois concurrents, pour négocier les accords juridiques et financiers, pour gérer les imprévus opérationnels — mais elles la facilitent considérablement.
L'IA rend visible l'invisible : elle quantifie précisément les flux disponibles et les besoins potentiels, elle simule différents scénarios d'échange pour évaluer leur viabilité économique avant d'investir, elle optimise dynamiquement les circuits en fonction des variations saisonnières et des évolutions industrielles. Sans cette capacité de calcul et de modélisation, beaucoup de synergies resteraient insoupçonnées ou jugées trop complexes à mettre en œuvre.
L'intégration des énergies renouvelables : l'IA comme gestionnaire de flexibilité
Dans le secteur énergétique, l'IA joue déjà un rôle crucial pour intégrer les énergies renouvelables intermittentes dans un réseau électrique qui, historiquement, a été conçu pour des centrales pilotables (nucléaire, charbon, gaz, hydraulique) produisant de manière stable et prévisible.
Le défi est colossal : comment équilibrer en permanence production et consommation — équilibre obligatoire à chaque seconde pour éviter l'effondrement du réseau — quand une part croissante de la production dépend du vent (qui souffle ou non) et du soleil (qui brille ou non), avec des variations imprévisibles à quelques heures près ?
L'IA apporte plusieurs réponses complémentaires :
Prédiction fine de la production : En croisant données météorologiques (satellite, stations au sol, modèles numériques), historiques de production, état des équipements, les algorithmes peuvent prévoir avec plusieurs jours d'avance et une précision croissante la production éolienne et solaire. Cette anticipation permet aux gestionnaires de réseau d'ajuster les autres sources (hydraulique, gaz) et de planifier les imports/exports transfrontaliers.
Effacements ciblés : Ajuster dynamiquement la demande en décalant dans le temps le fonctionnement de gros équipements industriels non urgents (fours, compresseurs, pompes), en modulant la recharge des véhicules électriques (charger davantage quand il y a surplus d'énergie renouvelable, ralentir quand le réseau est tendu), en pilotant finement les systèmes de chauffage/climatisation (préchauffer légèrement un bâtiment avant un pic tarifaire, relâcher légèrement la température pendant le pic sans dégrader le confort).
Équilibrage dynamique : Coordonner en temps réel des milliers de sources de production décentralisées (toitures solaires, éoliennes locales, petites centrales hydrauliques) et des milliers de points de consommation flexibles pour maintenir l'équilibre instantané du réseau. Un travail de fourmi, impossible à réaliser manuellement, que l'IA effectue en continu.
Sans elle, la transition vers un mix électrique 100 % renouvelable serait techniquement bien plus complexe, peut-être même impossible à grande échelle sans surdimensionner massivement les capacités de stockage (batteries, stations de pompage-turbinage) — solution coûteuse et elle-même consommatrice de ressources.
Ici, l'IA ne consomme pas pour consommer, ne maximise pas pour maximiser ; elle optimise un système existant pour réduire son empreinte globale, pour accélérer la décarbonation, pour rendre viable une transition écologique que beaucoup jugeaient techniquement infaisable il y a encore vingt ans.
La transparence volontaire : BLOOM et Hugging Face comme modèles alternatifs
Enfin, quelques acteurs font le choix courageux — et encore extrêmement rare dans l'industrie — de la transparence totale. Hugging Face, plateforme collaborative de modèles d'IA devenue incontournable pour la communauté scientifique mondiale, publie depuis 2022 des fiches détaillées « Environmental Impact » pour des centaines de modèles hébergés. Ces fiches documentent : consommation énergétique d'entraînement (en kWh), mix électrique utilisé (fossile, nucléaire, renouvelable), émissions de CO₂ équivalent (en tonnes), durée d'entraînement, localisation géographique des data centers sollicités, matériel utilisé (type de GPU, quantité).
Cette transparence radicale permet aux chercheurs et développeurs de faire des choix éclairés, de privilégier les modèles sobres à performance équivalente, de quantifier rigoureusement l'impact de leurs propres travaux. Elle crée une pression sociale positive : personne ne veut être le modèle le plus polluant du classement, tout le monde cherche à améliorer son score environnemental. La sobriété devient un critère de réputation scientifique, pas seulement un supplément d'âme moral.
BLOOM, modèle francophone open source de 176 milliards de paramètres entraîné en 2022, démontre qu'une IA performante et sobre est techniquement réalisable quand les choix de conception privilégient systématiquement l'impact sur la puissance brute. Trois principes ont guidé sa conception :
Mix énergétique bas-carbone : entraînement sur le supercalculateur Jean Zay, alimenté majoritairement par l'électricité nucléaire française (≈70 g CO₂/kWh contre 400-900 pour le charbon). Résultat : environ 25 tonnes de CO₂e pour l'entraînement complet, vingt fois moins que GPT-3 à taille comparable.
Infrastructure optimisée : mutualisation des ressources de calcul sur un supercalculateur public déjà existant plutôt que construction de data centers dédiés, refroidissement efficace, taux d'utilisation maximisé pour amortir l'empreinte de l'infrastructure sur un maximum de projets.
Gouvernance ouverte : financement public (GENCI, CNRS, IDRIS), code accessible, méthodologie documentée, empreinte publiée intégralement. Aucune opacité commerciale, aucun secret industriel, aucune dissimulation. La science comme bien commun.
Transparence totale : publication de l'analyse du cycle de vie complète, vérifiable, reproductible, dans une revue scientifique à comité de lecture (Journal of Machine Learning Research).
Mais soyons lucides : ces initiatives (Hugging Face, BLOOM, quelques laboratoires universitaires engagés) restent minoritaires, presque marginales, dans un écosystème numérique global fondé sur la course à la puissance, la vitesse de mise sur le marché, l'opacité stratégique. Elles prouvent que la convergence est possible ; elles ne suffisent pas — loin de là — à l'imposer comme norme industrielle.
Elles indiquent néanmoins une direction : transparence radicale + gouvernance publique + infrastructure bas-carbone + modèles spécialisés plutôt qu'universels = IA compatible avec les limites planétaires. La recette existe. Reste à la généraliser. Et c'est là que les choses se compliquent.
3. Les conditions politiques nécessaires : ce qu'il faudrait vraiment
Si l'on voulait sincèrement réconcilier IA et éco-ingénierie — au-delà des déclarations d'intention, des rapports institutionnels non contraignants et du greenwashing corporate —, quelles conditions devraient être réunies ? Essayons de les expliciter sans naïveté, sans enjolivement, avec la lucidité froide de qui sait que rien n'adviendra spontanément.
Sobriété calculatoire comme critère de conception : changer les benchmarks
Il faut inverser radicalement la logique actuelle : cesser de valoriser la taille brute des modèles (« nous avons battu le record, notre modèle fait 10 000 milliards de paramètres ! ») pour récompenser systématiquement leur rapport efficacité / impact environnemental et social.
Plutôt qu'un GPT-5 de 10 000 milliards de paramètres prétendant tout faire — traduction, génération d'images, diagnostic médical, conseil juridique, composition musicale —, privilégier des dizaines de modèles de 1 à 10 milliards de paramètres, chacun expert dans son domaine spécifique. La performance globale du système peut être comparable ou supérieure (un modèle spécialisé performe mieux qu'un généraliste dans son domaine), mais l'impact énergétique est divisé par dix, cent, peut-être davantage selon les architectures.
Cela suppose de renoncer collectivement à la fascination pour le « plus gros modèle du monde », au prestige scientifique et médiatique associé aux records de taille. Cela suppose de valoriser l'élégance fonctionnelle — faire aussi bien avec beaucoup moins — plutôt que la puissance brute. C'est un changement culturel profond dans la communauté scientifique et industrielle.
Réorienter les classements académiques (benchmarks) : ne plus récompenser uniquement la performance brute (précision, score sur tel ou tel jeu de données standardisé), mais intégrer systématiquement l'empreinte énergétique dans l'évaluation. Un modèle qui obtient 92% de précision en consommant 1 000 MWh devrait être moins bien classé — et donc moins cité, moins financé, moins valorisé — qu'un modèle qui obtient 90% en consommant 50 MWh. L'efficience doit devenir un critère de réussite académique et industriel au même titre que la performance.
Créer de nouveaux indicateurs : performance par watt, performance par tonne de CO₂, performance par litre d'eau consommé. Publier systématiquement ces ratios dans les articles scientifiques, les conférences, les communiqués de presse. Faire de la sobriété un argument de compétition scientifique positive plutôt qu'une contrainte subie.
Transparence énergétique obligatoire : mesurer pour responsabiliser
Publication systématique, selon une méthodologie standardisée ISO (à créer) et vérifiable par des tiers indépendants accrédités, de l'empreinte complète de chaque modèle au-delà d'un certain seuil (par exemple 10 milliards de paramètres, ou consommation estimée supérieure à 100 MWh) :
- Consommation d'entraînement : en kWh et en tonnes CO₂e selon le mix électrique réel utilisé (pas celui de l'engagement théorique de l'entreprise, mais celui mesuré sur les serveurs effectivement sollicités)
- Consommation moyenne par inférence : avec fourchette selon le type de requête (simple/complexe), incluant coût marginal et quote-part d'infrastructure
- Consommation d'eau : pour le refroidissement des data centers, indicateur critique dans les régions en stress hydrique
- Origine géographique et mix énergétique : où exactement l'entraînement a eu lieu, quelle électricité (charbon/gaz/nucléaire/renouvelable) a été consommée
- Durée de vie estimée du modèle : combien de temps avant obsolescence technique ou commerciale, pour calculer l'amortissement environnemental
Ces données deviendraient aussi accessibles, normalisées et obligatoires que les fiches techniques de n'importe quel produit industriel (étiquette énergie sur l'électroménager, consommation de carburant pour les véhicules, déclaration nutritionnelle sur les aliments). Elles permettraient aux entreprises, aux chercheurs, aux administrations publiques, aux citoyens de faire des choix éclairés. Elles créeraient une pression concurrentielle positive : personne ne voudrait être le modèle le plus polluant du marché, surtout si cette information est publique et facilement accessible.
Sanction en cas de non-publication : interdiction de commercialisation sur le marché européen (sur le modèle du RGPD qui impose des obligations de transparence sur les données personnelles). Sanction en cas de données mensongères ou incomplètes : amende proportionnelle au chiffre d'affaires (4% du CA mondial comme pour le RGPD), avec possibilité de suspension temporaire de commercialisation en cas de récidive.
Sans transparence obligatoire, vérifiable et sanctionnée, la sobriété restera un argument marketing que les entreprises afficheront quand ça les arrange et dissimuleront quand ça les dessert. Seule la contrainte légale peut garantir une transparence réelle, complète, comparable entre acteurs.
Infrastructure bas-carbone comme prérequis : localiser intelligemment
Implantation prioritaire des nouveaux data centers dans des zones à électricité structurellement décarbonée :
- Nucléaire : France, Suède, Ontario (Canada)
- Hydraulique : Norvège, Québec, certaines régions alpines
- Géothermie : Islande, Nouvelle-Zélande, certaines zones volcaniques
- Ou à proximité immédiate de sources renouvelables dédiées : fermes solaires ou éoliennes contractualisées en direct (Power Purchase Agreement), sans passer par le réseau général, garantissant une alimentation bas-carbone effective et non simplement comptable via des certificats verts douteux.
Refroidissement passif privilégié chaque fois que le climat et la géographie le permettent : ventilation naturelle, free-cooling en climat froid nordique (utiliser l'air extérieur froid plutôt que des groupes frigorifiques), immersion des serveurs dans des liquides diélectriques (qui absorbent mieux la chaleur que l'air) plutôt que climatisation énergivore par air forcé. Google, Microsoft et Amazon construisent déjà certains data centers en Scandinavie ou en Islande pour profiter du froid naturel et de l'électricité quasi décarbonée. Il faut généraliser cette logique, l'imposer réglementairement.
Interdire ou pénaliser lourdement (via taxe carbone dissuasive) l'implantation de nouveaux data centers dans des zones à électricité fortement carbonée (charbon, gaz) sauf cas de souveraineté nationale absolument impérative et temporaire (défense, sécurité, services régaliens critiques). Un data center alimenté au charbon polonais ou au gaz texan ne devrait tout simplement plus être autorisé après une date butoir (par exemple 2030), avec interdiction de dérogation pour les usages commerciaux privés.
Mutualisation des infrastructures : privilégier les data centers mutualisés publics ou coopératifs (plusieurs clients partageant la même infrastructure) plutôt que la multiplication de petits data centers privés inefficients. Économies d'échelle, optimisation du taux de charge, refroidissement plus efficace, infrastructures de secours partagées.
Gouvernance démocratique des infrastructures critiques : reprendre le contrôle
Les data centers sont devenus des infrastructures essentielles au XXIe siècle, au même titre que l'eau potable, l'électricité, les routes, les hôpitaux, les écoles, les réseaux de télécommunication. Ils supportent désormais des fonctions vitales : santé (dossiers médicaux, imagerie, télémédecine), éducation (ressources pédagogiques, enseignement à distance), administration publique (impôts, sécurité sociale, état civil), économie (paiements, banques, bourses, supply chains), recherche scientifique.
Faut-il les laisser entièrement aux mains d'acteurs privés dont l'objectif statutaire est la maximisation du profit à court terme pour leurs actionnaires, avec les conséquences que l'on connaît (course à la puissance, opacité, externalisation des coûts environnementaux) ?
Un data center privé optimise pour la rentabilité financière immédiate : minimiser les coûts opérationnels (donc choisir l'électricité la moins chère, souvent la plus carbonée), maximiser le taux d'utilisation (donc accepter tous les usages, même futiles), renouveler rapidement le matériel (pour rester compétitif technologiquement, donc générer de l'obsolescence).
Un data center public ou coopératif pourrait optimiser pour d'autres critères : sobriété, résilience, intérêt général à long terme, souveraineté numérique. Il pourrait privilégier les énergies bas-carbone même si elles coûtent légèrement plus cher à court terme (mais sont plus stables et prévisibles à long terme). Il pourrait refuser ou rationner les usages jugés collectivement futiles ou disproportionnés (deepfakes de divertissement massif, publicité algorithmique micro-ciblée invasive, surveillance de masse non justifiée par un intérêt public supérieur) au profit des usages essentiels (santé, éducation, recherche scientifique, services publics, transition écologique). Il pourrait imposer la transparence totale de son fonctionnement, publier ses données de consommation en open data, rendre des comptes démocratiquement.
Cette question n'est pas qu'idéologique ; elle est pragmatique. Plusieurs modèles de gouvernance sont envisageables, du plus interventionniste au plus libéral, chacun avec ses avantages et ses risques :
Data centers publics : propriété de l'État, gestion par un opérateur public de type service public (sur le modèle historique d'EDF, SNCF, La Poste). Avantages : contrôle démocratique total, priorité à l'intérêt général, transparence obligatoire, pas de pression du profit trimestriel. Risques : lourdeur bureaucratique potentielle, manque de réactivité face aux évolutions technologiques rapides, risque de sous-investissement chronique si les budgets publics sont contraints.
Coopératives de calcul : propriété collective des utilisateurs (entreprises, universités, collectivités, associations), gouvernance démocratique (un membre = une voix, indépendamment de la taille), réinvestissement des excédents dans l'amélioration de l'infrastructure plutôt que distribution aux actionnaires. Modèle déjà éprouvé dans d'autres secteurs (banques coopératives, coopératives agricoles, habitat coopératif). Avantages : responsabilisation des utilisateurs, gouvernance transparente, ancrage territorial. Risques : difficulté à lever des capitaux importants pour les investissements initiaux, complexité de coordination entre membres aux intérêts parfois divergents.
Partenariats public-privé avec cahier des charges environnemental et social contraignant, contrôle public fort, sanctions automatiques en cas de non-respect. L'État fixe les objectifs (empreinte carbone maximale, transparence totale, usages prioritaires), finance partiellement l'infrastructure, mais délègue la gestion opérationnelle à un acteur privé sélectionné sur appel d'offres. Avantages : réactivité de la gestion privée + contrôle public des finalités. Risques : capture réglementaire (le privé influence les normes à son avantage), asymétrie d'information (l'opérateur en sait toujours plus que le contrôleur public), contrats léonins difficiles à renégocier.
Régulation forte des acteurs privés : laisser le secteur privé gérer les infrastructures, mais imposer des obligations strictes et contrôlées : plafonds d'émission sectoriels (un data center ne peut émettre plus de X tonnes de CO₂/an), audits indépendants obligatoires et réguliers (annuels ou semestriels), publication de toutes les données environnementales en open data, sanctions dissuasives automatiques en cas de dépassement (amendes proportionnelles au CA, fermeture temporaire possible en cas de récidive). Avantages : préserve l'innovation et la concurrence, évite les lourdeurs de la gestion publique. Risques : nécessite une autorité de régulation puissante et indépendante, lobby intense des acteurs pour affaiblir les normes, risque de délocalisation vers des juridictions moins exigeantes.
L'essentiel n'est pas de choisir un modèle unique et dogmatique, mais de garantir que l'intérêt général prime sur le profit à court terme. Que la sobriété ne soit pas optionnelle mais obligatoire. Que les infrastructures numériques critiques ne soient pas entièrement soumises à la logique de valorisation boursière et de retour sur investissement trimestriel. Qu'on puisse collectivement, démocratiquement, refuser certains usages ou les rationner selon des critères transparents et débattus.
Formation interdisciplinaire massive : créer des ingénieurs bilingues
Former des milliers d'ingénieurs, de chercheurs, de décideurs capables de penser simultanément en termes de calcul et d'écologie — des profils hybrides maîtrisant à la fois l'apprentissage machine et l'analyse du cycle de vie, l'optimisation algorithmique et la pensée systémique, la performance technique et l'impact environnemental et social.
Aujourd'hui, ces deux mondes se parlent peu, se comprennent mal, utilisent des vocabulaires différents, poursuivent des objectifs parfois contradictoires. Les data scientists ignorent souvent les principes de l'ACV, les ordres de grandeur énergétiques, les limites planétaires, les enjeux de circularité matérielle. Les éco-concepteurs comprennent mal les contraintes du machine learning, les architectures de réseaux neuronaux, les compromis entre performance et consommation, les possibilités réelles d'optimisation algorithmique.
Il faut créer des passerelles : formations continues pour les professionnels en activité, double diplômes ingénieur/environnement, laboratoires de recherche interdisciplinaires où informaticiens et écologues travaillent ensemble sur des projets communs, conférences scientifiques mixtes, revues académiques transversales.
Intégrer l'éco-ingénierie dans tous les cursus informatiques dès la première année, pas comme module optionnel de sensibilisation en fin de parcours que seuls les étudiants déjà convaincus choisiront. Former systématiquement à calculer l'empreinte carbone d'un algorithme (combien de watts consomme ce modèle ? sur quel mix électrique tourne-t-il ? combien de tonnes de CO₂ sur sa durée de vie ?) comme on forme à calculer sa complexité temporelle (combien d'opérations ? quelle évolution selon la taille des données ? quel temps d'exécution ?).
Former aussi les éco-concepteurs aux possibilités et limites réelles de l'IA : ce qu'elle peut apporter (optimisation fine, détection d'anomalies, prédiction), ce qu'elle ne peut pas faire (comprendre causalement, raisonner éthiquement, décider en contexte incertain), ce qu'elle coûte (énergie, matériaux, eau, complexité).
Former des ingénieurs bilingues, capables de dialoguer entre ces univers, de traduire les enjeux, de proposer des solutions qui ne sacrifient ni la performance ni la soutenabilité. C'est un chantier de long terme (dix à vingt ans pour transformer les cursus, former des enseignants, produire des manuels, diffuser les pratiques), mais absolument crucial. Sans ces compétences hybrides, la convergence restera lettre morte.
Réorientation des incitations économiques : aligner vertu et intérêt
Tant que les investisseurs valoriseront la taille des modèles et la rapidité de développement plutôt que la sobriété et la pertinence fonctionnelle, tant que les classements académiques récompenseront les records de performance brute sans pénaliser l'empreinte énergétique, tant que les marchés publics choisiront systématiquement le moins-disant financier immédiat plutôt que le mieux-disant environnemental sur le cycle de vie complet, la convergence restera marginale, cosmétique, anecdotique.
Il faut inverser massivement ces incitations par la régulation politique, la fiscalité écologique, les appels d'offres publics stratégiques :
Taxe carbone progressive sur les data centers : plus un modèle est gros (en paramètres, en consommation énergétique, en empreinte carbone totale), plus il paie. Pas une petite taxe symbolique facilement absorbée dans les marges, mais une taxe substantielle qui modifie réellement les arbitrages économiques. Par exemple : 100 €/tonne de CO₂ la première année, puis augmentation progressive jusqu'à 300-500 €/tonne à horizon 2035-2040, alignée sur les trajectoires de neutralité carbone. Avec mécanisme d'ajustement carbone aux frontières pour éviter les délocalisations vers des paradis réglementaires.
Bonus-malus sur la sobriété énergétique : subventions publiques (crédit d'impôt recherche majoré, aides à l'investissement, prêts bonifiés) pour les modèles sobres qui respectent des critères stricts d'efficience (performance/impact). Pénalités financières ou restrictions d'usage pour les mastodontes énergétivores qui ne peuvent justifier leur taille par un bénéfice social proportionnel.
Marchés publics éco-conditionnés de manière stricte : l'État, les collectivités, les hôpitaux, les universités n'achètent ou ne louent que des services IA dont l'ACV est publiée, vérifiée par un tiers indépendant, et en dessous d'un seuil carbone fixé réglementairement et progressivement abaissé. Clauses de réversibilité (possibilité de changer de fournisseur sans coût prohibitif), d'interopérabilité (pas de lock-in propriétaire), de transparence (accès au code source pour audit). Privilégier systématiquement les solutions open source, les infrastructures publiques ou coopératives, les fournisseurs engagés dans des démarches de transparence totale.
Critères de financement de la recherche publique incluant systématiquement l'impact environnemental : une thèse qui produit un modèle sobre, efficient, documenté, reproductible vaut mieux — et doit être mieux notée, mieux financée, mieux valorisée dans les carrières académiques — qu'une thèse qui bat un record de performance en consommant mille fois plus d'énergie sans justification fonctionnelle claire. Réorienter les agences de financement (ANR, ERC, NIH, NSF, etc.) vers la sobriété calculatoire comme critère d'excellence scientifique.
Modification des critères ESG (Environnement, Social, Gouvernance) utilisés par les investisseurs : intégrer obligatoirement l'empreinte numérique dans l'évaluation environnementale des entreprises. Aujourd'hui, une entreprise peut avoir un excellent score ESG tout en opérant des data centers au charbon, en renouvelant son matériel tous les deux ans, en développant des modèles d'IA pharaoniques sans justification. Il faut que ces pratiques soient pénalisées dans les notations, donc dans l'accès au capital, donc dans les valorisations boursières.
Sans réorientation profonde et durable des incitations, la sobriété restera contre-productive économiquement, donc marginale, donc insuffisante pour inverser les tendances. Les acteurs vertueux seront désavantagés compétitivement face aux acteurs qui externalisent leurs coûts environnementaux. C'est toute la logique économique qu'il faut transformer, pas seulement sensibiliser les acteurs à leurs responsabilités.
4. Les limites à ne pas occulter
Même si toutes ces conditions étaient réunies — et nous en sommes très loin aujourd'hui, il faut le dire clairement —, des limites structurelles subsisteraient. Il serait malhonnête intellectuellement de les taire, de faire comme si la régulation politique pouvait tout résoudre. Soyons lucides sur ce qui restera difficile, voire impossible.
L'inertie économique : résistance des géants
La valeur boursière cumulée des géants de l'IA (Microsoft, Google, Amazon, Meta, Apple, Nvidia) dépasse les 10 000 milliards de dollars. Cette valorisation colossale — équivalente au PIB de plusieurs pays européens réunis — repose entièrement sur la promesse d'une croissance illimitée des usages numériques : toujours plus de données collectées, toujours plus de modèles entraînés, toujours plus de services vendus, toujours plus d'utilisateurs captifs.
Remettre en cause cette croissance, c'est remettre en cause leur modèle d'affaires fondamental, donc leur capitalisation boursière, donc leur capacité d'investissement massif en R&D, donc leur attractivité pour les talents, donc leur position dominante. C'est une remise en cause existentielle.
Ils résisteront de toutes leurs forces — et ces forces sont considérables :
Lobbying massif auprès des législateurs nationaux et internationaux, financement de think tanks produisant des études "indépendantes" minimisant l'impact environnemental du numérique, multiplication des promesses d'autorégulation volontaire pour retarder les contraintes légales, menaces voilées de délocalisation vers des juridictions plus accommodantes.
Communication stratégique pour façonner l'opinion publique : campagnes publicitaires sur la "tech responsable", partenariats avec des ONG environnementales pour verdir l'image, mise en avant de quelques projets pilotes sobres pour masquer la tendance générale, storytelling sur l'IA comme "solution indispensable au changement climatique" (ce qui est partiellement vrai mais occulte son propre coût).
Contournement réglementaire via l'optimisation fiscale et juridique : implantation des infrastructures les plus polluantes hors d'Europe (où la régulation sera plus stricte), dans des zones à électricité carbonée mais bon marché (Asie du Sud-Est, certains États américains au charbon), puis vente des services sur le marché européen via des montages juridiques complexes qui diluent la responsabilité.
Délocalisation des impacts : les data centers les plus énergivores seront déplacés vers des pays en développement qui accepteront n'importe quelle industrie pour créer des emplois et attirer des investissements, même si cela signifie une consommation électrique massive au charbon. L'Occident consommera des services IA "propres" (officiellement), mais l'empreinte sera simplement déplacée géographiquement, comme on l'a fait avec l'industrie manufacturière dans les années 1980-2000.
Cette résistance ne doit pas être sous-estimée ni minimisée. Elle sera féroce, sophistiquée, multiforme. La transition vers une IA sobre se heurtera frontalement aux intérêts des acteurs les plus puissants et les mieux organisés de l'économie mondiale. Ils ont les moyens financiers, l'expertise juridique, les relais politiques, l'influence médiatique pour retarder, affaiblir, contourner les régulations pendant des années, voire des décennies.
L'asymétrie d'information : qui peut vraiment mesurer ?
Peu d'acteurs — quelques laboratoires universitaires spécialisés (comme l'équipe d'Alexandra Sasha Luccioni qui a mesuré BLOOM), quelques ONG spécialisées dans la tech éthique et environnementale — disposent des compétences techniques pointues ET des moyens financiers ET de l'indépendance institutionnelle pour mesurer réellement et rigoureusement l'impact environnemental des IA géantes.
Les entreprises qui produisent les modèles contrôlent totalement l'information et peuvent la façonner stratégiquement à leur avantage : choisir les périmètres de mesure qui les arrangent (exclure la fabrication du matériel, le transport, la phase de fine-tuning, la consommation des utilisateurs finaux), utiliser des moyennes qui masquent les pics de consommation, communiquer sur des "objectifs 2030" ambitieux sans trajectoire contraignante ni mécanisme de vérification indépendant, compenser comptablement par des crédits carbone douteux sans réduction réelle des émissions absolues.
Sans tiers de confiance indépendants, dotés de moyens conséquents — financement public pérenne et sanctuarisé, accès légal aux données des entreprises (y compris celles considérées comme confidentielles commercialement), mandat d'audit obligatoire avec pouvoir de sanction dissuasif —, la transparence restera largement illusoire. Les entreprises publieront ce qui les arrange, dissimuleront ce qui les embarrasse, contesteront les méthodologies des rares études critiques indépendantes.
Il faut créer des agences publiques d'audit environnemental du numérique, sur le modèle des autorités de sûreté nucléaire : indépendantes du gouvernement (pour éviter les pressions politiques court-termistes), dotées de pouvoirs d'investigation étendus (accès aux sites, aux données, aux systèmes), capables d'imposer des mesures correctives contraignantes sous peine de fermeture administrative temporaire ou définitive. Avec des équipes pluridisciplinaires (ingénieurs informaticiens, experts en ACV, statisticiens, juristes) et un financement qui ne dépend pas des acteurs régulés.
Sans cela, nous resterons dans un régime d'information asymétrique où les régulés en savent infiniment plus que les régulateurs, où la capture cognitive est inévitable, où les normes sont écrites sous l'influence des lobbies industriels. Et dans ce régime, la sobriété restera un vœu pieux.
Le risque d'effet rebond : l'ennemi intérieur
C'est peut-être la limite la plus redoutable, la plus pernicieuse, celle qui menace de ruiner tous les efforts de sobriété technique. On optimise un système pour qu'il consomme moins par unité de service rendu... et on finit par l'utiliser tellement davantage que la consommation totale explose. C'est le paradoxe de Jevons appliqué au numérique, observé déjà dans tous les secteurs : automobile (voitures plus efficientes mais plus nombreuses et plus lourdes), chauffage (isolation meilleure mais surfaces habitées plus grandes), aviation (avions moins gourmands mais vols multipliés).
Les data centers deviennent plus efficients énergétiquement (meilleur PUE, refroidissement optimisé, serveurs plus performants par watt) ? On en construit deux fois plus, on multiplie les usages, on baisse les prix pour conquérir de nouveaux marchés. Les modèles d'IA consomment moins d'énergie par requête (architecture optimisée, quantification des poids, pruning des neurones inutiles) ? On multiplie les requêtes par dix, on les intègre dans des milliers d'applications qui ne les utilisaient pas avant, on généralise l'usage à des contextes où ce n'est pas vraiment nécessaire.
L'amélioration technique devient prétexte à l'expansion, pas motif de modération. Les gains d'efficacité sont systématiquement réinvestis dans la croissance des usages, annulant — voire inversant — les bénéfices écologiques potentiels. On ne réduit jamais l'impact absolu ; on augmente simplement plus lentement qu'on ne l'aurait fait sans l'optimisation.
Pour contrer structurellement l'effet rebond, il faut des plafonds absolus contraignants : quotas de consommation énergétique globaux pour le secteur numérique au niveau national ou européen (ne pas dépasser X térawattheures par an, avec réduction progressive alignée sur les objectifs climatiques), plafonds d'émissions par entreprise (ne pas dépasser Y tonnes de CO₂e par an pour l'ensemble des activités IA, toutes phases confondues), interdiction pure et simple de certains usages jugés collectivement futiles ou disproportionnés au regard de leur impact.
Quels usages interdire ou rationner ? Question éminemment politique, qui doit être débattue démocratiquement, pas décidée technocratiquement. Quelques pistes :
Deepfakes récréatifs à grande échelle : générer des millions de vidéos truquées pour le divertissement consomme énormément d'énergie et présente des risques sociaux (désinformation, manipulation, atteinte à l'image). Faut-il vraiment permettre que n'importe qui génère n'importe quelle vidéo truquée de n'importe qui ? Ou réserver cet usage à des contextes encadrés (création artistique professionnelle, recherche scientifique, usages légitimes documentés) ?
Publicité micro-ciblée invasive : l'essentiel de la collecte de données et du calcul intensif sert aujourd'hui... à vendre des produits. Des milliards de dollars investis, des térawattheures consommés, pour optimiser des taux de clic sur des bannières publicitaires. Est-ce vraiment une priorité civilisationnelle ? Ne pourrait-on pas limiter drastiquement le profilage publicitaire, réduire la collecte de données, revenir à une publicité contextuelle simple (afficher des pubs de sport sur un site de sport, sans traquer l'utilisateur partout) ?
Surveillance généralisée non justifiée : reconnaissance faciale en temps réel dans tous les espaces publics, notation sociale algorithmique, profilage comportemental massif. Ces usages posent à la fois des questions éthiques (libertés fondamentales) et écologiques (infrastructure colossale de capteurs et de calcul). Faut-il vraiment les autoriser, sauf cas exceptionnels strictement encadrés et contrôlés démocratiquement ?
Sans plafonds absolus et sans gouvernance démocratique des usages, l'optimisation technique ne fera que repousser temporairement les limites de la croissance, pas inverser la trajectoire insoutenable. On continuera à améliorer l'efficience tout en aggravant l'impact global. La sobriété technique sans sobriété des usages est une impasse.
5. Conclusion : l'alliance est possible, mais politiquement improbable
Les convergences explorées dans cet article — optimisation énergétique des infrastructures, maintenance prévisionnelle pour prolonger la durée de vie, conception générative pour minimiser la matière, symbioses industrielles révélées par l'IA, intégration des renouvelables intermittents, transparence volontaire exemplaire — prouvent qu'une IA sobre, contextualisée, utile est techniquement réalisable dès aujourd'hui.
BLOOM, DeepMind, Rolls-Royce, Siemens, Hugging Face montrent que ce n'est pas une utopie hors-sol, pas un futur lointain hypothétique. C'est faisable. Maintenant. Avec les technologies existantes. Sans attendre de miracle technique.
Mais ces cas restent marginaux, exceptionnels, admirés mais rarement imités. Des vitrines vertueuses dans un océan de course à la puissance. Pourquoi ? Parce que les conditions politiques, économiques et culturelles qui les ont rendus possibles ne sont pas généralisées, loin de là :
- BLOOM a bénéficié d'un financement public massif (plusieurs millions d'euros du GENCI), d'une infrastructure nationale bas-carbone (supercalculateur Jean Zay alimenté au nucléaire français), d'une gouvernance ouverte (pas de pression du profit trimestriel), d'une transparence totale (publication de l'ACV complète). Combien de laboratoires privés accepteraient de travailler ainsi, en renonçant à l'avantage compétitif de l'opacité ?
- DeepMind a optimisé ses data centers parce que l'électricité coûte cher et représente 30-40% des coûts opérationnels. L'intérêt financier immédiat a aligné sobriété et profit. Sans cette convergence fortuite, le projet serait peut-être resté un prototype de recherche sans déploiement industriel. Que se passe-t-il quand l'électricité est très bon marché (charbon en Chine, gaz aux États-Unis) ? L'incitation à optimiser s'effondre.
- Hugging Face fait de la transparence un argument de différenciation marketing auprès d'une communauté scientifique soucieuse d'éthique. Mais si tous les acteurs cachaient leurs émissions, aurait-il intérêt à être transparent ? La vertu est parfois rationnelle quand elle distingue ; elle devient irrationnelle quand tout le monde triche.
Les convergences adviennent massivement quand les intérêts économiques s'alignent temporairement avec l'intérêt écologique. Rarement par pure vertu morale.
Pour que l'exception devienne norme, il faut transformer structurellement et durablement les incitations. Et cela ne peut advenir que par régulation politique contraignante, démocratiquement légitimée, internationalement coordonnée.
Il faut, concrètement et simultanément :
Imposer la transparence : ACV obligatoires selon méthodologie standardisée ISO, audits indépendants réguliers avec pouvoir de sanction, publication en open data, sanctions dissuasives en cas de mensonge ou d'omission.
Réorienter les incitations économiques : taxe carbone progressive et substantielle sur les data centers, bonus-malus sur la sobriété énergétique, marchés publics éco-conditionnés de manière stricte, critères de financement de la recherche intégrant l'impact environnemental.
Fixer des plafonds absolus : quotas énergétiques sectoriels négociés démocratiquement, plafonds d'émissions par entreprise alignés sur les trajectoires de neutralité carbone, interdiction ou rationnement de certains usages jugés collectivement futiles (deepfakes récréatifs industriels, surveillance de masse non justifiée, publicité micro-ciblée invasive).
Démocratiser la gouvernance : data centers comme biens communs ou infrastructures d'intérêt général, contrôle citoyen sur les finalités, possibilité de refuser collectivement certains usages, gouvernance publique ou coopérative des infrastructures critiques.
Former massivement : ingénieurs bilingues calcul/écologie capables de dialoguer entre ces univers, intégration de l'éco-ingénierie dans tous les cursus informatiques dès la première année, laboratoires de recherche interdisciplinaires.
Sans cela, sans ce paquet complet de mesures structurelles, l'IA et l'éco-ingénierie resteront incompatibles.
La question n'est plus « est-ce techniquement possible ? » — oui, ça l'est, les exemples le prouvent.
La question est : « Avons-nous la volonté politique collective de l'imposer contre les intérêts des acteurs les plus puissants et les mieux organisés de l'économie mondiale ? »
La réponse à cette question déterminera si le calcul servira un jour le vivant, ou s'il continuera à l'épuiser méthodiquement. Elle déterminera si l'intelligence artificielle devient instrument de résilience ou accélérateur d'effondrement. Elle déterminera, tout simplement, quel monde nous léguerons aux générations suivantes.
Et peut-être qu'un jour, nous cesserons de demander si la machine peut penser pour lui poser une question bien plus essentielle, bien plus urgente, bien plus déterminante pour notre avenir commun :
« Peut-elle respecter ? »
Respecter les limites planétaires qui conditionnent notre survie collective. Respecter les cycles du vivant qui s'étendent sur des décennies ou des siècles, pas sur des trimestres boursiers. Respecter les générations futures qui hériteront d'un monde que nous aurons façonné par nos choix techniques et politiques. Respecter l'imprévisible, l'incontrôlable, le non-calculable — tout ce qui fait la richesse et la fragilité du monde vivant.
Ce jour-là — et seulement ce jour-là — l'IA et l'éco-ingénierie cesseront d'être des noces impossibles pour devenir une alliance féconde.
Ce jour-là, nous aurons enfin compris que la technique n'est pas là pour nous dispenser de penser, mais pour nous aider à penser mieux. Que le calcul n'est pas là pour remplacer le jugement, mais pour l'éclairer. Que la puissance n'est pas là pour dominer le monde, mais pour l'habiter avec sagesse, sobriété, humilité.
Ce jour-là, nous serons devenus adultes.
Bibliographie
Benyus, J. M. (1997). Biomimicry: Innovation inspired by nature. William Morrow.
Commission européenne (2021). Industry 5.0: Towards a sustainable, human-centric and resilient European industry. Direction générale de la recherche et de l'innovation. https://op.europa.eu/en/publication-detail/-/publication/468a892a-5097-11eb-b59f-01aa75ed71a1
Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.
Jacobsen, N. B. (2006). Industrial symbiosis in Kalundborg, Denmark: A quantitative assessment of economic and environmental aspects. Journal of Industrial Ecology, 10(1-2), 239–255. https://doi.org/10.1162/108819806775545411
Luccioni, A. S., Viguier, S., & Ligozat, A.-L. (2022). Estimating the carbon footprint of BLOOM, a 176B parameter language model. Journal of Machine Learning Research, 24(253), 1–15. https://jmlr.org/papers/v24/23-0069.html
Ludvigsen, K. G. A. (2023, mars 16). The carbon footprint of GPT-4. Towards Data Science. https://towardsdatascience.com/the-carbon-footprint-of-gpt-4-d6c676eb21ae
Note : Article de vulgarisation proposant des estimations extrapolées pour GPT-4. OpenAI n'ayant publié aucune donnée officielle, ces chiffres (51 000–62 000 MWh) restent spéculatifs mais cohérents avec la logique des scaling laws.
McDonough, W., & Braungart, M. (2002). Cradle to cradle: Remaking the way we make things. North Point Press.
O'Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown.
Patterson, D., Gonzalez, J., Le, Q., Liang, C., Munguia, L.-M., Rothchild, D., So, D., Texier, M., & Dean, J. (2021). Carbon emissions and large neural network training. Rapport technique Google Research. arXiv:2104.10350. https://arxiv.org/abs/2104.10350
Note : Ce rapport technique, bien que non publié dans une revue à comité de lecture, constitue la source de référence pour les estimations d'empreinte carbone de GPT-3, basées sur des lois d'échelle énergétique validées empiriquement.
Raworth, K. (2017). Doughnut economics: Seven ways to think like a 21st-century economist. Chelsea Green Publishing.
Ritchie, H. (2025, janvier 8). What's the carbon footprint of using ChatGPT? Sustainability by Numbers. https://sustainabilitybynumbers.com/p/chatgpt-carbon-footprint
Note : Article de vulgarisation. La fourchette 0,3–3 Wh par requête reflète l'écart entre coût marginal (énergie directement attribuable à une requête) et coût moyen incluant l'infrastructure permanente (serveurs, refroidissement, réseau).
Russell, S. (2019). Human compatible: Artificial intelligence and the problem of control. Viking.
Schwartz, R., Dodge, J., Smith, N. A., & Etzioni, O. (2019). Green AI. arXiv preprint arXiv:1907.10597. https://arxiv.org/abs/1907.10597
Fin du cycle « Technologie et responsabilité »
- Se connecter ou s'inscrire pour publier un commentaire