Aller au contenu principal
Réconcilier IA et sobriété arbre digital avec racines biologiques

Cycle « Technologie & responsabilité » - Article de fond 4/4

Étiquettes
Vers une IA sobre :

conditions d'une alliance improbable

Quatrième et dernière étape du cycle « Technologie & responsabilité » : Leviers d'une convergence fragile ; ou quand le calcul pourrait enfin servir le vivant !

Temps de lecture : environ 50 minutes

À l'heure où l'intelligence artificielle s'impose comme la technologie la plus disruptive du XXIe siècle, et où l'urgence écologique redéfinit les conditions mêmes de l'activité industrielle, une question décisive émerge : ces deux dynamiques peuvent-elles converger, ou sont-elles structurellement incompatibles ?

Ce cycle de quatre articles propose une exploration rigoureuse, à la fois scientifique, philosophique et politique, de cette tension fondatrice. Son ambition : outiller décideurs, ingénieurs et citoyens pour comprendre ce qui se joue réellement dans la mutation technologique contemporaine, au-delà des mythes et des slogans.

La série se déploie en quatre temps :

  1. L'intelligence artificielle : démystifier la machine à calculer - Comprendre ce qu'est vraiment l'IA, ses principes techniques, ses promesses et ses angles morts.
  2. L'éco-ingénierie : l'intelligence du juste nécessaire - Explorer les fondements d'une ingénierie compatible avec les limites planétaires, sobre et systémique.
  3. IA et éco-ingénierie : les noces impossibles ? - Cartographier les cinq tensions structurelles qui opposent calcul et sobriété.
  4. Vers une IA sobre : conditions d'une alliance improbable - Identifier les convergences possibles et les conditions nécessaires à leur généralisation.

Ni technophilie béate, ni ascèse punitive : cette série défend une politique des moyens orientée vers l'efficience systémique, la mesure et la traçabilité. Elle interroge les choix civilisationnels que nous devons faire, collectivement, pour que la technique serve enfin le vivant.

Cet article clôt le cycle « Technologie et responsabilité » de Prométhée Technologies & Ingénierie.

L'article précédent a cartographié les tensions structurelles qui opposent intelligence artificielle et éco-ingénierie : logiques de maximisation contre optimisation, opacité contre traçabilité, universalité contre contextualisation, vitesse contre lenteur, divergence des dynamiques économiques. Ces contradictions semblent insurmontables.

Pourtant, des convergences fragiles émergent (rares, marginales, mais réelles). Elles prouvent qu'une autre voie est techniquement possible : celle d'une IA mise au service de la sobriété plutôt qu'au service de la croissance illimitée.

Mais cette possibilité technique ne deviendra réalité que si certaines conditions sont réunies. Cet article les explore sans naïveté : ni promesse facile, ni défaitisme résigné. Juste une cartographie lucide des convergences possibles, des leviers envisageables, et des limites structurelles qui persisteront.

« La technologie n'est pas le problème. La technologie sans limite, si. »

⏱️ L'essentiel en 30 secondes

  • La convergence IA-éco-ingénierie est techniquement possible mais politiquement improbable sans transformation des règles du jeu
  • DeepMind a réduit de 40% la consommation de refroidissement des data centers Google : la sobriété peut être rentable
  • Trois leviers indispensables : fiscalité écologique contraignante, transparence obligatoire avec audits, priorisation des modèles spécialisés
  • Quatre limites persisteront : effet rebond, dépendance matérielle irréductible, inégalités d'accès, tensions démocratiques
  • La Green AI ne sera jamais un état stable : c'est un équilibre dynamique constamment renégocié
  • Le choix est civilisationnel : acceptons-nous de dire non à des possibilités techniques au nom de limites écologiques ?
  

Introduction : des signes d'espoir fragiles

L'article précédent a montré pourquoi l'IA et l'éco-ingénierie semblent condamnées à l'incompatibilité : leurs logiques fondamentales s'opposent terme à terme. Maximisation contre optimisation. Opacité contre traçabilité. Universalité contre contextualisation. Vitesse contre lenteur. Divergence des dynamiques économiques. Faut-il pour autant conclure à l'impossibilité absolue de leur convergence ?

« L'IA sobre n'émergera pas d'elle-même ; elle doit être voulue, réglée, mesurée. »

Non. Car quelques expériences, encore trop rares mais significatives, démontrent qu'une autre trajectoire est techniquement envisageable dès aujourd'hui. Ces convergences ne sont pas advenues spontanément ; elles ont toutes été le fruit de choix délibérés, souvent contre-intuitifs dans une logique de marché, parfois même contre-productifs à court terme pour la compétitivité. Elles ne résolvent pas les tensions structurelles identifiées, mais elles montrent que sous certaines conditions (politiques, économiques, institutionnelles) l'IA peut basculer du côté de la sobriété.

Ces signes d'espoir méritent d'être explorés, non pour se rassurer à bon compte avec quelques success stories qui masqueraient la tendance générale, mais pour identifier précisément ce qui les a rendus possibles. Car la question n'est plus « est-ce techniquement faisable ? » (la réponse est oui, les exemples le prouvent). La question devient : « quelles conditions faut-il réunir pour que l'exception devienne norme ? »

C'est cette question que cet article se propose d'explorer, en trois temps : d'abord les convergences possibles (section 1), puis les leviers envisageables pour leur généralisation (section 2), enfin les limites structurelles qui subsisteraient même si ces leviers étaient activés (section 3).

  

1. Les convergences possibles : quand l'IA sert la sobriété

Malgré toutes les tensions documentées dans l'article précédent, l'intelligence artificielle et l'éco-ingénierie ne sont pas absolument irréconciliables. Plusieurs cas d'usage prouvent qu'une IA sobre, contextualisée, utile est possible (à condition que les incitations économiques, les choix techniques et les finalités politiques soient alignés).

L'optimisation énergétique des infrastructures : l'exemple DeepMind

Dans les centres de données de Google, une IA développée par DeepMind a permis dès 2016 de réduire jusqu’à 40 % la consommation énergétique liée au refroidissement. Le principe est simple mais puissant : le système apprend en temps réel à ajuster les flux d'air, les températures d'eau, les régimes de pompes et de ventilateurs en fonction de centaines de paramètres environnementaux et opérationnels (charges de calcul instantanées, météo extérieure, état des équipements, prévisions de demande à court terme, historique des performances).

Cette optimisation dynamique, impossible à réaliser manuellement tant les variables sont nombreuses et les interactions complexes, produit des résultats spectaculaires : des dizaines de millions de kilowattheures économisés chaque année, sans dégrader les performances des serveurs, sans augmenter les risques de panne, sans investissement matériel supplémentaire majeur. Ce n'est pas de l'écologie de façade ni une opération de communication ; c'est de l'optimisation intelligente qui réconcilie efficacité technique et frugalité énergétique.

Mais pourquoi Google a-t-il investi dans cette IA sobre ? Non par pure vertu écologique, mais parce que l'électricité représente 30 à 40% des coûts opérationnels d'un data center (note : les centres les plus modernes tendent à rapprocher la part du refroidissement vers 10-25 %, mais la fourchette 30-40 % reste plausible comme ordre de grandeur historique et pour une grande partie du parc mondial). Réduire la consommation, c'est directement augmenter les marges bénéficiaires. L'intérêt économique immédiat a aligné sobriété et profit. Sans cette convergence fortuite, le projet n'aurait probablement jamais vu le jour, ou serait resté un prototype de recherche sans déploiement industriel.

Cette leçon est cruciale pour la suite : la sobriété advient massivement quand elle devient rentable, rarement par pure vertu écologique. Ce n'est ni cynique ni déprimant ; c'est réaliste. Et cela indique où placer les leviers d'action : modifier les incitations économiques pour que vertu écologique et intérêt financier convergent systématiquement, plutôt que de compter sur la bonne volonté des acteurs.

La maintenance prévisionnelle : prolonger plutôt que remplacer

Appliquée à la maintenance industrielle, l'IA prévisionnelle prolonge radicalement la durée de vie des équipements en détectant les anomalies avant qu'elles ne deviennent pannes catastrophiques (c'est d'ailleurs un des fleurons des axes R&D de Prométhée Technologies & Ingénierie). Un roulement qui vibre anormalement, une température qui dérive lentement, une consommation électrique qui augmente imperceptiblement, un bruit de fonctionnement qui change : autant de signaux faibles invisibles à l'oreille humaine ou noyés dans le bruit de fond, mais que l'IA capte et interprète en croisant des milliers de mesures.

On remplace la pièce défectueuse au bon moment (ni trop tôt, ce qui gaspillerait une pièce encore fonctionnelle et générerait un coût inutile ; ni trop tard, ce qui provoquerait une casse en cascade endommageant d'autres composants, un arrêt de production coûteux, un risque pour la sécurité).

Rolls-Royce, avec son modèle Power-by-the-Hour, a économiquement intérêt à ce que ses moteurs d'avion durent le plus longtemps possible ; l'entreprise ne vend plus le moteur mais facture des heures de vol. Chaque heure supplémentaire de fonctionnement est du profit additionnel, chaque panne coûte cher. L'obsolescence programmée devient économiquement absurde. La durabilité maximale devient le modèle économique lui-même.

L'économie de matière précède ici l'économie de données. L'IA ne maximise pas la production ; elle minimise le gaspillage. Elle ne pousse pas à consommer davantage ; elle fait durer ce qui existe. Elle devient outil de résilience plutôt que d'obsolescence, instrument de sobriété plutôt que de croissance aveugle.

Ce basculement de l'économie de la propriété (vendre un bien) vers l'économie de la fonctionnalité (vendre un usage) est potentiellement révolutionnaire. Michelin vend des kilomètres parcourus plutôt que des pneus ; Xerox vend des pages imprimées plutôt que des photocopieurs ; Philips vend de la lumière plutôt que des ampoules. Dans chaque cas, l'intérêt économique du fournisseur rejoint la durabilité : plus le produit dure, plus l'entreprise gagne.

L'IA prévisionnelle devient l'outil technique qui rend ce modèle viable industriellement. Sans elle, impossible de monitorer en temps réel des milliers d'équipements dispersés géographiquement, impossible de prédire les pannes avec assez de précision pour planifier les interventions, impossible d'optimiser les stocks de pièces détachées pour minimiser les coûts tout en garantissant la disponibilité.

La conception générative : frugalité structurelle

Les algorithmes de conception générative explorent des milliers (parfois des millions) de configurations géométriques impossibles à imaginer pour un ingénieur humain contraint par ses habitudes mentales et ses conventions professionnelles. Ils produisent des pièces mécaniques allégées de 30 à 50 % tout en conservant, voire en améliorant, leur résistance mécanique, leur rigidité, leur durabilité.

Les constructeurs aéronautiques utilisent désormais massivement ces techniques pour réduire le poids des avions et donc leur consommation de carburant sur toute leur durée de vie (plusieurs décennies d'exploitation intensive). Le support de siège redessiné par IA ressemble à une structure organique, presque végétale, avec des vides là où la matière n'est pas sollicitée et des renforts là où les contraintes mécaniques sont maximales. Il est 45% plus léger que le design conventionnel rectangulaire, tout en étant plus résistant aux chocs et vibrations.

Sur un avion long-courrier, économiser 300 kg de structure métallique représente plusieurs dizaines de milliers de litres de kérosène économisés chaque année, soit plusieurs centaines de tonnes de CO₂ évitées sur la durée de vie de l'appareil (20 à 30 ans). Le calcul économique est imparable : moins de poids = moins de carburant = coûts opérationnels réduits. Encore une fois, l'intérêt financier et l'intérêt écologique convergent.

C'est une intelligence du retrait, de l'épure, de la juste suffisance. L'IA ne maximise pas la quantité de matière ; elle minimise la matière nécessaire pour remplir une fonction donnée. Elle ne pousse pas au « toujours plus » mais au « juste assez, élégamment conçu ». Elle incarne une forme de sobriété structurelle, inscrite dès la conception dans la géométrie même de l'objet.

Cette approche pourrait s'étendre à d'autres secteurs : bâtiment (structures porteuses optimisées), automobile (châssis allégés), mobilier (réduction de matière sans perte de résistance), emballages (protection maximale avec matériau minimal). À chaque fois, moins de ressources extraites, moins d'énergie pour la fabrication, moins de transport, moins de déchets. Une IA au service de l'élégance fonctionnelle.

Les symbioses industrielles 2.0 : l'IA comme révélateur de complémentarités

Plus discrètes mais tout aussi prometteuses, certaines applications territorialisées montrent que l'IA peut devenir un outil de symbiose industrielle. En cartographiant finement les flux de chaleur, d'eau, de matières, de déchets, d'énergie d'une zone d'activité (avec une granularité temporelle, heure par heure, et spatiale, bâtiment par bâtiment, impossible à atteindre manuellement), des algorithmes peuvent identifier des complémentarités invisibles à l'œil nu.

Tel surplus thermique d'une usine de métallurgie (chaleur fatale rejetée à 80 à 120°C) pourrait, moyennant un réseau de canalisations isolées, alimenter le réseau de chauffage urbain du quartier voisin, évitant ainsi de brûler du gaz naturel dans des milliers de chaudières individuelles. Telle eau de refroidissement d'une centrale (tiède mais propre, 25 à 35°C) pourrait irriguer une serre maraîchère où cette température légèrement supérieure à l'ambiante allongerait la saison de culture. Tels déchets organiques d'une agro-industrie (résidus de transformation alimentaire) pourraient nourrir une unité de méthanisation produisant du biogaz injecté dans le réseau local, remplaçant du gaz fossile importé.

Ces symbioses 2.0, numériquement assistées mais ancrées dans le réel géographique, incarnent ce que pourrait être une IA contextuelle, locale, utile plutôt qu'universelle et envahissante. Elles ne remplacent pas la coopération humaine (qui reste absolument indispensable pour bâtir la confiance entre acteurs économiques parfois concurrents, pour négocier les accords juridiques et financiers, pour gérer les imprévus opérationnels) mais elles la facilitent considérablement.

L'IA rend visible l'invisible : elle quantifie précisément les flux disponibles et les besoins potentiels, elle simule différents scénarios d'échange pour évaluer leur viabilité économique avant d'investir, elle optimise dynamiquement les circuits en fonction des variations saisonnières et des évolutions industrielles. Sans cette capacité de calcul et de modélisation, beaucoup de synergies resteraient insoupçonnées ou jugées trop complexes à mettre en œuvre.

L'intégration des énergies renouvelables : l'IA comme gestionnaire de flexibilité

Dans le secteur énergétique, l'IA joue déjà un rôle crucial pour intégrer les énergies renouvelables intermittentes dans un réseau électrique qui, historiquement, a été conçu pour des centrales pilotables (nucléaire, charbon, gaz, hydraulique) produisant de manière stable et prévisible.

Le défi est colossal : comment équilibrer en permanence production et consommation (équilibre obligatoire à chaque seconde pour éviter l'effondrement du réseau) quand une part croissante de la production dépend du vent (qui souffle ou non) et du soleil (qui brille ou non), avec des variations imprévisibles à quelques heures près ?

L'IA apporte plusieurs réponses complémentaires :

Prédiction fine de la production : En croisant données météorologiques (satellite, stations au sol, modèles numériques), historiques de production, état des équipements, les algorithmes peuvent prévoir avec plusieurs jours d'avance et une précision croissante la production éolienne et solaire. Cette anticipation permet aux gestionnaires de réseau d'ajuster les autres sources (hydraulique, gaz) et de planifier les imports/exports transfrontaliers.

Effacements ciblés : Ajuster dynamiquement la demande en décalant dans le temps le fonctionnement de gros équipements industriels non urgents (fours, compresseurs, pompes), en modulant la recharge des véhicules électriques (charger davantage quand il y a surplus d'énergie renouvelable, ralentir quand le réseau est tendu), en pilotant finement les systèmes de chauffage/climatisation (préchauffer légèrement un bâtiment avant un pic tarifaire, relâcher légèrement la température pendant le pic sans dégrader le confort).

Équilibrage dynamique : Coordonner en temps réel des milliers de sources de production décentralisées (toitures solaires, éoliennes locales, petites centrales hydrauliques) et des milliers de points de consommation flexibles pour maintenir l'équilibre instantané du réseau. Un travail de fourmi, impossible à réaliser manuellement, que l'IA effectue en continu.

Sans elle, la transition vers un mix électrique 100 % renouvelable serait techniquement bien plus complexe, peut-être même impossible à grande échelle sans surdimensionner massivement les capacités de stockage (batteries, stations de pompage-turbinage), solution coûteuse et elle-même consommatrice de ressources.

Ici, l'IA ne consomme pas pour consommer, ne maximise pas pour maximiser ; elle optimise un système existant pour réduire son empreinte globale, pour accélérer la décarbonation, pour rendre viable une transition écologique que beaucoup jugeaient techniquement infaisable il y a encore vingt ans.

La transparence volontaire : BLOOM et Hugging Face comme modèles alternatifs

Enfin, quelques acteurs font le choix courageux (et encore extrêmement rare dans l'industrie) de la transparence totale. Hugging Face, plateforme collaborative de modèles d'IA devenue incontournable pour la communauté scientifique mondiale, publie depuis 2022 des fiches détaillées « Environmental Impact » pour des centaines de modèles hébergés. Ces fiches documentent : consommation énergétique d'entraînement (en kWh), mix électrique utilisé (fossile, nucléaire, renouvelable), émissions de CO₂ équivalent (en tonnes), durée d'entraînement, localisation géographique des data centers sollicités, matériel utilisé (type de GPU, quantité).

Cette transparence radicale permet aux chercheurs et développeurs de faire des choix éclairés, de privilégier les modèles sobres à performance équivalente, de quantifier rigoureusement l'impact de leurs propres travaux. Elle crée une pression sociale positive : personne ne veut être le modèle le plus polluant du classement, tout le monde cherche à améliorer son score environnemental. La sobriété devient un critère de réputation scientifique, pas seulement un supplément d'âme moral.

BLOOM, modèle francophone open source de 176 milliards de paramètres entraîné en 2022, démontre qu'une IA performante et sobre est techniquement réalisable quand les choix de conception privilégient systématiquement l'impact sur la puissance brute. Trois principes ont guidé sa conception.

Mix énergétique bas-carbone : entraînement sur le supercalculateur Jean Zay, alimenté majoritairement par l'électricité nucléaire française (environ 70 g CO₂/kWh contre 400 à 900 pour le charbon). Résultat : environ 50 tonnes de CO₂e en bilan complet (LUCCIONI et al., 2023), dix fois moins que GPT-3 à taille comparable.

Infrastructure optimisée : mutualisation des ressources de calcul sur un supercalculateur public déjà existant plutôt que construction de data centers dédiés, refroidissement efficace, taux d'utilisation maximisé pour amortir l'empreinte de l'infrastructure sur un maximum de projets.

Gouvernance ouverte : financement public (GENCI, CNRS, IDRIS), code accessible, méthodologie documentée, empreinte publiée intégralement. Aucune opacité commerciale, aucun secret industriel, aucune dissimulation. La science comme bien commun.

Transparence totale : publication de l'analyse du cycle de vie complète, vérifiable, reproductible, dans une revue scientifique à comité de lecture.

Mais soyons lucides : ces initiatives (Hugging Face, BLOOM, quelques laboratoires universitaires engagés) restent minoritaires, presque marginales, dans un écosystème numérique global fondé sur la course à la puissance, la vitesse de mise sur le marché, l'opacité stratégique. Elles prouvent que la convergence est possible ; elles ne suffisent pas (loin de là) à l'imposer comme norme industrielle.

Elles indiquent néanmoins une direction : transparence radicale + gouvernance publique + infrastructure bas-carbone + modèles spécialisés plutôt qu'universels = IA compatible avec les limites planétaires. La recette existe. Reste à identifier les conditions de sa généralisation. Et c'est là que les choses se compliquent.

  

2. Les leviers envisageables : trois familles de transformations

Si l'on voulait sincèrement généraliser les convergences identifiées ci-dessus (au-delà des déclarations d'intention, des rapports institutionnels non contraignants et du greenwashing corporate), quels leviers pourraient être activés ? Cette section explore trois familles de transformations possibles, chacune avec ses forces, ses faiblesses, ses conditions de mise en œuvre, sans présumer qu'une seule suffirait ou qu'elles s'excluent mutuellement.

Levier 1 : Transformation des incitations économiques

Le constat : La sobriété advient massivement quand elle devient rentable. DeepMind a optimisé ses data centers parce que l'électricité coûte cher. Rolls-Royce fait durer ses moteurs parce que son modèle économique valorise la longévité. L'aéronautique allège ses structures parce que le carburant représente 30% des coûts opérationnels. À l'inverse, quand polluer ne coûte rien (ou presque), pourquoi s'en priver ?

Les outils possibles

 Fiscalité écologique progressive : Une taxe carbone substantielle sur les data centers, démarrant à un niveau significatif (par exemple 100€/tonne de CO₂) et augmentant progressivement pour atteindre 300 à 500€/tonne (ordre de grandeur plausible, mais disons plus prudemment : de l'ordre de quelques centaines d'euros par tonne) à horizon 2035-2040, alignée sur les trajectoires de neutralité carbone. Avec mécanisme d'ajustement carbone aux frontières pour éviter les délocalisations vers des paradis réglementaires.

Forces : Crée une incitation économique puissante et prévisible, utilise la logique de marché existante, peut être progressive.

Faiblesses : Nécessite coordination internationale pour éviter les fuites, risque d'inégalités (seuls les riches peuvent payer), nécessite un prix suffisamment élevé pour être dissuasif (ce qui est politiquement difficile).

 Bonus-malus sur la sobriété énergétique : Subventions publiques (crédit d'impôt recherche majoré, aides à l'investissement, prêts bonifiés) pour les modèles sobres qui respectent des critères stricts d'efficience (performance/impact). Pénalités financières ou restrictions d'usage pour les mastodontes énergétivores qui ne peuvent justifier leur taille par un bénéfice social proportionnel.

Forces : Récompense positivement plutôt que seulement punir, peut cibler finement différents segments.

Faiblesses : Complexité administrative, risque de capture par les acteurs dominants qui ont les moyens de satisfaire aux critères formels, coût pour les finances publiques.

 Marchés publics éco-conditionnés : L'État, les collectivités, les hôpitaux, les universités n'achètent ou ne louent que des services IA dont l'ACV est publiée, vérifiée par un tiers indépendant, et en dessous d'un seuil carbone fixé réglementairement et progressivement abaissé. Clauses de réversibilité (possibilité de changer de fournisseur sans coût prohibitif), d'interopérabilité (pas de lock-in propriétaire), de transparence (accès au code source pour audit).

Forces : L'État utilise son pouvoir d'achat massif pour orienter le marché, crée une demande solvable pour les solutions sobres, donne un signal fort.

Faiblesses : Nécessite expertise technique dans l'administration pour évaluer les offres, risque de contournement (sous-traitance opaque), fragmentation si chaque État a ses critères.

 Économie de la fonctionnalité généralisée : Encourager (via avantages fiscaux, facilitation juridique) les modèles où le fournisseur reste propriétaire et responsable du matériel/service, créant ainsi un alignement naturel entre durabilité et rentabilité.

Forces : Transforme le modèle d'affaires lui-même, rend l'obsolescence programmée économiquement absurde.

Faiblesses : Résistance culturelle (habitude de la propriété), complexité contractuelle, nécessite capital important pour le fournisseur.

 Modification des critères ESG : Intégrer obligatoirement l'empreinte numérique dans l'évaluation environnementale des entreprises utilisée par les investisseurs. Aujourd'hui, une entreprise peut avoir un excellent score ESG tout en opérant des data centers au charbon.

Forces : Utilise le poids des investisseurs institutionnels, influence les valorisations boursières.

Faiblesses : Risque de greenwashing sophistiqué, manque de standardisation des méthodologies, capture par les agences de notation.

Évaluation de ce levier : Transformation des incitations économiques peut être très puissante si les signaux-prix sont suffisamment forts et durables. Mais elle nécessite coordination internationale (sinon délocalisation), volonté politique soutenue (résistance des lobbies), et vigilance constante contre les contournements. Elle est probablement nécessaire mais pas suffisante seule.

Levier 2 : Transparence, mesure et gouvernance collective

« On ne pilote que ce qu'on mesure ; c'est pour cela que l'IA doit divulguer son empreinte. »

Le constat : On ne peut gérer que ce qu'on mesure. Tant que l'empreinte environnementale de l'IA reste opaque, invérifiable, sujette à manipulation, aucune gouvernance sérieuse n'est possible. La transparence n'est pas une fin en soi, mais la condition préalable à tout le reste.

Les outils possibles

 Méthodologie standardisée obligatoire : Créer une norme ISO spécifique pour l'ACV de l'IA (comme ISO 14040/14044 pour les produits physiques), définissant précisément les périmètres, les phases à inclure, les facteurs d'émission à utiliser, les modalités de calcul. Publication obligatoire pour tout modèle au-delà d'un certain seuil (par exemple 10 milliards de paramètres ou 100 MWh consommés).

Forces : Crée un langage commun, permet comparaisons, réduit le greenwashing.

Faiblesses : Lenteur du processus de normalisation, risque de capture par les acteurs dominants qui influencent la norme, nécessite mise à jour régulière face aux évolutions technologiques.

 Audits indépendants : Agences publiques d'audit environnemental du numérique (sur le modèle des autorités de sûreté nucléaire), indépendantes du gouvernement et des entreprises, dotées de financement public pérenne, pouvoirs d'investigation étendus (accès aux sites, aux données, aux systèmes, y compris celles considérées comme confidentielles commercialement), mandat d'audit obligatoire annuel ou semestriel.

Forces : Vérification crédible par des tiers indépendants, peut imposer corrections.

Faiblesses : Coût pour la collectivité, risque d'asymétrie d'information persistante (les audités en savent toujours plus), nécessite compétences techniques pointues rares.

 Publication en open data : Toutes les données environnementales (consommation énergétique, mix électrique, émissions, consommation d'eau, durée de vie estimée) accessibles publiquement, dans des formats standardisés et machine-readable, pour permettre comparaisons, agrégations, études indépendantes.

Forces : Permet contrôle citoyen et scientifique, crée pression concurrentielle positive.

Faiblesses : Résistance au nom du secret industriel, risque de sur-information (trop de données tue l'information), nécessite médiation pour être accessible au grand public.

 Gouvernance démocratique des infrastructures critiques : Les data centers sont devenus des infrastructures essentielles au XXIe siècle. Plusieurs modèles de gouvernance sont envisageables : data centers publics (propriété de l'État, gestion par un opérateur public de type service public), coopératives de calcul (propriété collective des utilisateurs, gouvernance démocratique), partenariats public-privé avec cahier des charges environnemental contraignant et contrôle public fort, régulation forte des acteurs privés (plafonds d'émissions sectoriels, audits indépendants obligatoires, sanctions dissuasives).

Forces : Permet de prioriser l'intérêt général sur le profit court-terme, peut refuser certains usages jugés futiles.

Faiblesses : Risque de lourdeur bureaucratique (modèle public), difficulté à lever des capitaux (modèle coopératif), capture réglementaire (modèle régulé), complexité contractuelle (PPP).

 Sanctions en cas de non-publication ou de mensonge : Non-publication = interdiction de commercialisation (sur le modèle du RGPD pour les données personnelles). Données mensongères ou incomplètes = amende de 4% du chiffre d'affaires mondial (comme RGPD). Récidive = suspension temporaire de commercialisation.

Forces : Crée incitation forte à la transparence, effet dissuasif.

Faiblesses : Nécessite autorités de contrôle bien dotées, risque de contentieux juridiques longs, difficulté à prouver l'intention de tromper vs erreur de bonne foi.

Évaluation de ce levier : Transparence et gouvernance collective sont des conditions préalables indispensables. Sans mesure fiable, aucun autre levier ne peut fonctionner correctement. Mais attention : la transparence ne suffit pas. On peut avoir des données publiques sans que cela change fondamentalement les comportements si les incitations économiques restent inchangées. C'est un levier nécessaire mais non suffisant.

Levier 3 : Bifurcations technologiques et choix d'architecture

Le constat : Toutes les IA ne se valent pas écologiquement. Les choix d'architecture, de taille, de spécialisation déterminent fondamentalement l'empreinte. Or, la recherche actuelle optimise quasi exclusivement pour la performance brute, rarement pour l'efficience énergétique ou la frugalité matérielle.

Les outils possibles

⇒ Petits modèles spécialisés contre géants universels : Privilégier systématiquement les modèles de taille raisonnable (quelques milliards de paramètres), spécialisés sur une tâche ou un domaine précis, plutôt que les mastodontes universels de centaines de milliards de paramètres capables de tout faire médiocrement.

Exemple : Un modèle de 3 milliards de paramètres dédié à la traduction français-anglais peut atteindre des performances comparables à GPT-4 sur cette tâche unique, tout en consommant cent fois moins d'énergie à l'entraînement et mille fois moins à l'inférence. Il sera moins flexible (incapable de coder ou de composer de la musique), mais si l'usage est circonscrit, pourquoi payer le coût de l'universalité ?

Un modèle sobre n'est pas un modèle faible ; c'est un modèle pertinent.

Forces : Réduction drastique de l'empreinte énergétique (facteur 10 à 100), maintenance et amélioration plus aisées, explicabilité meilleure, pas de coûts cachés liés à des capacités inutilisées.

Faiblesses : Perd les économies d'échelle (coût de développement multiplié si on a besoin de dix modèles plutôt qu'un), moins séduisant commercialement (le marketing préfère les chiffres impressionnants), nécessite expertise pour bien définir le périmètre fonctionnel.

⇒ Distillation et compression : Transférer les connaissances d'un grand modèle (le « professeur ») vers un modèle beaucoup plus petit (l'« élève »), qui conserve 90 à 95% des performances pour une fraction de la taille et de la consommation énergétique. DistilBERT, version compressée de BERT, conserve 97% des performances avec 40% de la taille et une vitesse d'inférence 60% supérieure.

Forces : Peut réduire drastiquement le coût d'usage (inférence), préserve l'essentiel des performances.

Faiblesses : Nécessite toujours d'entraîner le grand modèle initial (coût amont préservé), perte marginale de performances, nécessite expertise technique pour bien conduire la distillation.

⇒ Architectures neurosymboliques : Combiner réseaux neuronaux (pour la reconnaissance de formes, l'apprentissage sur données massives) et raisonnement symbolique (pour la logique, les contraintes, l'explicabilité), permettant d'atteindre de bonnes performances avec des modèles plus petits, plus explicables, potentiellement plus frugaux.

Forces : Explicabilité accrue, généralisation meilleure avec moins de données, possibilité d'intégrer des contraintes éthiques ou écologiques directement dans l'architecture.

Faiblesses : Encore immature technologiquement (recherche académique, peu de déploiements industriels), complexité conceptuelle et d'implémentation, manque d'outils standardisés.

⇒ Calcul neuromorphique : Puces électroniques inspirées du cerveau biologique, consommant potentiellement cent à mille fois moins d'énergie que les GPU classiques pour certaines tâches. IBM TrueNorth, Intel Loihi explorent cette voie depuis une décennie.

Forces : Réduction drastique de la consommation énergétique à performance égale, particulièrement pertinent pour les applications embarquées (capteurs, edge computing).

Faiblesses : Encore largement expérimental, peu de logiciels compatibles, nécessite repenser entièrement les algorithmes, investissements massifs pour industrialiser.

⇒ Ordinateurs quantiques : Hypothétiquement capables de résoudre certains problèmes (optimisation combinatoire, simulation moléculaire) exponentiellement plus vite que les ordinateurs classiques, avec une consommation énergétique potentiellement bien inférieure pour ces tâches spécifiques.

Forces : Si la promesse se réalise, pourrait révolutionner certains domaines (découverte de médicaments, matériaux, optimisation logistique).

Faiblesses : Encore loin de la maturité (ordinateurs quantiques actuels limités à quelques dizaines de qubits instables), pas universel (ne remplacera pas les ordinateurs classiques), nécessite températures cryogéniques (coût énergétique du refroidissement), horizon d'application industrielle encore incertain (10 à 20 ans minimum).

⇒ Priorisation radicale des usages : Ne pas déployer l'IA partout « parce qu'on peut », mais seulement là où le bénéfice social ou écologique justifie l'impact. Refuser les usages futiles ou nuisibles : publicité ciblée ultra-personnalisée, génération infinie de contenus synthétiques pour les réseaux sociaux, deep fakes récréatifs, surveillance de masse, prédiction comportementale à des fins manipulatoires.

Forces : Réduit l'impact global en éliminant les usages les moins justifiables, recentre l'innovation sur les besoins réels.

Faiblesses : Qui décide de ce qui est futile ou essentiel ? (question politique profonde), risque d'arbitraire ou de paternalisme, difficulté d'application pratique (comment interdire certains usages sans censure généralisée ?).

⇒ Green AI comme nouvelle norme scientifique : Redéfinir les critères de publication dans les revues académiques et les conférences d'IA pour valoriser systématiquement l'efficience (performance/impact) plutôt que seulement la performance brute. Exiger la publication de l'empreinte environnementale dans chaque article, comme on exige aujourd'hui la description des données et des hyperparamètres.

Forces : Transforme la culture de recherche à la source, influence la formation des futurs ingénieurs, crée émulation positive.

Faiblesses : Résistance de certaines communautés scientifiques attachées à la performance absolue, nécessite accord international des grandes conférences (NeurIPS, ICML, ICLR, etc.), risque de publications de complaisance (afficher des chiffres sans changement réel).

⇒ Infrastructures mutualisées et publiques : Plutôt que chaque entreprise construise son data center privé (souvent sous-utilisé, souvent alimenté par l'énergie disponible localement qui peut être carbonée), mutualiser les ressources de calcul sur des supercalculateurs publics nationaux ou européens, alimentés par un mix énergétique bas-carbone, accessibles via allocation de ressources sur critères scientifiques ou sociaux.

Forces : Maximise le taux d'utilisation (amortit l'empreinte sur plus d'usages), permet contrôle public de l'énergie utilisée, évite duplication inutile.

Faiblesses : Risque de file d'attente (moins de réactivité), moindre flexibilité opérationnelle, nécessite investissements publics massifs, résistance des acteurs privés qui préfèrent contrôler leurs infrastructures.

Évaluation de ce levier : Les bifurcations technologiques peuvent réduire drastiquement l'empreinte unitaire d'une IA (facteur 10, 100, voire plus dans certains cas). Mais elles ne garantissent pas une réduction d'impact global si elles s'accompagnent d'un effet rebond (les gains d'efficience sont réinvestis dans davantage d'usages). Elles doivent donc être combinées avec les leviers 1 (incitations économiques) et 2 (transparence et gouvernance) pour produire des effets systémiques.

  

3. Les limites structurelles : ce qui restera difficile même si tout va bien

Imaginons maintenant un scénario optimiste (mais réaliste) : les trois leviers précédents sont activés simultanément. Fiscalité écologique substantielle sur les data centers. Transparence obligatoire avec audits indépendants. Normalisation des ACV. Priorisation des modèles spécialisés plutôt qu'universels. Infrastructures mutualisées publiques. Économie de la fonctionnalité généralisée. Bref, un alignement politique, économique, technique et culturel vers la sobriété.

Même dans ce scénario favorable, quatre limites structurelles persisteront. Il est crucial de les identifier pour éviter les désillusions et ajuster les attentes.

Limite 1 : L'effet rebond énergétique

« L'effet rebond : quand l'efficacité nourrit la démesure plutôt que la sagesse. »

JEVONS nous guette toujours. À chaque fois qu'une technologie devient plus efficace, son usage tend à exploser, annulant tout ou partie des gains. Les LED consomment dix fois moins d'électricité que les ampoules à incandescence ; résultat, on éclaire davantage (façades de bâtiments, publicités lumineuses omniprésentes, éclairage urbain toute la nuit). Les voitures consomment deux fois moins qu'il y a trente ans ; résultat, on roule deux fois plus. Les visioconférences consomment bien moins que les déplacements en avion ; résultat, on en organise dix fois plus.

L'IA sobre, si elle devient accessible et peu coûteuse, risque d'être massivement adoptée pour des usages qui ne l'étaient pas auparavant, précisément parce qu'elle devient abordable. La consommation totale peut exploser même si la consommation unitaire diminue.

Exemple concret : Un modèle d'IA pour générer du texte publicitaire personnalisé. Version 1 (2020) : très cher, consommateur, réservé aux grandes marques pour les campagnes majeures. Version 2 (2025) : dix fois plus efficient, donc dix fois moins cher, donc accessible aux PME, aux artisans, aux micro-entrepreneurs. Résultat : cent fois plus d'usages, donc consommation totale multipliée par dix malgré l'efficience unitaire. Le coût écologique global augmente, même si le coût par requête diminue.

Contrecarrer l'effet rebond nécessite : Gouvernance des usages (refuser certains usages, même techniquement possibles, sur critère écologique ou éthique), plafonds absolus de consommation (quotas sectoriels non négociables, indépendants de l'efficience), tarification progressive (plus tu consommes, plus le coût unitaire augmente, pour décourager la surconsommation).

Aucune solution technique seule ne résout l'effet rebond. C'est un problème de gouvernance collective et de choix politique. Tant que « consommer plus » restera valorisé socialement et économiquement, l'efficience technique alimentera la croissance plutôt que la sobriété.

Limite 2 : La dépendance matérielle irréductible

L'IA n'est jamais immatérielle. Chaque modèle repose sur une infrastructure physique massive : serveurs (nécessitant métaux rares, fabrication énergivore, renouvellement fréquent), réseaux de communication (fibre optique, câbles sous-marins, antennes 5G), systèmes de refroidissement (eau en quantité colossale, fluides frigorigènes souvent problématiques), énergie (électricité en quantité gigantesque, dont une part encore largement fossile mondialement).

Cette empreinte matérielle ne peut être réduite en deçà d'un certain seuil physique incompressible : un transistor consomme une énergie minimale pour commuter, un serveur génère de la chaleur qu'il faut évacuer, un GPU nécessite des métaux rares pour ses circuits.

Le découplage absolu entre croissance numérique et impact physique est un mythe. On peut améliorer l'efficience (faire plus avec moins), mais on ne peut jamais atteindre zéro impact tant qu'il y a activité numérique. Et l'extraction des métaux rares (lithium, cobalt, terres rares) pour fabriquer les composants électroniques pose des problèmes environnementaux et sociaux considérables : pollution des nappes phréatiques (extraction du lithium au Chili), conditions de travail désastreuses (mines de cobalt en RD Congo, souvent travail d'enfants), destruction d'écosystèmes (terres rares en Chine).

Même une IA sobre restera matériellement lourde. Elle peut devenir beaucoup moins lourde qu'aujourd'hui, mais jamais « verte » au sens d'une empreinte négligeable. La question devient alors : quels usages justifient cette empreinte irréductible ? Optimiser un réseau électrique pour intégrer les renouvelables et décarboner ? Oui. Générer des images de chats portant des chapeaux pour divertir les réseaux sociaux ? Probablement non.

C'est un débat de priorisation collective, de hiérarchisation des usages selon leur utilité sociale et écologique. Et ce débat est politique, pas technique.

Limite 3 : Les inégalités d'accès à la sobriété

Les modèles sobres, s'ils se généralisent, ne seront pas également accessibles. La Green AI nécessite : compétences techniques pointues (data scientists formés aux techniques de compression, distillation, optimisation énergétique), infrastructures bas-carbone (électricité nucléaire ou renouvelable, supercalculateurs publics ou coopératifs), capacité d'investissement (développer un modèle spécialisé coûte cher, même s'il coûte moins cher ensuite à opérer), temps long (impossible dans une logique de start-up qui doit sortir un produit en six mois sous peine de disparaître).

Les grandes entreprises (Google, Microsoft, Meta) et les États riches (États-Unis, Chine, Europe) pourront se payer cette sobriété. Les PME des pays du Sud, les acteurs associatifs, les collectivités territoriales pauvres auront du mal à y accéder.

Paradoxe : la transition écologique du numérique pourrait creuser les inégalités Nord-Sud et petits/grands acteurs si elle n'est pas pensée comme un bien commun accessible à tous. Il faut donc : mutualiser les infrastructures (data centers publics accessibles à tarif régulé), partager les modèles en open source (comme BLOOM), former massivement (enseignement de la Green AI dans toutes les écoles d'ingénieurs, pas seulement les élites), financer la transition pour les acteurs fragiles (fonds dédiés, assistance technique gratuite).

Sans solidarité organisée, la Green AI deviendra un privilège de riches, renforçant les dominations existantes tout en se parant des vertus de l'écologie. Ce serait à la fois injuste et contre-productif (car une transition écologique non inclusive est une transition vouée à l'échec social et donc politique).

Limite 4 : La tension démocratique persistante

Qui décide de ce qui mérite d'être calculé ? Qui priorise les usages ? Qui fixe les plafonds ? Qui arbitre entre efficacité économique et sobriété écologique quand les deux divergent ? Ces questions ne sont pas techniques ; elles sont profondément politiques. Et elles resteront conflictuelles même si des institutions de gouvernance sont créées.

Les acteurs économiques (entreprises tech) voudront maximiser leur liberté d'innovation et leurs profits. Les États voudront préserver leur souveraineté numérique et leur compétitivité géopolitique. Les citoyens (ou du moins certains) voudront limiter la surveillance, préserver la planète, garantir l'équité. Les scientifiques voudront la liberté de recherche. Les ONG environnementales voudront des plafonds stricts. Les syndicats voudront protéger l'emploi. Les générations futures (qui n'ont pas de voix) ont intérêt à ce qu'on leur laisse une planète habitable.

Ces intérêts sont partiellement contradictoires. Aucune solution technique ne peut les concilier tous. Il faudra arbitrer, trancher, choisir. Et ces choix seront toujours contestés par ceux qui y perdent. 

La gouvernance démocratique de l'IA (inclusive, transparente, contradictoire, respectueuse des désaccords légitimes) est possible en théorie ; elle reste à inventer en pratique. Et elle sera nécessairement lente, conflictuelle, imparfaite. C'est le prix de la démocratie : elle est moins efficace que la dictature éclairée, mais elle est la seule légitime. La vraie intelligence, c'est de savoir quand la machine n'est pas la solution.

Accepter cette tension, cette lenteur, cette conflictualité permanente, c'est accepter que la convergence entre IA et éco-ingénierie ne sera jamais un état stable atteint une fois pour toutes, mais un équilibre dynamique constamment renégocié.

  

4. Conclusion : une alliance improbable mais pas impossible

Cet article a exploré la question posée en introduction : l'intelligence artificielle et l'éco-ingénierie peuvent-elles converger ?

La réponse n'est ni oui ni non. Elle est : sous certaines conditions, partiellement, difficilement, jamais complètement.

Les convergences possibles existent et sont documentées : optimisation énergétique (DeepMind), maintenance prévisionnelle (Rolls-Royce), conception générative (aéronautique), symbioses industrielles assistées, intégration des renouvelables, transparence volontaire (BLOOM, Hugging Face). Ces exemples prouvent que la technique permet une IA sobre, territorialisée, mise au service du vivant plutôt que de la croissance aveugle.

Mais ces convergences resteront marginales tant que les incitations économiques, les cadres réglementaires et les choix d'architecture ne seront pas profondément transformés. Trois leviers peuvent être activés (non exclusifs, à combiner) : transformation des incitations économiques (fiscalité carbone, bonus-malus, économie de la fonctionnalité, marchés publics éco-conditionnés), transparence et gouvernance collective (ACV standardisées, audits indépendants, open data, gouvernance démocratique des infrastructures), bifurcations technologiques (petits modèles spécialisés, distillation, neurosymbolique, priorisation des usages, Green AI comme norme scientifique).

Mais même si ces leviers sont activés, quatre limites structurelles persisteront : effet rebond énergétique (l'efficience accrue peut nourrir la croissance plutôt que la sobriété), dépendance matérielle irréductible (l'IA restera toujours physique, jamais immatérielle), inégalités d'accès (risque que la Green AI devienne un privilège de riches), tension démocratique persistante (conflits légitimes sur qui décide quoi et comment).

Ce qu'il faut retenir

L'IA sobre est techniquement possible dès aujourd'hui. Les exemples le prouvent. Ce n'est pas un horizon lointain ni une utopie ; c'est une option déjà réalisée dans certains contextes.

Elle ne se généralisera pas spontanément. La logique de marché, livrée à elle-même, produit la course au toujours plus (scaling laws, compétition géopolitique, modèles d'affaires fondés sur la croissance des données). Il faut une intervention collective délibérée pour inverser cette tendance.

Trois leviers peuvent être combinés : incitations économiques, transparence/gouvernance, bifurcations technologiques. Aucun ne suffit seul ; ensemble, ils peuvent transformer structurellement l'écosystème.

Quatre limites persisteront : effet rebond, dépendance matérielle, inégalités, tension démocratique. Il faut les anticiper, les assumer, les gérer plutôt que de les nier.

La convergence sera un processus, pas un état final. Un équilibre dynamique constamment renégocié entre efficacité technique, sobriété écologique, équité sociale, liberté d'innovation, souveraineté politique. Cela prendra des décennies. Cela sera conflictuel. C'est normal. C'est le prix de la démocratie et de la responsabilité collective.

Le choix civilisationnel

Au fond, la question posée par cette série d'articles n'était pas « peut-on faire converger IA et éco-ingénierie ? » mais « voulons-nous le faire, et à quel prix ? »

Car faire converger ces deux logiques exige des renoncements : renoncer à la course à la puissance brute, renoncer à l'opacité stratégique, renoncer à l'universalité standardisée, renoncer à l'innovation permanente comme seule boussole, renoncer à la croissance illimitée comme horizon indépassable.

Ces renoncements ne sont pas des sacrifices ; ce sont des choix d'adultes responsables. Ils ne nous appauvrissent pas ; ils nous libèrent d'une fuite en avant insensée. Ils ne nous affaiblissent pas ; ils nous rendent résilients.

Mais ils nécessitent un courage politique et une maturité collective que nous n'avons pas encore démontrés. Ils supposent de dire « non » à des possibilités techniques au nom de limites écologiques et éthiques. Ils imposent de hiérarchiser les usages, de prioriser, de choisir. Autrement dit, d'exercer un pouvoir collectif sur la technique plutôt que de la laisser se déployer selon sa seule logique interne.

La technique seule ne nous sauvera pas. Mais la technique adulte, gouvernée, orientée vers le juste nécessaire, peut devenir l'alliée de la sobriété.

L'IA peut servir le vivant. À condition qu'on le lui demande. À condition qu'on le lui impose. À condition qu'on ne la laisse pas aux seules mains de ceux qui n'ont intérêt qu'à la croissance infinie.

Le futur n'est pas écrit. Il se décide maintenant, dans les choix que nous faisons collectivement (ou que nous renonçons à faire).

Entre l'IA vorace et l'IA sobre, entre la fuite en avant technologique et la maturité écologique, entre la puissance aveugle et l'intelligence du juste nécessaire, le chemin existe. Il n'est ni facile ni confortable. Mais il existe. Et c'est déjà beaucoup.

Pour prolonger cette réflexion et replacer cet article dans la cohérence d’ensemble du cycle, voici une vue d’ensemble articulée des quatre contributions et des ressources qui en éclairent les principaux enjeux.

La technologie n'est pas le problème. La technologie sans limite, si.

📌 Point de vue Prométhée T&I

 

La convergence est possible, mais elle ne sera jamais spontanée ; elle exige des choix délibérés et parfois coûteux.

Chez Prométhée T&I, nous ne sommes ni optimistes béats ni pessimistes résignés ; nous sommes des pragmatiques engagés. Nous savons que la Green AI est techniquement réalisable (nous la pratiquons ; côté hardware et côté software) et nous savons aussi qu'elle restera marginale sans transformation profonde des incitations économiques et politiques.

Notre conviction : attendre l'autorégulation du marché ou un miracle technologique, c'est condamner indéniablement la transition écologique du numérique. Les entreprises ne renonceront pas d'elles-mêmes à la course à la puissance. Les États non plus (et certainement pas les locomotives de l'IA). Les usages non plus. Il faut des règles (malheureusement).

Ce que nous défendons :

  • Transparence obligatoire : ACV publique et auditée pour les modèles d'IA au-delà d'un seuil.
  • Taxe carbone réellement dissuasive sur les data centers (ordre de grandeur : plusieurs centaines d'euros par tonne).
  • Marchés publics éco-conditionnés : aucune prestation IA sans empreinte documentée.
  • Plafonds sectoriels d'énergie pour le numérique afin de contenir l'effet rebond...

 

Nous défendons ces positions auprès de nos clients : anticiper la régulation plutôt que la subir. Cela nous coûte parfois des opportunités ; nous l'assumons. Être expert, c'est aussi défendre ce qui est juste, même lorsque cela déplaît. Et Dieu sait que nous ne sommes pas, par tempérament, partisans d'une surrégulation normative ; mais l'absence de cadre, dans le numérique comme dans l'IA, produit des dégâts autrement plus lourds que des règles intelligemment conçues (oui, encore faut-il les concevoir intelligemment et intelligiblement).

Notre pari : les entreprises qui intégreront la sobriété dans leur « ADN » seront les mieux préparées aux règles à venir.

 

🔎 Exemple de cas client Prométhée T&I

 

Dans un site industriel multi-énergies, le client souhaitait « une IA complète » pour piloter l'ensemble des flux énergétiques. Notre audit a montré que les plus gros leviers résidaient dans trois sous-processus très localisés. Nous avons donc déployé un système hybride : IA légère + règles métier + jumeau numérique très simplifié.

Résultats après déploiement :

  • -14 % de consommation électrique
  • -8 % de gaz process
  • +21 % de productivité énergétique
  • Coût de calcul divisé par 20

 

Enseignement :

La sobriété numérique ne limite pas l'efficacité ; elle la concentre. Le pilotage efficace repose sur la précision, pas sur la démesure.

  

Pour aller plus loin

Cette série de quatre articles a exploré la tension entre intelligence artificielle et éco-ingénierie, depuis la démystification de l'IA jusqu’aux conditions d'une possible convergence. Pour en garder une vision d'ensemble cohérente, on peut la résumer ainsi.

  1. Article 1 : L'intelligence artificielle, démystifier la machine à corréler
    L'IA n'y est pas présentée comme une pensée artificielle mais comme une machine à corréler, puissante mais aveugle, dénuée de conscience et d’intentionnalité.
  2. Article 2 : L'éco-ingénierie, l'intelligence du juste nécessaire
    Il y est question d'une refondation de la pensée technique : biomimétisme, sobriété fonctionnelle, pensée systémique, au service d'une ingénierie compatible avec les limites planétaires.
  3. Article 3 : IA et éco-ingénierie, les noces impossibles ?
    Cet article cartographie les cinq tensions structurelles qui opposent ces deux logiques : maximisation contre optimisation, opacité contre traçabilité, universalité contre contextualisation, vitesse contre lenteur, divergence des dynamiques économiques.
  4. Article 4 : Vers une IA sobre, conditions d'une alliance improbable
    Le présent article montre que la convergence est techniquement possible mais politiquement improbable sans transformation profonde des incitations, de la gouvernance et des choix d’architecture.

Synthèse finale et ouverture

L'IA peut devenir un levier de la transition écologique. Elle peut optimiser les réseaux énergétiques, prolonger la durée de vie des équipements, alléger les structures, révéler des symbioses industrielles invisibles, intégrer les renouvelables. Mais elle peut aussi devenir le principal obstacle à cette transition si elle continue sa course folle vers toujours plus de puissance, toujours plus de données, toujours plus de consommation.

Entre ces deux futurs, le choix n'est pas fait. Il se joue maintenant.

Quelques ressources pour approfondir

Pour celles et ceux qui souhaitent prolonger cette réflexion ou s'engager concrètement, voici quelques pistes complémentaires (certaines académiques, d'autres militantes, d'autres institutionnelles) :

  • The Shift Project (think tank français) : rapports sur l'impact environnemental du numérique, propositions de sobriété numérique.
  • GreenIT.fr : communauté francophone sur le numérique responsable, méthodologies, retours d'expérience.
  • AI Now Institute : recherche critique sur les impacts sociaux et environnementaux de l'IA (New York University).
  • Institut du Numérique Responsable : formation, sensibilisation, accompagnement des organisations.
  • Conférences NeurIPS, ICML, FAccT : intègrent progressivement des sessions sur la Green AI, l'éthique, la transparence.
 

Questions ouvertes pour le débat citoyen

Cette série ne prétend pas clore le débat ; elle veut l'ouvrir. Voici quelques questions pour nourrir la réflexion collective, dans les entreprises, les collectivités, les établissements d'enseignement, les espaces citoyens :

  1. Priorisation des usages : Qui devrait décider quels usages de l'IA sont légitimes et lesquels sont futiles ? Sur quels critères ? Avec quels processus démocratiques ?
  2. Sobriété vs compétitivité : Peut-on accepter collectivement (Europe, par exemple) de ralentir la course technologique pour des raisons écologiques, même si cela signifie perdre des parts de marché face aux États-Unis ou à la Chine ? Quel prix sommes-nous prêts à payer pour la cohérence entre nos valeurs affichées et nos pratiques réelles ?
  3. Gouvernance des infrastructures : Les data centers sont-ils des infrastructures critiques qui devraient être publiques ou fortement régulées, comme l'eau, l'électricité, les routes ? Ou doit-on leur laisser leur statut de biens privés soumis uniquement à la régulation minimale du marché ?
  4. Transparence vs secret industriel : Jusqu'où peut-on imposer la transparence environnementale sans mettre en danger la compétitivité économique des acteurs européens face à des concurrents moins contraints ailleurs ?
  5. Formation et culture : Comment former les futurs ingénieurs pour qu'ils intègrent naturellement la sobriété comme critère de conception, au même titre que la performance, la sécurité, l'utilisabilité ?

Ces questions n'ont pas de réponse évidente. Elles méritent débat contradictoire, expérimentation locale, ajustements progressifs. L'essentiel est de ne pas les éluder au prétexte qu'elles sont complexes ou conflictuelles.

Un dernier mot

Si cette série a réussi à clarifier les enjeux, à nommer les tensions, à identifier les leviers et les limites, elle aura rempli son rôle. Elle ne prétend pas détenir la vérité ; elle propose une grille de lecture, un outillage conceptuel, une cartographie des possibles.

À vous, lecteurs, citoyens, ingénieurs, décideurs, de vous en emparer, de la discuter, de la critiquer, de l'enrichir. Et surtout, d'agir en conséquence.

Car les articles ne changent rien. Seuls les choix collectifs, traduits en normes, en budgets, en infrastructures, en pratiques quotidiennes, transforment le réel.

La convergence entre IA et éco-ingénierie ne se décrètera pas. Elle se construira, patiemment, conflictuellement, démocratiquement. Ou elle n'adviendra pas.

À nous de jouer !

 Retrouvez nos huit questions pour passer de la théorie à l'engagement

  
Bibliographie commentée

Bender, Emily M. ; Gebru, Timnit ; McMillan-Major, Angelina ; Mitchell, Margaret (2021) - On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, p. 610-623.
Article devenu référence critique sur les grands modèles de langage. Introduit la métaphore du « perroquet stochastique » pour décrire la reproduction de motifs sans compréhension sémantique. Soulève explicitement la question environnementale (coût carbone de l'entraînement) et sociale (qui peut se permettre de développer ces modèles géants ?). Essentiel pour comprendre les limites intrinsèques de l'approche « bigger is better ».

Crawford, Kate (2021) - Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press.
Cartographie exhaustive des coûts matériels, sociaux et environnementaux de l'IA. Crawford documente les chaînes d'extraction des métaux rares, les conditions de travail des annotateurs de données, la consommation énergétique massive des data centers. Démonte le mythe de l'IA immatérielle. Essentiel pour comprendre que toute sobriété numérique doit intégrer l'ensemble du cycle de vie, de l'extraction minière au recyclage.

DeepMind (2016) - DeepMind AI Reduces Google Data Centre Cooling Bill by 40%, Blog DeepMind, 20 juillet 2016.
Article technique décrivant l'utilisation d'algorithmes d'apprentissage automatique pour optimiser le refroidissement des data centers Google. Premier exemple industriel majeur d'une IA sobre produisant des gains environnementaux et économiques simultanés. Démontre qu'une IA peut réduire drastiquement la consommation énergétique d'infrastructures existantes lorsque l'incitation économique converge avec l'objectif écologique.

Jevons, William Stanley (1865) - The Coal Question: An Inquiry Concerning the Progress of the Nation, and the Probable Exhaustion of Our Coal-Mines, Macmillan.
Ouvrage historique documentant le premier effet rebond observé : l'amélioration de l'efficacité des machines à vapeur n'a pas réduit la consommation de charbon, mais l'a accrue en rendant la vapeur économiquement attractive pour de nouveaux usages. Le « paradoxe de Jevons » reste central pour comprendre pourquoi l'innovation technique seule (y compris en IA) ne garantit jamais une réduction d'impact absolu sans gouvernance des usages. Texte fondateur pour penser les effets rebond.

Luccioni, Alexandra Sasha ; Viguier, Sylvain ; Ligozat, Anne-Laure (2023) - Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language Model, Journal of Machine Learning Research, vol. 24, n° 253, p. 1-15.
Méthodologie de référence pour mesurer l'empreinte carbone d'un modèle d'IA. L'étude de BLOOM démontre qu'un modèle performant peut être sobre (environ 50 tonnes CO₂e en bilan complet, dix fois moins que GPT-3 à taille comparable) grâce à des choix d'infrastructure (mix électrique bas-carbone du supercalculateur Jean Zay), de mutualisation (infrastructure publique partagée), de gouvernance (financement public, transparence totale) et de conception (optimisation du code d'entraînement). Fait autorité pour toute ACV d'IA. Prouve qu'une autre voie est possible dès aujourd'hui.

Patterson, David ; Gonzalez, Joseph ; Le, Quoc V. et al. (2021) - Carbon Emissions and Large Neural Network Training, arXiv:2104.10350.
Rapport technique de Google Research établissant une méthode de calcul des émissions de CO₂ liées à l'entraînement de modèles de grande taille, basée sur les lois d'échelle énergétique des réseaux neuronaux. Bien que non publié dans une revue à comité de lecture, ce rapport constitue la source la plus citée pour les estimations d'empreinte carbone de GPT-3 et sert de référence méthodologique pour le calcul des impacts énergétiques des modèles massifs. Démontre la relation quasi-linéaire entre taille du modèle et consommation énergétique.

Raworth, Kate (2017) - Doughnut Economics: Seven Ways to Think Like a 21st-Century Economist, Chelsea Green Publishing.
Proposant de remplacer l'obsession de la croissance du PIB par un modèle en « donut » (entre plancher social et plafond écologique), Raworth redéfinit la prospérité comme la capacité à satisfaire les besoins humains dans les limites planétaires. Particulièrement pertinent pour penser l'IA et l'éco-ingénierie non comme disciplines techniques isolées mais comme projets politiques s'inscrivant dans un espace de viabilité écologique et sociale défini. Cadre conceptuel pour sortir de la logique de croissance illimitée.

Russell, Stuart (2019) - Human Compatible: Artificial Intelligence and the Problem of Control, Viking.
Réflexion d'un pionnier de l'IA sur les enjeux de gouvernance et de contrôle. Russell propose de redéfinir les objectifs de l'IA pour qu'elle serve l'intérêt humain plutôt que de maximiser des fonctions objectives mal spécifiées. Pertinent pour penser comment orienter l'IA vers la sobriété et la durabilité plutôt que vers la croissance illimitée et la puissance brute. Plaide pour une refondation épistémologique de la discipline elle-même.

Sanh, Victor ; Debut, Lysandre ; Chaumond, Julien ; Wolf, Thomas (2019) - DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter, arXiv:1910.01108.
Article technique sur la distillation de modèles de langage, démontrant qu'il est possible de réduire la taille d'un modèle de 40% tout en conservant 97% de ses performances et en accélérant l'inférence de 60%. Prouve que les géants universels ne sont pas toujours nécessaires et que des techniques de compression intelligentes peuvent réduire drastiquement l'empreinte opérationnelle sans sacrifier l'utilité. Illustration concrète d'une bifurcation technologique sobre.

Schwartz, Roy ; Dodge, Jesse ; Smith, Noah A. ; Etzioni, Oren (2020) - Green AICommunications of the ACM, vol. 63, n° 12, p. 54-63.
Texte programmatique opposant la « Red AI » (croissance illimitée des modèles, course aux records de performance sans considération d'impact) à la « Green AI » (efficience, traçabilité, sobriété comme critères de recherche). Propose de redéfinir les critères d'excellence scientifique en IA pour intégrer systématiquement l'impact environnemental. Appel à transformer la culture de recherche elle-même. Démontre qu'il est possible de publier des travaux de haute qualité académique tout en minimisant l'empreinte énergétique.

Strubell, Emma ; Ganesh, Ananya ; McCallum, Andrew (2019) - Energy and Policy Considerations for Deep Learning in NLPProceedings of the 57th Annual Meeting of the Association for Computational Linguistics, p. 3645-3650.
Première étude systématique de l'empreinte carbone de l'entraînement des modèles de traitement du langage naturel. Démontre que l'entraînement d'un grand modèle peut émettre autant de CO₂ que cinq voitures sur toute leur durée de vie. A contribué à déclencher la prise de conscience collective dans la communauté scientifique IA sur les impacts environnementaux. Reste une référence méthodologique malgré certaines imprécisions (reconnues et corrigées dans les travaux ultérieurs).

The Shift Project (2019) - Lean ICT: Pour une sobriété numérique, Rapport.
Premier rapport français de référence documentant l'impact environnemental croissant du numérique (4% des émissions mondiales de GES en 2019, tendance à 8% en 2025 si rien ne change - scénario projeté). Propose le concept de « sobriété numérique » comme alternative à l'approche purement techniciste de l'efficacité énergétique. Démontre que sans gouvernance des usages, les gains d'efficience sont systématiquement annulés par l'effet rebond. Fait autorité en France sur ces questions.

The Shift Project (2021) - Impact environnemental du numérique : tendances à 5 ans et gouvernance de la 5G, Rapport.
Mise à jour du rapport 2019, intégrant les nouvelles données sur la 5G, le streaming vidéo, le cloud. Affine les estimations d'impact et propose des scénarios de transition. Introduit le concept de « budget carbone numérique » par secteur. Plaide pour une régulation publique forte plutôt que pour la seule autorégulation des acteurs. Influence croissante sur les politiques publiques françaises et européennes.

Verdecchia, Roberto ; Sallou, June ; Cruz, Luís (2023) - A systematic review of Green AIWIREs Data Mining and Knowledge Discovery, vol. 13, n° 4.
Revue systématique de la littérature académique sur la Green AI, analysant 98 articles publiés entre 2019 et 2022. Identifie les consensus émergents (nécessité de mesurer et publier l'empreinte, pertinence des modèles spécialisés, importance de la distillation), les débats persistants (méthodologies de mesure, périmètres d'ACV, responsabilité éthique des chercheurs) et les angles morts (effet rebond rarement traité, dimension sociale souvent oubliée). Fait le point sur l'état de l'art académique.

Commission européenne (2024) - Artificial Intelligence Act, Règlement (UE) 2024/1689.
Texte législatif européen régulant l'IA selon une approche fondée sur les risques. Premier cadre réglementaire contraignant au monde. Impose transparence, explicabilité et supervision humaine pour les systèmes à haut risque. Représente une avancée majeure pour l'éthique algorithmique mais ne contient aucune contrainte environnementale (angle mort critique identifié par de nombreuses ONG). Illustre la difficulté politique à traiter simultanément les enjeux sociaux et écologiques.

O'Neil, Cathy (2016) - Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Crown.
Analyse critique montrant comment des algorithmes opaques peuvent automatiser et amplifier les discriminations sociales dans la justice, l'éducation, l'emploi et le crédit. Complète la dimension environnementale de cette série par sa dimension sociale : une technique durable doit aussi être juste. Démontre que l'optimisation algorithmique sans cadre éthique et sans contrôle démocratique produit systématiquement des effets pervers. Essentiel pour penser la gouvernance collective de l'IA.

Benyus, Janine M. (1997) - Biomimicry: Innovation Inspired by Nature, William Morrow.
Ouvrage fondateur du biomimétisme moderne. Benyus y développe l'idée que 3,8 milliards d'années d'évolution constituent un réservoir de solutions techniques éprouvées. Propose neuf principes du vivant applicables à l'industrie : optimiser plutôt que maximiser, recycler tout, récompenser la coopération, miser sur la diversité, utiliser l'énergie avec parcimonie. Bien qu'antérieur à l'IA moderne, ce texte éclaire la tension fondamentale entre logique de maximisation (IA) et logique d'optimisation (éco-ingénierie).

NB : Toutes les références principales s’appuient sur la littérature académique ou institutionnelle, complétée par quelques articles de vulgarisation explicitement signalés comme tels. Aucune source non traçable n’a été retenue.

Stéphane COUTANSON - Prométhée T&I - © 2025

Prométhée T&I

Réseaux sociaux

Articles récents