Aller au contenu principal
IA & éco ingénierie

Cycle « Technologie & responsabilité » - Article de fond 3/4

Étiquettes
IA et éco-ingénierie :

les noces impossibles ?

Troisième étape du cycle « Technologie & responsabilité » : explorer la convergence incertaine de deux rationalités ; ou pourquoi la technique durable reste un horizon, pas encore une réalité !

Temps de lecture : environ 40 minutes

À l'heure où l'intelligence artificielle s'impose comme la technologie la plus disruptive du XXIe siècle, et où l'urgence écologique redéfinit les conditions mêmes de l'activité industrielle, une question décisive émerge : ces deux dynamiques peuvent-elles converger, ou sont-elles structurellement incompatibles ?

Ce cycle de quatre articles propose une exploration rigoureuse, à la fois scientifique, philosophique et politique, de cette tension fondatrice. Son ambition : outiller décideurs, ingénieurs et citoyens pour comprendre ce qui se joue réellement dans la mutation technologique contemporaine, au-delà des mythes et des slogans.

La série se déploie en quatre temps :

  1. L'intelligence artificielle : démystifier la machine à calculer - Comprendre ce qu'est vraiment l'IA, ses principes techniques, ses promesses et ses angles morts.
  2. L'éco-ingénierie : l'intelligence du juste nécessaire - Explorer les fondements d'une ingénierie compatible avec les limites planétaires, sobre et systémique.
  3. IA et éco-ingénierie : les noces impossibles ? - Cartographier les cinq tensions structurelles qui opposent calcul et sobriété.
  4. Vers une IA sobre : conditions d'une alliance improbable - Identifier les convergences possibles et les conditions nécessaires à leur généralisation.

Ni technophilie béate, ni ascèse punitive : cette série défend une politique des moyens orientée vers l'efficience systémique, la mesure et la traçabilité. Elle interroge les choix civilisationnels que nous devons faire, collectivement, pour que la technique serve enfin le vivant.

Cet article ouvre le second volet du cycle « Technologie & responsabilité » de Prométhée Technologies & Ingénierie.

Après avoir, dans un premier volet, démystifié l'intelligence artificielle et exploré les fondements d'une éco-ingénierie sobre et systémique, nous voici face à la question décisive : ces deux logiques peuvent-elles converger ? L'IA peut-elle servir la sobriété, ou lui est-elle structurellement opposée ?

Ce n'est pas une question technique. C'est une question politique, civilisationnelle, philosophique. Car derrière l'apparente neutralité des algorithmes et l'évidence vertueuse de l'éco-conception se cachent des tensions profondes, rarement explicitées, qui déterminent pourtant l'avenir de notre rapport au monde.

Cet article ne promet pas de réconciliation facile. Il cartographie les contradictions, nomme les impasses, et montre pourquoi (dans leur configuration actuelle) l'IA et l'éco-ingénierie suivent des trajectoires divergentes.

« Le numérique peut simuler le monde ; seul le temps peut le réparer. »

⏱️ L'essentiel en 30 secondes

  • Cinq tensions structurelles opposent IA et éco-ingénierie : maximisation vs optimisation, opacité vs traçabilité, universalité vs contextualisation, vitesse vs lenteur, croissance vs sobriété
  • BLOOM émet 50 tonnes de CO₂e contre 500-550 pour GPT-3 à taille comparable : la sobriété est techniquement possible
  • L'AI Act européen régule l'éthique algorithmique mais ignore totalement l'empreinte environnementale
  • Sans obligation de transparence, le greenwashing algorithmique prospère
  • La course aux modèles géants est géopolitique avant d'être technique : souveraineté numérique contre sobriété planétaire
  • Ces tensions ne se résoudront pas par l'innovation seule : elles exigent des choix politiques collectifs
  

Introduction : la promesse d'un mariage contre nature

L'époque est saturée d'injonctions vertueuses qui sonnent comme des mantras rassurants.

« L'intelligence artificielle doit être sobre. »
« L'industrie doit devenir 5.0. »
« La technologie doit se réconcilier avec la planète. »

On les entend dans les conférences internationales, dans les rapports institutionnels, dans les stratégies d'entreprise. Nous aussi, chez Prométhée T&I, nous en parlons. Elles dessinent un futur radieux où puissance de calcul et limites écologiques cesseraient miraculeusement de s'opposer.

Mais la réalité, obstinée, résiste.

Les data centers prolifèrent à un rythme exponentiel, dévorant des térawattheures entiers. Les modèles d'IA deviennent toujours plus massifs ; GPT-4 consommerait plusieurs dizaines de fois plus d'énergie que GPT-3, selon des estimations non officielles mais cohérentes avec la logique d'échelle. L'éco-conception, malgré quelques vitrines exemplaires, demeure marginale dans l'industrie mondiale. Entre déclarations d'intention et transformation réelle, le fossé ne cesse de se creuser.

« Une IA peut être performante et néfaste ; l'impact n'obéit pas à la métrique du score. »

Entre IA vorace et éco-ingénierie frugale, le mariage paraît improbable. Non par fatalité technique, mais parce que leurs logiques sont structurellement opposées. L'une maximise, l'autre optimise. L'une court vers le toujours plus, l'autre cherche le juste nécessaire.

Pourquoi cette incompatibilité ? Parce que derrière les belles intentions se cachent cinq tensions structurelles que l'on préfère encore taire : tensions entre efficacité et sobriété, entre universalité et contextualisation, entre vitesse du calcul et lenteur du vivant, entre opacité algorithmique et transparence écologique, entre dynamiques économiques divergentes et régulation collective.

Cet article se propose de les nommer, de les déplier, de les penser. Car c'est en comprenant précisément ce qui sépare ces deux logiques que nous pourrons peut-être, un jour, identifier les conditions de leur rapprochement.

  

1. Maximisation contre optimisation : la tension fondatrice

Au cœur de l'incompatibilité entre IA et éco-ingénierie se trouve une divergence philosophique fondamentale sur la définition même du progrès.

L'IA, ou la logique du « toujours plus »

L'intelligence artificielle contemporaine se nourrit de données comme un organisme se nourrit de calories ; plus elle en ingère, meilleure elle devient. Cette relation quasi linéaire entre taille du modèle et performance (ce qu'on appelle la scaling law) a été documentée empiriquement par les chercheurs d'OpenAI, Google et d'autres laboratoires depuis 2020. Elle décrit une progression prévisible : doubler le nombre de paramètres, doubler le volume de données d'entraînement, doubler la puissance de calcul produisent des gains mesurables et reproductibles.

Résultat : une course mondiale à l'armement algorithmique où chaque acteur doit grossir pour ne pas disparaître.

GPT-3 (2020) : 175 milliards de paramètres, environ 1 287 MWh consommés pendant l'entraînement, de l'ordre de 500 à 550 tonnes de CO₂e émises selon les estimations indirectes de Patterson et al. (2021), rapport technique de Google Research basé sur les lois d'échelle énergétique des réseaux neuronaux.

Encart méthodologique sur GPT-4

Les chiffres relatifs à GPT-4 cités dans cet article (51 000 à 62 000 MWh pour l'entraînement, soit 40 à 48 fois plus que GPT-3) proviennent d'estimations extrapolées publiées dans la littérature de vulgarisation scientifique (LUDVIGSEN, 2023), OpenAI n'ayant communiqué aucune donnée officielle sur l'empreinte énergétique de ce modèle. La plupart des IA consomment trop parce qu'on leur demande trop.

Ces estimations reposent sur plusieurs hypothèses : l'augmentation connue du nombre de paramètres (estimés entre 1 000 et 1 700 milliards selon diverses sources industrielles), la complexité accrue de l'entraînement (architecture multimodale, techniques de renforcement avancées), l'application des scaling laws documentées empiriquement (PATTERSON et al., 2021).

Malgré leur caractère non vérifié officiellement, ces ordres de grandeur sont cohérents avec la logique d'échelle énergétique des réseaux neuronaux. Ils illustrent une tendance structurelle : l'explosion de la consommation énergétique des modèles d'IA de nouvelle génération.

L'absence de transparence d'OpenAI sur ces données renforce l'un des arguments centraux de cette série : sans obligation réglementaire de publication, la sobriété énergétique de l'IA restera invérifiable.

 

Même si ces chiffres sont incertains dans leur précision, la logique sous-jacente demeure incontestable : plus = mieux. Toujours.

Cette dynamique n'est pas un accident ou une dérive corrigible par de meilleures pratiques ; elle est inscrite dans la structure économique et géopolitique de l'IA contemporaine. Tant que la performance brute restera le critère de compétitivité entre États-nations et entre géants technologiques, tant que les investisseurs valoriseront la puissance plutôt que la sobriété, la course continuera. Personne n'accepte volontairement de ralentir dans un jeu où celui qui ralentit disparaît.

L'éco-ingénierie, ou la discipline du juste nécessaire

À l'exact opposé de ce spectre philosophique, l'éco-ingénierie impose une sobriété méthodique : faire mieux avec moins, allonger radicalement la durée de vie, fermer hermétiquement les boucles matérielles. Elle part d'un constat implacable ; sur une planète finie, la croissance infinie est une impossibilité mathématique. Il faut donc repenser la notion même de progrès (non plus comme accumulation quantitative, mais comme amélioration qualitative).

BLOOM (2022) en est l'illustration parfaite. Ce modèle francophone open source de 176 milliards de paramètres, comparable en taille à GPT-3, a été entraîné sur le supercalculateur français Jean Zay, alimenté majoritairement par de l'énergie nucléaire bas-carbone. Résultat : environ 50 tonnes de CO₂e émises en bilan complet (LUCCIONI et al., 2023), soit dix fois moins que GPT-3 à taille comparable.

Pas de miracle technologique ici. Seulement des choix de conception rationnels : un mix énergétique bas-carbone (nucléaire français plutôt que gaz ou charbon), une infrastructure optimisée (mutualisation des ressources de calcul, refroidissement efficace), une transparence totale (publication de l'empreinte carbone, code open source, méthodologie documentée), une gouvernance publique (financement par le GENCI, accessibilité pour la recherche académique).

BLOOM démontre qu'une IA performante peut être sobre. Mais il démontre aussi, par son statut d'exception, que cette sobriété n'advient pas spontanément. Elle exige une volonté politique, un financement public déconnecté de la logique de profit immédiat, une infrastructure nationale bas-carbone. Peu de laboratoires privés s'y risquent, faute d'incitation économique.

Le dilemme géopolitique : puissance contre sobriété

Tant que l'IA sera un instrument de puissance entre États-nations (outil de souveraineté numérique, vecteur d'influence économique, avantage militaire stratégique), elle restera structurellement en tension avec la frugalité.

La Green AI, concept théorisé par SCHWARTZ et al. (2019) en opposition à la Red AI (puissance à tout prix), suppose de redéfinir radicalement ce que l'on entend par « progrès » en intelligence artificielle. Non plus la taille d'un modèle, non plus sa vitesse d'entraînement ou le nombre de benchmarks qu'il domine, mais son rapport efficacité / impact environnemental et social.

Cela signifierait valoriser un modèle de 10 milliards de paramètres efficient et sobre plutôt qu'un mastodonte de 1 000 milliards. Cela signifierait récompenser la transparence énergétique plutôt que l'opacité commerciale. Cela signifierait privilégier les modèles spécialisés et territorialisés plutôt que les géants universels.

Mais dans un système capitaliste mondialisé où la course à l'innovation est un jeu à somme nulle (où ralentir signifie perdre des parts de marché, de l'influence, de la compétitivité), qui acceptera volontairement cette redéfinition ?

Tension irrésolue : Tant que la sobriété sera perçue comme un handicap concurrentiel plutôt que comme une exigence civilisationnelle, l'IA restera prisonnière de sa logique maximisatrice. Cette tension ne se résoudra pas spontanément par la seule vertu des acteurs ou par l'innovation technique. Elle pose une question de coordination collective et de choix civilisationnel.

  

2. Opacité algorithmique contre exigence de traçabilité

Une deuxième tension, tout aussi fondamentale, oppose l'IA et l'éco-ingénierie : celle entre l'opacité intrinsèque des systèmes d'apprentissage profond et l'exigence de traçabilité totale que requiert toute démarche écologique sérieuse.

Les réseaux de neurones : boîtes noires par nature

Le deep learning, architecture dominante de l'IA contemporaine, ajuste des millions (parfois des milliards) de paramètres invisibles au cours de l'entraînement. Ces paramètres (poids synaptiques, biais, fonctions d'activation) ne correspondent à aucun concept humain intelligible. Personne, pas même les concepteurs du système, ne peut expliquer exactement pourquoi un réseau de neurones décide ainsi pour une entrée donnée.

On peut visualiser les neurones activés, cartographier les gradients, calculer des attributions de Shapley pour identifier les features les plus influentes. Mais ces techniques d'Explainable AI (XAI) ne font que décrire des corrélations statistiques ; elles ne révèlent aucune logique causale compréhensible. Le « raisonnement » d'une IA profonde demeure fondamentalement étranger à notre façon de penser.

Or l'éco-ingénierie repose sur l'analyse du cycle de vie (ACV) : tout doit être mesuré, tracé, comptabilisé, de l'extraction de la matière première jusqu'à la fin de vie et le recyclage. Chaque kilogramme de matériau, chaque kilowattheure consommé, chaque litre d'eau utilisé doit apparaître dans le bilan. C'est la condition sine qua non de toute démarche crédible.

Comment éco-concevoir un système dont la logique interne demeure opaque ? Comment auditer l'empreinte d'un algorithme qu'on ne comprend pas ? Comment optimiser ce qu'on ne peut mesurer précisément ?

L'explicabilité, condition de sobriété

Pour qu'une IA soit sobre, il faut pouvoir mesurer rigoureusement plusieurs dimensions de son impact ; c'est précisément là que le bât blesse.

Note méthodologique sur le coût énergétique par requête

La fourchette citée dans cet article (0,3 à 3 Wh par requête ChatGPT) provient d'analyses de vulgarisation scientifique (RITCHIE, 2025) et reflète l'incertitude méthodologique inhérente à ce type de mesure.

Cet écart d'un facteur 10 s'explique par la différence entre deux approches de calcul : coût marginal (0,3 à 0,5 Wh), énergie directement et exclusivement attribuable au traitement d'une requête spécifique (calcul GPU, transfert de données) ; coût moyen incluant l'infrastructure permanente (2 à 3 Wh), répartition du coût total du système sur l'ensemble des requêtes, incluant serveurs en veille, refroidissement permanent, réseau, redondance, maintenance.

D'autres facteurs amplifient cette variabilité : taille du modèle sollicité (GPT-3.5 Turbo vs GPT-4), type de réponse (courte et simple vs longue avec raisonnement complexe, chaîne de pensée), efficacité de l'infrastructure (PUE du data center, utilisation de processeurs spécialisés), taux d'utilisation réel (un serveur à 20% de charge consomme presque autant qu'à 100%, mais produit cinq fois moins).

 

Cette incertitude elle-même révèle l'opacité du système : nous ne savons pas exactement ce que coûte un acte cognitif automatisé. Sans méthodologie standardisée de mesure, il est impossible d'optimiser, de réguler ou de facturer au juste prix écologique.

Sans mesure de l'impact, la sobriété n'est qu'un slogan.

Les externalités matérielles sont tout aussi opaques. La fabrication d'un GPU moderne (Nvidia H100, utilisé massivement pour l'entraînement des grands modèles) requiert : l'extraction de terres rares (néodyme, dysprosium) dans des conditions environnementales et sociales souvent désastreuses, une consommation d'eau colossale pour la fabrication des puces (plusieurs milliers de litres par wafer de silicium), des processus chimiques complexes générant des déchets toxiques, une chaîne logistique mondiale énergivore.

Et cette infrastructure matérielle est renouvelée à un rythme effréné. Un GPU de data center est considéré comme obsolète au bout de 3 à 5 ans, parfois moins dans la course technologique. Des millions de processeurs parfaitement fonctionnels sont mis au rebut chaque année, non parce qu'ils sont cassés, mais parce qu'ils ne sont plus assez rapides pour rester compétitifs.

L'effet rebond énergétique complète le tableau : plus un modèle est performant, plus il est utilisé, donc plus il consomme globalement. L'efficacité énergétique par requête peut diminuer (progrès technique) tandis que la consommation totale explose (explosion des usages). C'est le paradoxe de JEVONS appliqué au numérique ; l'amélioration technique ne garantit jamais, en soi, une réduction d'impact absolu.

Le vide réglementaire énergétique

L'AI Act européen, entré en vigueur en août 2024, représente une avancée législative majeure. Il impose transparence, explicabilité et supervision humaine pour les systèmes à haut risque (recrutement, justice, crédit, surveillance). C'est une victoire pour l'éthique algorithmique, pour la protection des droits fondamentaux, pour la lutte contre les discriminations automatisées.

Mais il ne contient aucune contrainte énergétique ou environnementale.

On peut auditer un biais social (vérifier qu'un algorithme ne discrimine pas selon l'origine ethnique ou le genre) sans jamais mesurer le wattheure qu'il consomme, sans jamais comptabiliser les tonnes de CO₂e qu'il émet, sans jamais questionner la provenance de l'électricité qui l'alimente. Le législateur européen a choisi de réguler l'éthique, mais pas l'écologie. Comme si les deux étaient dissociables.

Tension irrésolue : Sans méthodes standardisées de mesure de l'impact environnemental de l'IA, sans obligation de publication, sans mécanismes de vérification indépendante, la sobriété énergétique restera largement invérifiable. L'opacité actuelle (qu'elle soit technique ou stratégique) rend impossible toute gouvernance écologique efficace de l'IA.

  

3. Universalité algorithmique contre contextualisation écologique

Une troisième tension, plus subtile mais tout aussi structurante, oppose la logique d'universalité de l'IA moderne à la logique de contextualisation qui fonde l'éco-ingénierie.

Le rêve du modèle universel

GPT-4 traduit des dizaines de langues, code dans tous les langages informatiques, rédige des essais philosophiques, diagnostique des maladies, conseille des stratégies d'entreprise, compose de la musique. L'IA contemporaine cherche l'universalité : un seul modèle pour mille usages, une seule architecture pour tous les contextes, toutes les langues, toutes les cultures.

Cette universalité promet des économies d'échelle colossales : plutôt que de développer mille modèles spécialisés, on en développe un seul, gigantesque, qui fait tout. Le coût marginal d'un usage supplémentaire devient dérisoire une fois l'investissement initial amorti. C'est économiquement rationnel dans une logique capitaliste classique.

Mais cette logique entre en tension avec l'éco-ingénierie, qui pense le monde en contextes, en territoires, en spécificités locales irréductibles.

L'éco-ingénierie, science du territoire

Un bâtiment bioclimatique conçu pour Marseille (climatisation passive par ventilation nocturne, inertie thermique pour lisser les pics de chaleur, protections solaires omniprésentes, végétalisation pour l'évapotranspiration) n'a rigoureusement rien à voir avec un bâtiment pour Oslo (isolation renforcée contre le froid, maximisation des apports solaires hivernaux, récupération systématique de la chaleur, triple vitrage, étanchéité à l'air poussée à l'extrême).

Ce ne sont pas deux variantes d'un même modèle ; ce sont deux conceptions radicalement différentes, adaptées à des climats, des ressources locales, des cultures constructives spécifiques. Vouloir imposer une « solution universelle » au bâtiment serait une absurdité technique et un désastre écologique.

De même, une symbiose industrielle comme celle de Kalundborg fonctionne parce que les entreprises partagent géographiquement leurs flux ; le surplus de chaleur de la centrale électrique peut chauffer les foyers voisins parce qu'ils sont à moins de dix kilomètres. La vapeur peut alimenter la raffinerie parce qu'elle est à côté. Le gypse peut devenir matière première pour les plaques de plâtre parce qu'une usine appropriée est implantée localement.

Cette symbiose n'est pas exportable telle quelle. On ne peut pas copier-coller Kalundborg à Shanghai ou à São Paulo. Il faut la réinventer localement en fonction des industries présentes, des distances physiques, des contraintes réglementaires, des savoir-faire disponibles, des ressources du territoire. La durabilité est toujours située.

L'agriculture de précision : promesse technologique ou mirage écologique ?

L'IA appliquée à l'agriculture illustre parfaitement cette tension. Les promoteurs de l'« agriculture de précision » promettent d'optimiser les intrants plante par plante grâce à des capteurs omniprésents, des drones survolant les parcelles, des algorithmes analysant en temps réel l'état hydrique du sol, la vigueur des plants, la pression parasitaire. Résultat annoncé : réduction de 20 à 30% des pesticides et engrais, augmentation des rendements, agriculture « plus verte ».

Mais cette promesse a un coût matériel et énergétique considérable, rarement comptabilisé : capteurs connectés dans chaque parcelle (fabrication, installation, maintenance, connectivité 4G/5G permanente), drones ou satellites pour l'imagerie (fabrication, lancement, traitement des données en data centers distants), serveurs pour traiter et stocker les téraoctets de données produites quotidiennement, machines agricoles pilotées par GPS de précision centimétrique (coût d'acquisition, dépendance aux constellations satellites, complexité de maintenance), formation technique des agriculteurs (souvent âgés, parfois isolés, pas toujours à l'aise avec le numérique).

Un coût accessible uniquement aux exploitations fortement capitalisées. L'agriculture de précision est, de fait, une agriculture de riches. Elle creuse les inégalités entre grandes exploitations mécanisées et petites fermes paysannes.

À l'opposé, l'agriculture régénératrice (non-labour pour préserver la structure du sol, couverts végétaux permanents pour nourrir la biologie souterraine, agroforesterie pour la diversité et la résilience, rotation complexe des cultures) obtient des résultats écologiques comparables sur le long terme, sans aucune high-tech. Elle repose sur l'observation paysanne, la connaissance intime du terroir, l'expérimentation locale, la transmission des savoir-faire. Elle restaure les sols, séquestre du carbone, reconstruit la biodiversité, réduit la dépendance aux intrants. Et elle est accessible aux petites exploitations.

Alors, l'IA est-elle vraiment nécessaire ? Ou n'est-elle qu'une sophistication technique qui répond davantage aux intérêts de l'industrie numérique qu'aux besoins réels de la transition écologique ?

Tension irrésolue : La diversité écologique contredit la standardisation algorithmique. Les modèles universels géants optimisent pour l'universalité et l'échelle économique ; l'éco-ingénierie optimise pour la pertinence contextuelle et la résilience locale. Ces deux logiques peuvent-elles coexister ? Cela supposerait de renoncer aux économies d'échelle des mastodontes universels au profit de multiples modèles spécialisés et territorialisés, un renversement complet du modèle économique actuel.

  

4. Temporalités incompatibles : vitesse du calcul contre lenteur du vivant

L'IA optimise une fonction ; la nature régule un équilibre. Ce ne sont pas les mêmes logiques. 

Une quatrième tension, peut-être la plus profonde, oppose les rythmes mêmes de l'IA et de l'éco-ingénierie.

Vitesse du calcul contre lenteur du vivant

L'IA vit dans le temps court de la Silicon Valley, dans l'ivresse de l'innovation permanente. Trois ans entre GPT-3 et GPT-4 (une éternité dans cette industrie). Le matériel est renouvelé tous les 3 à 5 ans, parfois moins. Les architectures de réseaux neuronaux se succèdent à un rythme effréné : transformers (2017), GPT (2018), BERT (2018), GPT-2 (2019), GPT-3 (2020), diffusion models (2020), DALL-E (2021), GPT-4 (2023), et depuis peu GPT-5, de modèles multimodaux toujours plus grands, toujours plus rapides.

Cette accélération produit une obsolescence matérielle massive et un gaspillage de ressources colossal. Des millions de GPU parfaitement fonctionnels sont mis au rebut, des data centers entiers sont reconstruits avant même d'avoir amorti leur investissement énergétique initial. La course technologique devient une fuite en avant dévastatrice.

L'éco-ingénierie, elle, œuvre dans le temps long (celui des cycles naturels, incompressibles, irréductibles).

Régénération d'un sol dégradé : 10 à 50 ans selon l'intensité de la dégradation initiale et les pratiques mises en œuvre. Un sol vivant ne se décrète pas ; il se reconstruit lentement, par accumulation progressive de matière organique, par restauration des réseaux mycéliens, par retour de la faune du sol.

Maturation d'une symbiose industrielle : 20 à 30 ans pour qu'un écosystème d'entreprises apprenne à travailler ensemble, développe la confiance mutuelle, ajuste les flux au fil des évolutions, intègre de nouveaux acteurs. Kalundborg a mis cinquante ans pour atteindre sa configuration actuelle. Ce n'est pas de la lenteur bureaucratique ; c'est le temps nécessaire à l'apprentissage collectif, à la stabilisation des partenariats, à l'optimisation progressive.

Reconstitution d'un écosystème forestier : un siècle, parfois plusieurs. Planter des arbres ne suffit pas ; il faut que se reconstituent les strates de végétation (mousses, herbacées, arbustes, canopée), que reviennent les champignons mycorhiziens, que se rétablissent les chaînes trophiques, que la faune colonise à nouveau. Une forêt mature est le résultat d'une co-évolution lente, complexe, imprévisible.

Transition d'un système énergétique : plusieurs décennies pour remplacer les infrastructures fossiles (centrales, réseaux, usages), former les compétences nécessaires, adapter les comportements sociaux, amortir les investissements antérieurs. On ne décrète pas la sobriété ; on la construit patiemment, par ajustements successifs.

Jumeaux numériques : simuler n'est pas réparer

Les digital twins (jumeaux numériques) incarnent cette tension temporelle. Ils promettent d'accélérer la conception, de réduire les prototypes physiques, de tester virtuellement des milliers de scénarios en quelques heures. Siemens a ainsi économisé 30% d'énergie sur certaines de ses usines en simulant les flux thermiques et en ajustant en temps réel les paramètres de production.

C'est indéniablement utile. Mais la simulation a des limites épistémologiques fondamentales.

Elle n'intègre pas les imprévus du terrain (pannes inattendues, erreurs humaines, conditions climatiques extrêmes non anticipées, dégradations progressives des matériaux). Elle repose sur des modèles simplifiés qui peuvent manquer des interactions complexes, des boucles de rétroaction non linéaires, des effets de seuil. Elle ne remplace pas l'observation longue des systèmes réels dans leur environnement.

Un jumeau numérique d'écosystème forestier, aussi sophistiqué soit-il, ne capturera jamais la complexité des interactions entre sol (minéralogie, hydrologie, biologie), mycorhizes (centaines d'espèces de champignons symbiotiques avec des rôles différents), faune (des bactéries aux grands mammifères), climat (précipitations, température, vent, luminosité), perturbations (tempêtes, sécheresses, incendies, maladies). La nature n'est pas réductible à un modèle, aussi détaillé soit-il.

Le numérique peut simuler le monde ; seul le temps peut le réparer.

Tension irrésolue : Deux rythmes inconciliables coexistent. D'un côté, l'accélération technologique continue (cycles d'innovation de plus en plus courts, obsolescence matérielle de plus en plus rapide). De l'autre, les cycles longs du vivant qui ne peuvent être compressés. Cette asynchronie pose une question vertigineuse : peut-on gouverner le temps long avec des outils pensés pour le temps court ? La régénération écologique exige patience, observation, ajustement progressif, exactement l'inverse de la logique d'innovation disruptive permanente qui anime l'IA.

  

5. Gouvernance : qui fixe les règles du jeu ?

Toutes ces tensions convergent vers une question politique décisive : qui gouverne l'IA ? Qui décide de ses finalités, de ses limites, de ses règles de fonctionnement ? Cette question n'est pas technique ; elle est éminemment politique, et elle détermine si la convergence avec l'éco-ingénierie est possible ou non.

La capture des promesses par les Big Tech

Google, Microsoft, Amazon, Meta, Apple dominent à la fois le cloud (infrastructures de calcul), les données (milliards d'utilisateurs captifs) et les modèles d'IA (investissements massifsen R&D, recrutement des meilleurs chercheurs). Cette intégration verticale leur confère un pouvoir quasi monopolistique sur l'ensemble de la chaîne de valeur numérique.

Tous promettent des infrastructures « zéro carbone » d'ici 2030, financent des programmes de recherche sur la Green AI, affichent des engagements climatiques ambitieux. Mais dans le même temps, ils multiplient les data centers énergivores, augmentent exponentiellement la taille de leurs modèles, poussent à la consommation effrénée de services numériques.

Le conflit d'intérêts est structurel : leur modèle économique repose sur la croissance exponentielle de la consommation de données et de calcul. Plus vous utilisez leurs services, plus ils collectent de données, plus ils peuvent entraîner de modèles performants, plus ils peuvent vendre de services, plus ils génèrent de profits. La sobriété menacerait directement leur rentabilité.

Peut-on sérieusement attendre qu'ils se sabordent volontairement au nom du climat ? L'histoire économique répond clairement : aucune industrie ne s'est jamais autorégulée efficacement contre ses propres intérêts financiers. Le tabac ne s'est pas autorégulé ; il a fallu des décennies de combat législatif. L'automobile n'a pas spontanément réduit ses émissions ; il a fallu des normes contraignantes. L'industrie pharmaceutique n'a pas volontairement baissé ses prix ; il a fallu des régulations nationales.

« Plus un système est puissant, plus il a besoin de limites. »

L'autorégulation volontaire : un échec documenté

Le Partnership on AI, lancé en 2016 par Amazon, Apple, DeepMind, Facebook, Google, IBM et Microsoft, se présentait comme une initiative historique : les géants de la tech s'engageant volontairement à développer une IA éthique, transparente, bénéfique pour l'humanité.

Sept ans plus tard, le bilan est maigre. Des rapports, des conférences, des déclarations d'intention, mais aucune contrainte réelle, aucun mécanisme de sanction, aucun changement structurel dans les pratiques. Les mêmes entreprises qui signaient ces engagements ont continué à développer des modèles toujours plus massifs, à opacifier leurs pratiques, à externaliser leurs coûts environnementaux.

Les engagements climatiques reposent massivement sur des compensations carbone douteuses : crédits achetés à des projets non additionnels (qui auraient eu lieu de toute façon, indépendamment du financement carbone), plantations d'arbres dans des zones déjà forestières (donc sans gain réel de séquestration), périmètres de mesure choisis pour minimiser artificiellement l'empreinte (exclusion de la fabrication du matériel, du transport, de la consommation des utilisateurs finaux), promesses à horizon 2030 ou 2050 sans trajectoire contraignante ni mécanisme de vérification indépendant.

Le greenwashing est devenu un art. On affiche « neutralité carbone » tout en continuant à augmenter ses émissions absolues. On plante des arbres tout en construisant de nouveaux data centers au charbon. On parle de « durabilité » tout en programmant l'obsolescence de ses appareils tous les deux ans.

Régulations : avancées et angles morts

L'AI Act européen, adopté en mars 2024 et entré progressivement en vigueur depuis août 2024, représente une avancée législative majeure à l'échelle mondiale. Pour la première fois, une puissance économique de premier plan régule l'intelligence artificielle selon une approche fondée sur les risques.

Le texte impose : transparence (obligation d'informer les utilisateurs qu'ils interagissent avec une IA), explicabilité (pour les systèmes à haut risque, obligation de pouvoir expliquer les décisions), supervision humaine (un humain doit pouvoir intervenir et corriger les décisions algorithmiques), interdiction de certains usages (notation sociale généralisée à la chinoise, manipulation comportementale, reconnaissance faciale en temps réel dans l'espace public sauf exceptions strictement encadrées), obligations renforcées pour les modèles à usage général (GPAI) présentant des risques systémiques.

C'est une victoire pour l'éthique algorithmique, pour la protection des droits fondamentaux, pour la lutte contre les discriminations automatisées. L'Europe affirme sa souveraineté réglementaire face aux géants technologiques américains et chinois.

Mais l'AI Act ne contient aucune contrainte climatique. Pas d'obligation de publier l'empreinte carbone des modèles. Pas de plafond de consommation énergétique. Pas de taxe carbone sur les data centers. Pas d'obligation d'utiliser de l'électricité bas-carbone. Pas de durée de vie minimale imposée pour le matériel. Pas de pénalité pour l'obsolescence programmée des serveurs.

On peut auditer un biais social sans jamais mesurer le wattheure. On peut vérifier qu'un algorithme de recrutement ne discrimine pas selon le genre ou l'origine ethnique sans jamais comptabiliser les tonnes de CO₂ qu'il émet. Comme si éthique et écologie étaient dissociables. Comme si on pouvait avoir une IA « juste » mais climaticide.

Aux États-Unis, la régulation est quasi inexistante : la priorité stratégique est à la compétitivité économique et militaire face à la Chine. L'administration Biden a publié en 2023 un décret présidentiel fixant quelques garde-fous, mais aucune contrainte environnementale. Le Congrès reste bloqué sur toute tentative de régulation substantielle.

En Chine, l'État contrôle étroitement l'IA pour des raisons de sécurité nationale et de contrôle social, mais l'environnement n'est pas une priorité. Les data centers chinois tournent majoritairement au charbon. La Chine investit massivement dans l'IA pour rattraper puis dépasser les États-Unis ; la sobriété énergétique n'est pas à l'agenda.

Aucune gouvernance globale ne mesure encore l'impact climatique cumulé des IA géantes. Il n'existe pas d'équivalent du GIEC pour l'intelligence artificielle (pas d'instance scientifique internationale chargée d'évaluer de manière indépendante, transparente et contradictoire les impacts environnementaux du secteur numérique et de l'IA).

Les scénarios possibles

Face à cette situation, plusieurs trajectoires se dessinent, chacune avec ses forces, ses faiblesses, ses probabilités d'advenir.

 

Scénario A : Régulation publique contraignante

Description : L'État (ou des coalitions d'États comme l'UE) impose des normes strictes ; plafonds d'émissions sectoriels, audits indépendants obligatoires, publication des ACV, sanctions dissuasives, éco-conditionnalité des aides publiques.

Forces : Efficacité garantie si bien appliquée, égalise le terrain de jeu concurrentiel, peut s'imposer rapidement par décision politique.

Faiblesses : Risque de capture réglementaire (lobbies qui affaiblissent les normes), délocalisation vers des juridictions moins exigeantes, complexité de coordination internationale, rigidité face aux évolutions technologiques.

Probabilité : Moyenne-faible à court terme (résistance politique massive), moyenne-élevée à moyen terme si pression citoyenne suffisante.

 

Scénario B : Autorégulation sectorielle renforcée

Description : Les acteurs de l'industrie créent des standards volontaires mais audités par des tiers indépendants ; coalitions d'entreprises s'engageant sur des trajectoires vérifiables, certifications, labels de qualité environnementale.

Forces : Plus flexible que la régulation étatique, peut intégrer l'expertise technique des acteurs, évite les lourdeurs bureaucratiques.

Faiblesses : Historique d'échec documenté (Partnership on AI), passagers clandestins (free riders qui profitent sans contribuer), absence de sanction réelle, risque permanent de greenwashing.

Probabilité : Élevée formellement (beaucoup d'initiatives lancées), faible substantiellement (peu d'impact réel sur les pratiques).

 

Scénario C : Mécanismes de marché incitatifs

Description : Taxe carbone substantielle et progressive sur les data centers, tarification au coût environnemental réel, subventions massives aux modèles sobres, marchés publics éco-conditionnés qui créent une demande pour les solutions vertueuses.

Forces : Utilise la logique économique existante, crée des incitations positives plutôt que seulement des interdictions, peut être progressif (commencer bas, augmenter graduellement).

Faiblesses : Nécessite un prix carbone très élevé pour être dissuasif (300 à 500€/tonne minimum), risque d'inégalités (seuls les riches peuvent payer), délocalisation facile si pas de coordination internationale, effet rebond si les gains d'efficience sont réinvestis dans la croissance.

Probabilité : Moyenne (politiquement plus acceptable qu'interdictions, mais nécessite consensus sur niveau de taxation).

 

Scénario D : Ruptures technologiques

Description : Innovation de rupture qui change radicalement l'équation ; architectures neuromorphiques ultra-frugales, ordinateurs quantiques économes, IA symbolique hybride performante, nouveaux paradigmes qui découplent performance et consommation.

Forces : Résout le problème à la source plutôt que de le contraindre, peut créer de nouveaux avantages compétitifs, compatible avec la logique d'innovation.

Faiblesses : Incertitude radicale (on ne peut prédire les ruptures), risque que les gains soient réinvestis dans encore plus de croissance (effet rebond), délais longs (10 à 20 ans minimum pour maturité), aucune garantie que ces technologies émergent.

Probabilité : Faible à moyen terme (pas de rupture visible à horizon 5 à 10 ans), inconnue à long terme.

 

Scénario E : Bifurcations territoriales

Description : Divergence géographique ; l'Europe impose sobriété et transparence (quitte à ralentir), les États-Unis et la Chine continuent la course à la puissance, création de modèles régionaux incompatibles, fragmentation de l'écosystème IA mondial.

Forces : Permet à différentes visions politiques de coexister, l'Europe peut démontrer qu'une autre voie est possible, souveraineté numérique accrue.

Faiblesses : Risque de marginalisation européenne si perte de compétitivité, difficulté à imposer des standards mondiaux, multiplication des coûts (interopérabilité réduite), tensions géopolitiques accrues.

Probabilité : Élevée (déjà en cours avec l'AI Act européen vs laissez-faire américain vs contrôle étatique chinois).

 

Scénario F : Statu quo et escalade

Description : Aucune coordination ne se produit, la course continue, chaque acteur maximise ses intérêts court-termistes, les tensions s'aggravent jusqu'à un point de rupture (crise énergétique, révolte sociale, effondrement partiel).

Forces : Aucune (sauf pour les acteurs dominants à court terme).

Faiblesses : Insoutenabilité écologique garantie, aggravation des inégalités, risque systémique croissant, probable correction brutale et chaotique.

Probabilité : Malheureusement élevée par inertie si aucun des autres scénarios ne se matérialise.

Tension irrésolue : La question de la gouvernance n'est pas technique mais politique. Qui décide ? Selon quels critères ? Au service de quelles finalités ? Les Big Tech plaident pour l'autorégulation (scénario B) ; les ONG environnementales pour la régulation contraignante (scénario A) ; les économistes libéraux pour les mécanismes de marché (scénario C) ; les chercheurs pour l'innovation de rupture (scénario D). Aucun scénario ne s'impose naturellement. Le choix dépendra des rapports de force politiques, de la mobilisation citoyenne, des crises qui surviendront, des coalitions qui se formeront.

  

6. Conclusion : des tensions structurelles, pas des accidents

Les cinq tensions explorées dans cet article ne sont pas des bugs corrigibles par de meilleures pratiques, par davantage de sensibilisation, par un peu plus de bonne volonté. Ce sont des contradictions structurelles inscrites dans la logique même de l'IA contemporaine et de l'éco-ingénierie.

1. Maximisation contre optimisation : la scaling law (toujours plus gros = toujours meilleur) contre la sobriété fonctionnelle (le juste nécessaire, intelligemment conçu).

2. Opacité contre traçabilité : les boîtes noires algorithmiques contre l'exigence d'ACV rigoureuse, mesurée, vérifiable.

3. Universalité contre contextualisation : le modèle géant unique pour tous les contextes contre la diversité territoriale, la spécificité des situations, l'adaptation locale.

4. Vitesse contre lenteur : l'obsolescence accélérée du matériel (3 à 5 ans) contre les cycles longs du vivant (10 à 100 ans), le temps court de l'innovation contre le temps long de la régénération.

5. Divergence des dynamiques économiques : la croissance exponentielle comme modèle d'affaires contre la sobriété comme exigence civilisationnelle.

Ces tensions ne disparaîtront pas d'elles-mêmes. Elles ne se résoudront pas par l'innovation technique seule ou par la bonne volonté des acteurs. Elles posent des questions de choix collectif.

Accepte-t-on que l'IA soit un instrument de puissance géopolitique au détriment de la sobriété écologique ? Ou cherche-t-on à construire des formes de coordination internationale qui permettent de ralentir collectivement ?

Laisse-t-on les acteurs économiques définir seuls les règles du jeu, ou construit-on des formes de gouvernance collective (qu'elles soient étatiques, coopératives, ou hybrides) ?

Privilégie-t-on la performance absolue (le modèle le plus gros, le plus rapide) ou l'efficacité systémique (le meilleur rapport service rendu / impact environnemental) ?

Choisit-on l'universalité standardisée (un modèle pour tout faire) ou la diversité contextuelle (des modèles adaptés, territorialisés, frugaux) ?

Valorise-t-on la vitesse du calcul (innovation permanente, renouvellement effréné) ou acceptons-nous la lenteur du vivant (régénération patiente, temps long de la réparation) ?

Ces questions ne sont pas neutres. Elles ne sont pas techniques. Elles sont profondément politiques, philosophiques, civilisationnelles. Elles dessinent des futurs radicalement différents.

Dans un premier futur, l'IA continue sa course folle vers toujours plus de puissance, toujours plus de données, toujours plus de consommation énergétique. Elle devient l'alliée objective du dérèglement climatique, de l'épuisement des ressources, de l'artificialisation du monde. Elle nous éloigne toujours plus du vivant, nous enferme dans une bulle numérique déconnectée des cycles naturels, nous rend toujours plus dépendants d'une infrastructure matérielle colossale et fragile.

Dans un second futur, l'IA est domestiquée, territorialisée, mise au service du vivant. Elle devient outil d'optimisation énergétique, de maintenance prévisionnelle (pour prolonger la durée de vie), de symbioses industrielles (pour fermer les boucles matérielles), d'agriculture régénératrice (pour piloter finement sans gaspiller), de réseaux électriques intelligents (pour intégrer les renouvelables intermittents). Elle cesse d'être un monstre énergétique pour devenir un levier de sobriété.

Entre ces deux futurs, le choix n'est pas fait. Il se joue maintenant, dans les décisions que nous prenons collectivement (ou que nous renonçons à prendre).

L'IA et l'éco-ingénierie resteront des noces impossibles tant qu'aucune coordination collective (qu'elle prenne la forme de régulation publique, de mécanismes de marché, d'autorégulation sectorielle crédible, ou d'une combinaison des trois) ne viendra transformer les incitations fondamentales qui régissent le développement de l'IA.

Les tensions sont réelles. Les contradictions sont profondes. Mais elles ne sont pas insurmontables par nature, seulement par configuration actuelle. Ce qui bloque, ce n'est pas la technique. C'est l'absence de volonté collective de faire des choix.

Le numérique peut simuler le monde ; seul le temps peut le réparer. 

📌 Point de vue Prométhée T&I

 

Les tensions sont réelles, mais elles ne sont pas insurmontables ; elles sont le prix d'une technique adulte (désigne une technique ou technologie qui a atteint sa maturité et reconnaît ses propres limites). Chez Prométhée T&I, nous vivons ces tensions au quotidien. Nous déployons des solutions de maintenance prévisionnelle par IA qui prolongent la durée de vie des équipements, tout en travaillant à instrumenter, aussi précisément que possible, l'empreinte carbone de nos propres modèles. Chaque entraînement consomme de l'énergie ; chaque serveur sollicité émet du CO₂. Cette lucidité n'est pas paralysante ; elle est structurante.

Notre conviction : refuser de voir les contradictions ne les fait pas disparaître ; cela rend simplement aveugle à ses propres responsabilités. Beaucoup d'acteurs du numérique se réfugient dans une forme de « techno-solutionnisme » quasi exacerbé (« l'innovation résoudra tout ») ou dans le déni (« notre impact est négligeable »). Nous choisissons la lucidité opérationnelle.

Ce que nous défendons :

  • Quantifier autant que possible l'empreinte d'une solution IA avant de la proposer.
  • Privilégier les modèles spécialisés et frugaux plutôt que les mastodontes inutiles.
  • Documenter nos arbitrages lorsque nous choisissons la puissance plutôt que la sobriété.
  • Surveiller l'effet rebond : si l'optimisation augmente l'impact global, c'est un échec.

 

Notre règle d'or : ne jamais prétendre qu'une IA est « verte » sans le démontrer chiffres à l'appui. Le greenwashing algorithmique est une tentation permanente dans notre secteur. Nous nous y refusons, même lorsque cela nous coûte des contrats.

Assumer les tensions entre IA et éco-ingénierie, c'est déjà commencer à les résoudre.

 

🔎 Exemple de cas client Prométhée T&I

 

Dans une ETI mécanique, la direction voulait un modèle prédictif généraliste couvrant l'ensemble de la chaîne de production. Nos mesures préalables ont montré qu'un modèle spécialisé, beaucoup plus léger, suffisait à couvrir 90 % des scénarios critiques.

Résultats après déploiement :

  • -23 % de rebuts
  • -18 % de temps de changement d'outil
  • +17 % de disponibilité machine (OEE)
  • Empreinte carbone : ÷12 par rapport à l'option initiale

 

Enseignement :

La puissance n'est pas un substitut à la pertinence. La seule IA soutenable est celle qui accepte d'être spécifique.

  

Pour aller plus loin

Nous avons exploré les cinq tensions structurelles qui opposent intelligence artificielle et éco-ingénierie. Elles ne sont pas des accidents corrigibles par de meilleures pratiques ; ce sont des contradictions inscrites dans la logique même de l'IA contemporaine (sa course à la maximisation, son opacité intrinsèque, son universalité standardisée, son rythme effréné, ses dynamiques économiques divergentes).

Ces tensions semblent insurmontables. Et pourtant.

Des convergences fragiles existent. Rares, marginales, mais réelles. Elles prouvent qu'une autre voie est techniquement possible : celle d'une IA mise au service de la sobriété plutôt qu'au service de la croissance illimitée. DeepMind réduisant de 40% la consommation des data centers. BLOOM démontrant qu'un modèle performant peut être sobre. La maintenance prévisionnelle prolongeant la durée de vie des équipements. La conception générative minimisant la matière nécessaire.

Mais ces exceptions ne deviendront norme que si certaines conditions sont réunies. Quelles sont-elles ? Quels leviers pourraient transformer l'exception en norme ? Quelles limites subsisteraient même si ces leviers étaient activés ?

L'article suivant (le dernier de cette série) explore ces questions sans naïveté. Ni promesse facile, ni défaitisme résigné. Juste une cartographie lucide des convergences possibles, des leviers envisageables, et des limites structurelles qui persisteront.

Lire l'article 4 : Vers une IA sobre, conditions d'une alliance improbable

  
Bibliographie commentée

Commission européenne (2021) - Industry 5.0: Towards a Sustainable, Human-Centric and Resilient European Industry, Direction générale de la recherche et de l'innovation.
Document de politique publique définissant l'Industrie 5.0 comme réorientation des outils numériques vers trois piliers : durabilité environnementale, résilience des systèmes productifs, centralité humaine. Rompt avec la logique 4.0 centrée sur l'automatisation et la productivité pour intégrer explicitement les enjeux écologiques et sociaux.

Crawford, Kate (2021) - Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press.
Cartographie exhaustive des coûts matériels, sociaux et environnementaux de l'IA. Crawford documente les chaînes d'extraction des métaux rares (lithium, cobalt, terres rares), les conditions de travail des annotateurs de données (souvent externalisés dans des pays à bas coût), la consommation énergétique massive des data centers. Essentiel pour comprendre que l'IA n'est jamais « immatérielle ».

Luccioni, Alexandra Sasha ; Viguier, Sylvain ; Ligozat, Anne-Laure (2023) - Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language ModelJournal of Machine Learning Research, vol. 24, n° 253, p. 1-15.
Méthodologie de référence pour mesurer l'empreinte carbone d'un modèle d'IA. L'étude de BLOOM démontre qu'un modèle performant peut être sobre (environ 50 tonnes CO₂e en bilan complet vs 500-550 pour GPT-3 à taille comparable) grâce à des choix d'infrastructure (mix électrique bas-carbone du supercalculateur Jean Zay), de mutualisation et de gouvernance (financement public, transparence totale). Fait autorité pour toute ACV d'IA.

Ludvigsen, Kasper Groes Albin (2023) - The Carbon Footprint of GPT-4, Towards Data Science, 16 mars 2023.
Article de vulgarisation scientifique proposant des estimations extrapolées pour GPT-4 (51 000 à 62 000 MWh). OpenAI n'ayant publié aucune donnée officielle, ces chiffres restent spéculatifs mais cohérents avec l'application des scaling laws documentées par Patterson et al. (2021). Illustre l'opacité structurelle des acteurs privés sur leurs impacts environnementaux.

Patterson, David ; Gonzalez, Joseph ; Le, Quoc V. et al. (2021) - Carbon Emissions and Large Neural Network Training, arXiv:2104.10350.
Rapport technique de Google Research établissant une méthode de calcul des émissions de CO₂ liées à l'entraînement de modèles de grande taille, basée sur les lois d'échelle énergétique des réseaux neuronaux. Bien que non publié dans une revue à comité de lecture, ce rapport constitue la source la plus citée pour les estimations d'empreinte carbone de GPT-3. Sert de référence pour estimer l'ordre de grandeur des impacts énergétiques de l'IA.

Ritchie, Hannah (2025) - What's the Carbon Footprint of Using ChatGPT?, newsletter Sustainability by Numbers, 8 janvier 2025.
Article de vulgarisation scientifique analysant le coût énergétique par requête (0,3 à 3 Wh selon les méthodologies). Cette fourchette illustre la difficulté méthodologique de mesurer précisément l'impact d'un usage individuel ; elle reflète l'écart entre coût marginal (énergie directement attribuable) et coût moyen incluant l'infrastructure permanente (serveurs, refroidissement, réseau).

Schwartz, Roy ; Dodge, Jesse ; Smith, Noah A. ; Etzioni, Oren (2020) - Green AICommunications of the ACM, vol. 63, n° 12, p. 54-63.
Texte programmatique opposant la « Red AI » (croissance illimitée des modèles, course aux records de performance) à la « Green AI » (efficience, traçabilité, sobriété). Propose de redéfinir les critères d'excellence scientifique en IA pour intégrer systématiquement l'impact environnemental. Démontre qu'il est possible de publier des travaux de haute qualité académique tout en minimisant l'empreinte énergétique.

Jacobsen, Niels B. (2006) - Industrial Symbiosis in Kalundborg, Denmark: A Quantitative Assessment of Economic and Environmental AspectsJournal of Industrial Ecology, vol. 10, n° 1-2, p. 239-255.
Analyse quantitative de la symbiose industrielle de Kalundborg, montrant comment dix-sept entreprises échangent flux de matière, énergie et eau depuis 1972. Documente les bénéfices économiques et environnementaux mesurables : économie annuelle de 3 millions de m³ d'eau, 62 000 tonnes de matériaux recyclés, réduction de 80% des émissions de CO₂ depuis 2015. Démontre que la sobriété systémique se construit dans la durée (cinquante ans de maturation progressive).

Raworth, Kate (2017) - Doughnut Economics: Seven Ways to Think Like a 21st-Century Economist, Chelsea Green Publishing.
Proposant de remplacer l'obsession de la croissance du PIB par un modèle en « donut » (entre plancher social et plafond écologique), Raworth redéfinit la prospérité comme la capacité à satisfaire les besoins humains dans les limites planétaires. Particulièrement pertinent pour penser l'IA et l'éco-ingénierie non comme disciplines techniques isolées mais comme projets politiques inscrivant la technique dans un espace de viabilité écologique et sociale.

Jevons, William Stanley (1865) - The Coal Question: An Inquiry Concerning the Progress of the Nation, and the Probable Exhaustion of Our Coal-Mines, Macmillan.
Ouvrage historique documentant le premier effet rebond observé : l'amélioration de l'efficacité des machines à vapeur n'a pas réduit la consommation de charbon, mais l'a accrue en rendant la vapeur économiquement attractive pour de nouveaux usages. Le « paradoxe de Jevons » reste central pour comprendre pourquoi l'innovation technique seule (y compris en IA) ne garantit jamais une réduction d'impact absolu sans gouvernance des usages.

O'Neil, Cathy (2016) - Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Crown.
Analyse critique montrant comment des algorithmes opaques peuvent automatiser et amplifier les discriminations sociales dans la justice, l'éducation, l'emploi et le crédit. Complète la dimension environnementale de cette série par sa dimension sociale : une technique durable doit aussi être juste. L'éco-ingénierie ne peut se penser sans enjeux d'équité et de gouvernance démocratique.

Russell, Stuart (2019) - Human Compatible: Artificial Intelligence and the Problem of Control, Viking.
Réflexion d'un pionnier de l'IA sur les enjeux de gouvernance et de contrôle. Russell propose de redéfinir les objectifs de l'IA pour qu'elle serve l'intérêt humain plutôt que de maximiser des fonctions objectives mal spécifiées. Pertinent pour penser comment orienter l'IA vers la sobriété et la durabilité plutôt que vers la croissance illimitée et la puissance brute.

NB : Toutes les références principales s’appuient sur la littérature académique ou institutionnelle, complétée par quelques articles de vulgarisation explicitement signalés comme tels. Aucune source non traçable n’a été retenue.

Stéphane COUTANSON - Prométhée T&I - © 2025

Prométhée T&I

Réseaux sociaux

Articles récents