IA et éco-ingénierie : les noces impossibles ?
IA et éco-ingénierie : les noces impossibles ?
Ou pourquoi la technique durable reste un horizon, pas encore une réalité
Cycle « Technologie et responsabilité » – Prométhée Technologies & Ingénierie
[Chapô de série commun]
À l'heure où l'intelligence artificielle s'impose comme la technologie la plus disruptive du XXIe siècle, et où l'urgence écologique redéfinit les conditions mêmes de l'activité industrielle, une question décisive émerge : ces deux dynamiques peuvent-elles converger, ou sont-elles structurellement incompatibles ?
Ce cycle de quatre articles propose une exploration rigoureuse, à la fois scientifique, philosophique et politique, de cette tension fondatrice. Son ambition : outiller décideurs, ingénieurs et citoyens pour comprendre ce qui se joue réellement dans la mutation technologique contemporaine, au-delà des mythes et des slogans.
La série se déploie en quatre temps :
- L'intelligence artificielle : démystifier la machine à calculer — Comprendre ce qu'est vraiment l'IA, ses principes techniques, ses promesses et ses angles morts.
- L'éco-ingénierie : l'intelligence du juste nécessaire — Explorer les fondements d'une ingénierie compatible avec les limites planétaires, sobre et systémique.
- IA et éco-ingénierie : les noces impossibles ? — Cartographier les cinq tensions structurelles qui opposent calcul et sobriété.
- Vers une IA sobre : conditions d'une alliance improbable — Identifier les convergences possibles et les conditions politiques nécessaires à leur généralisation.
Ni technophilie béate, ni ascèse punitive : cette série défend une politique des moyens orientée vers l'efficience systémique, la mesure et la traçabilité. Elle interroge les choix civilisationnels que nous devons faire, collectivement, pour que la technique serve enfin le vivant.
Chapô
Cet article ouvre le second volet du cycle « Technologie et responsabilité » de Prométhée Technologies & Ingénierie.
Après avoir démystifié l'intelligence artificielle et exploré les fondements d'une éco-ingénierie sobre et systémique, nous voici face à la question décisive : ces deux logiques peuvent-elles converger ? L'IA peut-elle servir la sobriété, ou lui est-elle structurellement opposée ?
Ce n'est pas une question technique. C'est une question politique, civilisationnelle, philosophique. Car derrière l'apparente neutralité des algorithmes et l'évidence vertueuse de l'éco-conception se cachent des tensions profondes, rarement explicitées, qui déterminent pourtant l'avenir de notre rapport au monde.
Cet article ne promet pas de réconciliation facile. Il cartographie les contradictions, nomme les impasses, et montre pourquoi — sans transformation politique radicale — l'IA et l'éco-ingénierie resteront incompatibles.
1. Introduction : la promesse d'un mariage contre nature
L'époque est saturée d'injonctions vertueuses qui sonnent comme des mantras rassurants :
« L'intelligence artificielle doit être sobre. »
« L'industrie doit devenir 5.0. »
« La technologie doit se réconcilier avec la planète. »
On les entend dans les conférences internationales, dans les rapports institutionnels, dans les stratégies d'entreprise. Elles dessinent un futur radieux où puissance de calcul et limites écologiques cesseraient miraculeusement de s'opposer.
Mais la réalité, obstinée, résiste.
Les data centers prolifèrent à un rythme exponentiel, dévorant des térawattheures entiers. Les modèles d'IA deviennent toujours plus massifs — GPT-4 consommerait plusieurs dizaines de fois plus d'énergie que GPT-3, selon des estimations non officielles mais cohérentes avec la logique d'échelle. L'éco-conception, malgré quelques vitrines exemplaires, demeure marginale dans l'industrie mondiale. Entre déclarations d'intention et transformation réelle, le fossé ne cesse de se creuser.
Entre IA vorace et éco-ingénierie frugale, le mariage paraît improbable. Non par fatalité technique, mais parce que leurs logiques sont structurellement opposées : l'une maximise, l'autre optimise. L'une court vers le toujours plus, l'autre cherche le juste nécessaire.
Pourquoi cette incompatibilité ? Parce que derrière les belles intentions se cachent cinq tensions structurelles que l'on préfère encore taire — tensions entre efficacité et sobriété, entre universalité et contextualisation, entre vitesse du calcul et lenteur du vivant, entre opacité algorithmique et transparence écologique, entre pouvoir privé et régulation publique.
Cet article se propose de les nommer, de les déplier, de les penser. Car c'est en comprenant précisément ce qui nous sépare que nous pourrons peut-être, un jour, tracer le chemin qui nous réunit.
2. Maximiser ou optimiser : la tension fondatrice
Au cœur de l'incompatibilité entre IA et éco-ingénierie se trouve une divergence philosophique fondamentale sur la définition même du progrès.
L'IA, ou la logique du « toujours plus »
L'intelligence artificielle contemporaine se nourrit de données comme un organisme se nourrit de calories : plus elle en ingère, meilleure elle devient. Cette relation quasi linéaire entre taille du modèle et performance — ce qu'on appelle la scaling law — a été documentée empiriquement par les chercheurs d'OpenAI, Google et d'autres laboratoires depuis 2020. Elle décrit une progression prévisible : doubler le nombre de paramètres, doubler le volume de données d'entraînement, doubler la puissance de calcul produisent des gains mesurables et reproductibles.
Résultat : une course mondiale à l'armement algorithmique où chaque acteur doit grossir pour ne pas disparaître.
GPT-3 (2020) : 175 milliards de paramètres, environ 1 287 MWh consommés pendant l'entraînement, quelque 502 tonnes de CO₂e émises selon les estimations indirectes de Patterson et al. (2021), rapport technique de Google Research basé sur les lois d'échelle énergétique des réseaux neuronaux (arXiv:2104.10350).
[Encart méthodologique, peut être en arrière-plan légèrement coloré]
Note méthodologique sur les estimations GPT-4
Les chiffres relatifs à GPT-4 cités dans cet article (51 000–62 000 MWh pour l'entraînement, soit 40 à 48 fois plus que GPT-3) proviennent d'estimations extrapolées publiées dans la littérature de vulgarisation scientifique (Ludvigsen, 2023), OpenAI n'ayant communiqué aucune donnée officielle sur l'empreinte énergétique de ce modèle.
Ces estimations reposent sur plusieurs hypothèses :
- L'augmentation connue du nombre de paramètres (estimés entre 1 000 et 1 700 milliards selon diverses sources industrielles)
- La complexité accrue de l'entraînement (architecture multimodale, techniques de renforcement avancées)
- L'application des scaling laws documentées empiriquement (Patterson et al., 2021)
Malgré leur caractère non vérifié officiellement, ces ordres de grandeur sont cohérents avec la logique d'échelle énergétique des réseaux neuronaux. Ils illustrent une tendance structurelle : l'explosion de la consommation énergétique des modèles d'IA de nouvelle génération.
L'absence de transparence d'OpenAI sur ces données renforce l'un des arguments centraux de cette série : sans obligation réglementaire de publication, la sobriété énergétique de l'IA restera invérifiable.
[Fin de l'encart]
Même si ces chiffres sont incertains dans leur précision, la logique sous-jacente demeure incontestable : plus = mieux. Toujours.
Cette dynamique n'est pas un accident ou une dérive corrigible par de meilleures pratiques ; elle est inscrite dans la structure économique et géopolitique de l'IA contemporaine. Tant que la performance brute restera le critère de compétitivité entre États-nations et entre géants technologiques, tant que les investisseurs valoriseront la puissance plutôt que la sobriété, la course continuera. Personne n'accepte volontairement de ralentir dans un jeu où celui qui ralentit disparaît.
L'éco-ingénierie, ou la discipline du juste nécessaire
À l'exact opposé de ce spectre philosophique, l'éco-ingénierie impose une sobriété méthodique : faire mieux avec moins, allonger radicalement la durée de vie, fermer hermétiquement les boucles matérielles. Elle part d'un constat implacable : sur une planète finie, la croissance infinie est une impossibilité mathématique. Il faut donc repenser la notion même de progrès — non plus comme accumulation quantitative, mais comme amélioration qualitative.
BLOOM (2022) en est l'illustration parfaite. Ce modèle francophone open source de 176 milliards de paramètres, comparable en taille à GPT-3, a été entraîné sur le supercalculateur français Jean Zay, alimenté majoritairement par de l'énergie nucléaire bas-carbone. Résultat : environ 25 tonnes de CO₂e émises pendant la phase d'entraînement (Luccioni et al., 2022, Journal of Machine Learning Research 24(253)) — vingt fois moins que GPT-3 à taille comparable.
Pas de miracle technologique ici. Seulement des choix de conception rationnels :
- Un mix énergétique bas-carbone (nucléaire français plutôt que gaz ou charbon)
- Une infrastructure optimisée (mutualisation des ressources de calcul, refroidissement efficace)
- Une transparence totale (publication de l'empreinte carbone, code open source, méthodologie documentée)
- Une gouvernance publique (financement par le GENCI, accessibilité pour la recherche académique)
BLOOM démontre qu'une IA performante peut être sobre. Mais il démontre aussi, par son statut d'exception, que cette sobriété n'advient pas spontanément. Elle exige une volonté politique, un financement public déconnecté de la logique de profit immédiat, une infrastructure nationale bas-carbone. Peu de laboratoires privés s'y risquent, faute d'incitation économique.
Le dilemme géopolitique : la puissance contre la sobriété
Tant que l'IA sera un instrument de puissance entre États-nations — outil de souveraineté numérique, vecteur d'influence économique, avantage militaire stratégique —, elle restera structurellement incompatible avec la frugalité.
La Green AI, concept théorisé par Schwartz et al. (2019) en opposition à la Red AI (puissance à tout prix), suppose de redéfinir radicalement ce que l'on entend par « progrès » en intelligence artificielle. Non plus la taille d'un modèle, non plus sa vitesse d'entraînement ou le nombre de benchmarks qu'il domine, mais son rapport efficacité / impact environnemental et social.
Cela signifierait valoriser un modèle de 10 milliards de paramètres efficient et sobre plutôt qu'un mastodonte de 1 000 milliards. Cela signifierait récompenser la transparence énergétique plutôt que l'opacité commerciale. Cela signifierait privilégier les modèles spécialisés et territorialisés plutôt que les géants universels.
Mais dans un système capitaliste mondialisé où la course à l'innovation est un jeu à somme nulle — où ralentir signifie perdre des parts de marché, de l'influence, de la compétitivité —, qui acceptera volontairement cette redéfinition ?
Tension irrésolue : Tant que la sobriété sera perçue comme un handicap concurrentiel plutôt que comme une exigence civilisationnelle, l'IA restera prisonnière de sa logique maximisatrice. La convergence avec l'éco-ingénierie exige une sortie collective de cette course — ce qui ne peut advenir que par régulation politique internationale contraignante. Et nous en sommes loin.
3. Opacité algorithmique contre exigence de traçabilité
Une deuxième tension, tout aussi fondamentale, oppose l'IA et l'éco-ingénierie : celle entre l'opacité intrinsèque des systèmes d'apprentissage profond et l'exigence de traçabilité totale que requiert toute démarche écologique sérieuse.
Les réseaux de neurones : boîtes noires par nature
Le deep learning, architecture dominante de l'IA contemporaine, ajuste des millions — parfois des milliards — de paramètres invisibles au cours de l'entraînement. Ces paramètres (poids synaptiques, biais, fonctions d'activation) ne correspondent à aucun concept humain intelligible. Personne, pas même les concepteurs du système, ne peut expliquer exactement pourquoi un réseau de neurones décide ainsi pour une entrée donnée.
On peut visualiser les neurones activés, cartographier les gradients, calculer des attributions de Shapley pour identifier les features les plus influentes. Mais ces techniques d'Explainable AI (XAI) ne font que décrire des corrélations statistiques ; elles ne révèlent aucune logique causale compréhensible. Le « raisonnement » d'une IA profonde demeure fondamentalement étranger à notre façon de penser.
Or l'éco-ingénierie repose sur l'analyse du cycle de vie (ACV) : tout doit être mesuré, tracé, comptabilisé, de l'extraction de la matière première jusqu'à la fin de vie et le recyclage. Chaque kilogramme de matériau, chaque kilowattheure consommé, chaque litre d'eau utilisé doit apparaître dans le bilan. C'est la condition sine qua non de toute démarche crédible.
Comment éco-concevoir un système dont la logique interne demeure opaque ? Comment auditer l'empreinte d'un algorithme qu'on ne comprend pas ? Comment optimiser ce qu'on ne peut mesurer précisément ?
L'explicabilité, condition de sobriété
Pour qu'une IA soit sobre, il faut pouvoir mesurer rigoureusement plusieurs dimensions de son impact — et c'est précisément là que le bât blesse.
[Encart méthodologique]
Note méthodologique sur le coût énergétique par requête
La fourchette citée dans cet article (0,3–3 Wh par requête ChatGPT) provient d'analyses de vulgarisation scientifique (Ritchie, 2025) et reflète l'incertitude méthodologique inhérente à ce type de mesure.
Cet écart d'un facteur 10 s'explique par la différence entre deux approches de calcul :
- Coût marginal (0,3–0,5 Wh) : énergie directement et exclusivement attribuable au traitement d'une requête spécifique (calcul GPU, transfert de données).
- Coût moyen incluant l'infrastructure permanente (2–3 Wh) : répartition du coût total du système sur l'ensemble des requêtes, incluant serveurs en veille, refroidissement permanent, réseau, redondance, maintenance.
D'autres facteurs amplifient cette variabilité :
- Taille du modèle sollicité (GPT-3.5 Turbo vs GPT-4)
- Type de réponse (courte et simple vs longue avec raisonnement complexe, chaîne de pensée)
- Efficacité de l'infrastructure (PUE du data center, utilisation de processeurs spécialisés)
- Taux d'utilisation réel (un serveur à 20% de charge consomme presque autant qu'à 100%, mais produit cinq fois moins)
Cette incertitude elle-même révèle l'opacité du système : nous ne savons pas exactement ce que coûte un acte cognitif automatisé. Sans méthodologie standardisée de mesure, il est impossible d'optimiser, de réguler ou de facturer au juste prix écologique.
[Fin de l'encart]
Les externalités matérielles sont tout aussi opaques. La fabrication d'un GPU moderne (Nvidia H100, utilisé massivement pour l'entraînement des grands modèles) requiert :
- L'extraction de terres rares (néodyme, dysprosium) dans des conditions environnementales et sociales souvent désastreuses
- Une consommation d'eau colossale pour la fabrication des puces (plusieurs milliers de litres par wafer de silicium)
- Des processus chimiques complexes générant des déchets toxiques
- Une chaîne logistique mondiale énergivore
Et cette infrastructure matérielle est renouvelée à un rythme effréné : un GPU de data center est considéré comme obsolète au bout de 3 à 5 ans, parfois moins dans la course technologique. Des millions de processeurs parfaitement fonctionnels sont mis au rebut chaque année, non parce qu'ils sont cassés, mais parce qu'ils ne sont plus assez rapides pour rester compétitifs.
L'effet rebond énergétique complète le tableau : plus un modèle est performant, plus il est utilisé, donc plus il consomme globalement. L'efficacité énergétique par requête peut diminuer (progrès technique) tandis que la consommation totale explose (explosion des usages). C'est le paradoxe de Jevons appliqué au numérique : l'amélioration technique ne garantit jamais, en soi, une réduction d'impact absolu.
Le vide réglementaire énergétique
L'AI Act européen, entré en vigueur en août 2024, représente une avancée législative majeure : il impose transparence, explicabilité et supervision humaine pour les systèmes à haut risque (recrutement, justice, crédit, surveillance). C'est une victoire pour l'éthique algorithmique, pour la protection des droits fondamentaux, pour la lutte contre les discriminations automatisées.
Mais il ne contient aucune contrainte énergétique ou environnementale.
On peut auditer un biais social — vérifier qu'un algorithme ne discrimine pas selon l'origine ethnique ou le genre — sans jamais mesurer le wattheure qu'il consomme, sans jamais comptabiliser les tonnes de CO₂e qu'il émet, sans jamais questionner la provenance de l'électricité qui l'alimente. Le législateur européen a choisi de réguler l'éthique, mais pas l'écologie. Comme si les deux étaient dissociables.
Tension irrésolue : Pas de traçabilité, pas de responsabilité. Sans obligation réglementaire stricte de mesure, de publication et de plafonnement des impacts, la sobriété énergétique de l'IA restera volontaire — donc marginale, donc insuffisante. Tant que polluer ne coûte rien (ou presque rien), pourquoi s'en priver ?
4. Universalité algorithmique contre contextualisation écologique
Une troisième tension, plus subtile mais tout aussi structurante, oppose la logique d'universalité de l'IA moderne à la logique de contextualisation qui fonde l'éco-ingénierie.
Le rêve du modèle universel
GPT-4 traduit des dizaines de langues, code dans tous les langages informatiques, rédige des essais philosophiques, diagnostique des maladies, conseille des stratégies d'entreprise, compose de la musique. L'IA contemporaine cherche l'universalité : un seul modèle pour mille usages, une seule architecture pour tous les contextes, toutes les langues, toutes les cultures.
Cette universalité promet des économies d'échelle colossales : plutôt que de développer mille modèles spécialisés, on en développe un seul, gigantesque, qui fait tout. Le coût marginal d'un usage supplémentaire devient dérisoire une fois l'investissement initial amorti. C'est économiquement rationnel dans une logique capitaliste classique.
Mais cette logique est antinomique avec l'éco-ingénierie, qui pense le monde en contextes, en territoires, en spécificités locales irréductibles.
L'éco-ingénierie, science du territoire
Un bâtiment bioclimatique conçu pour Marseille — climatisation passive par ventilation nocturne, inertie thermique pour lisser les pics de chaleur, protections solaires omniprésentes, végétalisation pour l'évapotranspiration — n'a rigoureusement rien à voir avec un bâtiment pour Oslo — isolation renforcée contre le froid, maximisation des apports solaires hivernaux, récupération systématique de la chaleur, triple vitrage, étanchéité à l'air poussée à l'extrême.
Ce ne sont pas deux variantes d'un même modèle ; ce sont deux conceptions radicalement différentes, adaptées à des climats, des ressources locales, des cultures constructives spécifiques. Vouloir imposer une « solution universelle » au bâtiment serait une absurdité technique et un désastre écologique.
De même, une symbiose industrielle comme celle de Kalundborg fonctionne parce que les entreprises partagent géographiquement leurs flux : le surplus de chaleur de la centrale électrique peut chauffer les foyers voisins parce qu'ils sont à moins de dix kilomètres ; la vapeur peut alimenter la raffinerie parce qu'elle est à côté ; le gypse peut devenir matière première pour les plaques de plâtre parce qu'une usine appropriée est implantée localement.
Cette symbiose n'est pas exportable telle quelle. On ne peut pas copier-coller Kalundborg à Shanghai ou à São Paulo. Il faut la réinventer localement en fonction des industries présentes, des distances physiques, des contraintes réglementaires, des savoir-faire disponibles, des ressources du territoire. La durabilité est toujours située.
L'agriculture de précision : promesse technologique ou mirage écologique ?
L'IA appliquée à l'agriculture illustre parfaitement cette tension. Les promoteurs de l'« agriculture de précision » promettent d'optimiser les intrants plante par plante grâce à des capteurs omniprésents, des drones survolant les parcelles, des algorithmes analysant en temps réel l'état hydrique du sol, la vigueur des plants, la pression parasitaire. Résultat annoncé : réduction de 20 à 30% des pesticides et engrais, augmentation des rendements, agriculture « plus verte ».
Mais cette promesse a un coût matériel et énergétique considérable, rarement comptabilisé :
- Capteurs connectés dans chaque parcelle (fabrication, installation, maintenance, connectivité 4G/5G permanente)
- Drones ou satellites pour l'imagerie (fabrication, lancement, traitement des données en data centers distants)
- Serveurs pour traiter et stocker les téraoctets de données produites quotidiennement
- Machines agricoles pilotées par GPS de précision centimétrique (coût d'acquisition, dépendance aux constellations satellites, complexité de maintenance)
- Formation technique des agriculteurs (souvent âgés, parfois isolés, pas toujours à l'aise avec le numérique)
Un coût accessible uniquement aux exploitations fortement capitalisées. L'agriculture de précision est, de fait, une agriculture de riches. Elle creuse les inégalités entre grandes exploitations mécanisées et petites fermes paysannes.
À l'opposé, l'agriculture régénératrice — non-labour pour préserver la structure du sol, couverts végétaux permanents pour nourrir la biologie souterraine, agroforesterie pour la diversité et la résilience, rotation complexe des cultures — obtient des résultats écologiques comparables sur le long terme, sans aucune high-tech. Elle repose sur l'observation paysanne, la connaissance intime du terroir, l'expérimentation locale, la transmission des savoir-faire. Elle restaure les sols, séquestre du carbone, reconstruit la biodiversité, réduit la dépendance aux intrants. Et elle est accessible aux petites exploitations.
Alors, l'IA est-elle vraiment nécessaire ? Ou n'est-elle qu'une sophistication technique qui répond davantage aux intérêts de l'industrie numérique qu'aux besoins réels de la transition écologique ?
Tension irrésolue : La diversité écologique contredit la standardisation algorithmique. Pour qu'une IA serve véritablement l'éco-ingénierie, il faudrait des modèles adaptatifs, territorialisés, frugaux — exactement l'inverse de la dynamique industrielle actuelle qui valorise les mastodontes universels. Cette convergence n'adviendra pas spontanément ; elle exige une volonté politique de privilégier la pertinence contextuelle sur la puissance brute.
5. Les temporalités incompatibles : vitesse du calcul contre lenteur du vivant
Une quatrième tension, peut-être la plus profonde, oppose les rythmes mêmes de l'IA et de l'éco-ingénierie.
Vitesse du calcul contre lenteur du vivant
L'IA vit dans le temps court de la Silicon Valley, dans l'ivresse de l'innovation permanente. Trois ans entre GPT-3 et GPT-4 — une éternité dans cette industrie. Le matériel est renouvelé tous les 3 à 5 ans, parfois moins. Les architectures de réseaux neuronaux se succèdent à un rythme effréné : transformers (2017), GPT (2018), BERT (2018), GPT-2 (2019), GPT-3 (2020), diffusion models (2020), DALL-E (2021), GPT-4 (2023), et déjà on parle de GPT-5, de modèles multimodaux toujours plus grands, toujours plus rapides.
Cette accélération produit une obsolescence matérielle massive et un gaspillage de ressources colossal. Des millions de GPU parfaitement fonctionnels sont mis au rebut, des data centers entiers sont reconstruits avant même d'avoir amorti leur investissement énergétique initial. La course technologique devient une fuite en avant dévastatrice.
L'éco-ingénierie, elle, œuvre dans le temps long — celui des cycles naturels, incompressibles, irréductibles :
- Régénération d'un sol dégradé : 10 à 50 ans selon l'intensité de la dégradation initiale et les pratiques mises en œuvre. Un sol vivant ne se décrète pas ; il se reconstruit lentement, par accumulation progressive de matière organique, par restauration des réseaux mycéliens, par retour de la faune du sol.
- Maturation d'une symbiose industrielle : 20 à 30 ans pour qu'un écosystème d'entreprises apprenne à travailler ensemble, développe la confiance mutuelle, ajuste les flux au fil des évolutions, intègre de nouveaux acteurs. Kalundborg a mis cinquante ans pour atteindre sa configuration actuelle. Ce n'est pas de la lenteur bureaucratique ; c'est le temps nécessaire à l'apprentissage collectif, à la stabilisation des partenariats, à l'optimisation progressive.
- Reconstitution d'un écosystème forestier : un siècle, parfois plusieurs. Planter des arbres ne suffit pas ; il faut que se reconstituent les strates de végétation (mousses, herbacées, arbustes, canopée), que reviennent les champignons mycorhiziens, que se rétablissent les chaînes trophiques, que la faune colonise à nouveau. Une forêt mature est le résultat d'une co-évolution lente, complexe, imprévisible.
- Transition d'un système énergétique : plusieurs décennies pour remplacer les infrastructures fossiles (centrales, réseaux, usages), former les compétences nécessaires, adapter les comportements sociaux, amortir les investissements antérieurs. On ne décrète pas la sobriété ; on la construit patiemment, par ajustements successifs.
Jumeaux numériques : simuler n'est pas réparer
Les digital twins (jumeaux numériques) incarnent cette tension temporelle. Ils promettent d'accélérer la conception, de réduire les prototypes physiques, de tester virtuellement des milliers de scénarios en quelques heures. Siemens a ainsi économisé 30% d'énergie sur certaines de ses usines en simulant les flux thermiques et en ajustant en temps réel les paramètres de production.
C'est indéniablement utile. Mais la simulation a des limites épistémologiques fondamentales :
- Elle n'intègre pas les imprévus du terrain (pannes inattendues, erreurs humaines, conditions climatiques extrêmes non anticipées, dégradations progressives des matériaux)
- Elle repose sur des modèles simplifiés qui peuvent manquer des interactions complexes, des boucles de rétroaction non linéaires, des effets de seuil
- Elle ne remplace pas l'observation longue des systèmes réels dans leur environnement
Un jumeau numérique d'écosystème forestier, aussi sophistiqué soit-il, ne capturera jamais la complexité des interactions entre sol (minéralogie, hydrologie, biologie), mycorhizes (centaines d'espèces de champignons symbiotiques avec des rôles différents), faune (des bactéries aux grands mammifères), climat (précipitations, température, vent, luminosité), perturbations (tempêtes, sécheresses, incendies, maladies). La nature n'est pas réductible à un modèle, aussi détaillé soit-il.
Le numérique peut simuler le monde ; seul le temps peut le réparer.
Tension irrésolue : Il faudrait ralentir drastiquement l'IA (cycles d'innovation plus longs, matériel conçu pour durer 10-15 ans plutôt que 3-5, sobriété fonctionnelle plutôt que course à la performance) et accélérer la régénération (investissements massifs dans la restauration écologique, formation de millions d'acteurs de terrain, réorientation des flux financiers vers le long terme).
Deux rythmes inconciliables sans gouvernance intégrée, sans volonté politique forte capable d'imposer la décélération technologiqueet l'accélération écologique. Mais qui, dans le système actuel, a intérêt à ralentir la machine algorithmique ? Certainement pas les investisseurs qui exigent des retours rapides. Certainement pas les États qui craignent de perdre leur avance technologique. Certainement pas les consommateurs habitués à l'instantanéité. Le temps long de l'écologie est devenu politiquement inaudible dans un monde régi par le temps court de la finance et de la technologie.
6. Gouvernance : qui fixe les règles du jeu ?
Toutes ces tensions convergent vers une question politique décisive : qui gouverne l'IA ? Qui décide de ses finalités, de ses limites, de ses règles de fonctionnement ? Cette question n'est pas technique ; elle est éminemment politique, et elle détermine si la convergence avec l'éco-ingénierie est possible ou non.
La capture des promesses par les Big Tech
Google, Microsoft, Amazon, Meta, Apple dominent à la fois le cloud (infrastructures de calcul), les données (milliards d'utilisateurs captifs) et les modèles d'IA (investissements massifs en R&D, recrutement des meilleurs chercheurs). Cette intégration verticale leur confère un pouvoir quasi monopolistique sur l'ensemble de la chaîne de valeur numérique.
Tous promettent des infrastructures "zéro carbone" d'ici 2030, financent des programmes de recherche sur la Green AI, affichent des engagements climatiques ambitieux. Mais dans le même temps, ils multiplient les data centers énergivores, augmentent exponentiellement la taille de leurs modèles, poussent à la consommation effrénée de services numériques.
Le conflit d'intérêts est structurel : leur modèle économique repose sur la croissance exponentielle de la consommation de données et de calcul. Plus vous utilisez leurs services, plus ils collectent de données, plus ils peuvent entraîner de modèles performants, plus ils peuvent vendre de services, plus ils génèrent de profits. La sobriété menacerait directement leur rentabilité.
Peut-on sérieusement attendre qu'ils se sabordent volontairement au nom du climat ? L'histoire économique répond clairement : non. Aucune industrie ne s'est jamais autorégulée efficacement contre ses propres intérêts financiers. Le tabac ne s'est pas autorégulé ; il a fallu des décennies de combat législatif. L'automobile n'a pas spontanément réduit ses émissions ; il a fallu des normes contraignantes. L'industrie pharmaceutique n'a pas volontairement baissé ses prix ; il a fallu des régulations nationales.
L'autorégulation volontaire : un échec documenté
Le Partnership on AI, lancé en 2016 par Amazon, Apple, DeepMind, Facebook, Google, IBM et Microsoft, se présentait comme une initiative historique : les géants de la tech s'engageant volontairement à développer une IA éthique, transparente, bénéfique pour l'humanité.
Sept ans plus tard, le bilan est maigre : des rapports, des conférences, des déclarations d'intention, mais aucune contrainte réelle, aucun mécanisme de sanction, aucun changement structurel dans les pratiques. Les mêmes entreprises qui signaient ces engagements ont continué à développer des modèles toujours plus massifs, à opacifier leurs pratiques, à externaliser leurs coûts environnementaux.
Les engagements climatiques reposent massivement sur des compensations carbone douteuses :
- Crédits achetés à des projets non additionnels (qui auraient eu lieu de toute façon, indépendamment du financement carbone)
- Plantations d'arbres dans des zones déjà forestières (donc sans gain réel de séquestration)
- Périmètres de mesure choisis pour minimiser artificiellement l'empreinte (exclusion de la fabrication du matériel, du transport, de la consommation des utilisateurs finaux)
- Promesses à horizon 2030 ou 2050 sans trajectoire contraignante ni mécanisme de vérification indépendant
Le greenwashing est devenu un art. On affiche "neutralité carbone" tout en continuant à augmenter ses émissions absolues. On plante des arbres tout en construisant de nouveaux data centers au charbon. On parle de "durabilité" tout en programm obsolescence de ses appareils tous les deux ans.
Régulations : avancées et angles morts
L'AI Act européen, adopté en mars 2024 et entré progressivement en vigueur depuis août 2024, représente une avancée législative majeure à l'échelle mondiale. Pour la première fois, une puissance économique de premier plan régule l'intelligence artificielle selon une approche fondée sur les risques.
Le texte impose :
- Transparence : obligation d'informer les utilisateurs qu'ils interagissent avec une IA
- Explicabilité : pour les systèmes à haut risque (recrutement, justice, crédit, services essentiels), obligation de pouvoir expliquer les décisions
- Supervision humaine : un humain doit pouvoir intervenir et corriger les décisions algorithmiques
- Interdiction de certains usages (notation sociale généralisée à la chinoise, manipulation comportementale, reconnaissance faciale en temps réel dans l'espace public sauf exceptions strictement encadrées)
- Obligations renforcées pour les modèles à usage général (GPAI) présentant des risques systémiques
C'est une victoire pour l'éthique algorithmique, pour la protection des droits fondamentaux, pour la lutte contre les discriminations automatisées. L'Europe affirme sa souveraineté réglementaire face aux géants technologiques américains et chinois.
Mais l'AI Act ne contient aucune contrainte climatique. Pas d'obligation de publier l'empreinte carbone des modèles. Pas de plafond de consommation énergétique. Pas de taxe carbone sur les data centers. Pas d'obligation d'utiliser de l'électricité bas-carbone. Pas de durée de vie minimale imposée pour le matériel. Pas de pénalité pour l'obsolescence programmée des serveurs.
On peut auditer un biais social sans jamais mesurer le wattheure. On peut vérifier qu'un algorithme de recrutement ne discrimine pas selon le genre ou l'origine ethnique sans jamais comptabiliser les tonnes de CO₂ qu'il émet. Comme si éthique et écologie étaient dissociables. Comme si on pouvait avoir une IA "juste" mais climaticide.
Aux États-Unis, la régulation est quasi inexistante : la priorité stratégique est à la compétitivité économique et militaire face à la Chine. L'administration Biden a publié en 2023 un décret présidentiel (Executive Order on Safe, Secure, and Trustworthy AI) fixant quelques garde-fous, mais aucune contrainte environnementale. Le Congrès reste bloqué sur toute tentative de régulation substantielle.
En Chine, l'État contrôle étroitement l'IA pour des raisons de sécurité nationale et de contrôle social, mais l'environnement n'est pas une priorité. Les data centers chinois tournent majoritairement au charbon. La Chine investit massivement dans l'IA pour rattraper puis dépasser les États-Unis ; la sobriété énergétique n'est pas à l'agenda.
Aucune gouvernance globale ne mesure encore l'impact climatique cumulé des IA géantes. Il n'existe pas d'équivalent du GIEC pour l'intelligence artificielle — pas d'instance scientifique internationale chargée d'évaluer de manière indépendante, transparente et contradictoire les impacts environnementaux du secteur numérique et de l'IA.
Ce qu'il faudrait
Pour qu'une véritable convergence devienne possible, il faudrait un cadre réglementaire radicalement différent, articulé autour de cinq piliers :
1. Éco-conditionnalité stricte des investissements publics : aucun financement public (subvention, crédit d'impôt recherche, marché public, partenariat public-privé) sans ACV complète, transparente, vérifiée par un tiers indépendant et publiée en open data. Si l'argent public finance, le public a le droit de savoir exactement quel impact environnemental il finance.
2. Taxe carbone aux frontières pour les data centers : intégrer le coût carbone réel dans les prix. Un data center alimenté au charbon polonais ne doit pas avoir le même prix qu'un data center alimenté au nucléaire français ou à l'hydraulique norvégien. Le dumping environnemental doit coûter cher. Cela créerait une incitation économique puissante à la décarbonation.
3. ACV obligatoire pour tout modèle au-delà de 10 milliards de paramètres : publication obligatoire de l'empreinte complète (entraînement, inférence, infrastructure, fabrication matérielle, transport, fin de vie) selon une méthodologie standardisée ISO. Sanction en cas de non-publication : interdiction de commercialisation. Sanction en cas de données mensongères : amende proportionnelle au chiffre d'affaires (sur le modèle du RGPD).
4. Droit à la réparation appliqué au cloud : durée de vie minimale des serveurs portée à 8-10 ans au lieu de 3-5. Obligation de réemploi et de reconditionnement avant mise au rebut. Interdiction de l'obsolescence logicielle artificielle (serveurs rendus inutilisables par des mises à jour logicielles alors qu'ils sont matériellement fonctionnels). Éco-contribution sur les équipements neufs pour financer les filières de réemploi.
5. Gouvernance démocratique des infrastructures critiques : les data centers sont devenus des infrastructures essentielles au XXIe siècle, au même titre que l'eau, l'électricité, les routes, les hôpitaux, les écoles. Faut-il les laisser entièrement aux mains d'acteurs privés dont l'objectif statutaire est la maximisation du profit à court terme ?
Plusieurs modèles sont envisageables :
- Data centers publics (propriété de l'État, gestion par un opérateur public de type service public)
- Coopératives de calcul (propriété collective des utilisateurs, gouvernance démocratique)
- Partenariats public-privé avec cahier des charges environnemental contraignant et contrôle public fort
- Régulation forte des acteurs privés (plafonds d'émission sectoriels, audits indépendants obligatoires, sanctions dissuasives)
L'essentiel est que l'intérêt général prime sur le profit à court terme. Qu'on puisse refuser collectivement certains usages de l'IA jugés futiles, nuisibles ou disproportionnés (deepfakes récréatifs à grande échelle, publicité micro-ciblée invasive, surveillance généralisée non justifiée). Qu'on puisse prioriser les usages essentiels (santé, éducation, recherche, services publics, transition écologique) sur les usages superflus.
Sans arbitrage politique fort, la sobriété restera un argument marketing. Seule une régulation contraignante, démocratiquement légitimée, internationalement coordonnée, peut imposer la convergence entre calcul et planète.
7. Conclusion : des tensions structurelles, pas des accidents
Les cinq tensions explorées dans cet article ne sont pas des bugs corrigibles par de meilleures pratiques, par davantage de sensibilisation, par un peu plus de bonne volonté. Ce sont des contradictions structurelles inscrites dans la logique même de l'IA contemporaine et de l'éco-ingénierie :
1. Maximisation contre optimisation : la scaling law (toujours plus gros = toujours meilleur) contre la sobriété fonctionnelle (le juste nécessaire, intelligemment conçu)
2. Opacité contre traçabilité : les boîtes noires algorithmiques contre l'exigence d'ACV rigoureuse, mesurée, vérifiable
3. Universalité contre contextualisation : le modèle géant unique pour tous les contextes contre la diversité territoriale, la spécificité des situations, l'adaptation locale
4. Vitesse contre lenteur : l'obsolescence accélérée du matériel (3-5 ans) contre les cycles longs du vivant (10 à 100 ans), le temps court de l'innovation contre le temps long de la régénération
5. Pouvoir privé contre régulation publique : les Big Tech maximisant le profit contre l'intérêt général, l'autorégulation volontaire inefficace contre la nécessité d'une régulation contraignante
Ces tensions ne disparaîtront pas d'elles-mêmes. Elles ne se résoudront pas par l'innovation technique seule ou par la bonne volonté des acteurs. Elles exigent des choix politiques explicites, démocratiquement débattus, démocratiquement assumés.
Accepte-t-on que l'IA soit un instrument de puissance géopolitique au détriment de la sobriété écologique ? Ou impose-t-on des limites, des plafonds, des interdictions au nom de l'habitabilité future de la planète ?
Laisse-t-on les Big Tech définir seules les règles du jeu, ou les soumettons-nous à une régulation forte, indépendante, sanctionnable ?
Privilégie-t-on la performance absolue (le modèle le plus gros, le plus rapide) ou l'efficacité systémique (le meilleur rapport service rendu / impact environnemental) ?
Choisit-on l'universalité standardisée (un modèle pour tout faire) ou la diversité contextuelle (des modèles adaptés, territorialisés, frugaux) ?
Valorise-t-on la vitesse du calcul (innovation permanente, renouvellement effréné) ou acceptons-nous la lenteur du vivant (régénération patiente, temps long de la réparation) ?
Ces questions ne sont pas neutres. Elles ne sont pas techniques. Elles sont profondément politiques, philosophiques, civilisationnelles. Elles dessinent deux futurs radicalement différents.
Dans le premier, l'IA continue sa course folle vers toujours plus de puissance, toujours plus de données, toujours plus de consommation énergétique. Elle devient l'alliée objective du dérèglement climatique, de l'épuisement des ressources, de l'artificialisation du monde. Elle nous éloigne toujours plus du vivant, nous enferme dans une bulle numérique déconnectée des cycles naturels, nous rend toujours plus dépendants d'une infrastructure matérielle colossale et fragile.
Dans le second, l'IA est domestiquée, territorialisée, mise au service du vivant. Elle devient outil d'optimisation énergétique, de maintenance prévisionnelle (pour prolonger la durée de vie), de symbioses industrielles (pour fermer les boucles matérielles), d'agriculture régénératrice (pour piloter finement sans gaspiller), de réseaux électriques intelligents (pour intégrer les renouvelables intermittents). Elle cesse d'être un monstre énergétique pour devenir un levier de sobriété.
Nous sommes à la croisée des chemins. Le choix n'est pas fait. Il se joue maintenant, dans les décisions politiques des cinq à dix prochaines années.
L'IA et l'éco-ingénierie resteront des noces impossibles tant qu'aucun arbitre — la puissance publique, la régulation démocratique, la volonté politique collective — ne viendra fixer les règles d'un mariage qui ne peut advenir spontanément.
La technique ne nous sauvera pas. Seule la politique le peut.
Pour aller plus loin
Nous avons exploré les cinq tensions structurelles qui opposent intelligence artificielle et éco-ingénierie. Elles ne sont pas des accidents corrigibles par de meilleures pratiques ; ce sont des contradictions inscrites dans la logique même de l'IA contemporaine — sa course à la maximisation, son opacité intrinsèque, son universalité standardisée, son rythme effréné, sa capture par des intérêts privés.
Ces tensions semblent insurmontables. Et pourtant.
Des convergences fragiles existent. Rares, marginales, mais réelles. Elles prouvent qu'une autre voie est techniquement possible : celle d'une IA mise au service de la sobriété plutôt qu'au service de la croissance illimitée. DeepMind réduisant de 40% la consommation des data centers. BLOOM démontrant qu'un modèle performant peut être sobre. La maintenance prévisionnelle prolongeant la durée de vie des équipements. La conception générative minimisant la matière nécessaire.
Mais ces exceptions ne deviendront norme que si des conditions politiques, économiques et culturelles radicales sont réunies. Quelles sont-elles ? Sont-elles réalistes ? Quelles limites subsisteraient même si elles étaient mises en œuvre ?
L'article suivant — le dernier de cette série — explore ces questions sans naïveté. Ni promesse facile, ni défaitisme résigné. Juste une cartographie lucide de ce qu'il faudrait vraiment pour que le calcul serve enfin le vivant.
→ Lire l'article 4 : Vers une IA sobre, conditions d'une alliance improbable
Bibliographie
Commission européenne (2021). Industry 5.0: Towards a sustainable, human-centric and resilient European industry. Direction générale de la recherche et de l'innovation. https://op.europa.eu/en/publication-detail/-/publication/468a892a-5097-11eb-b59f-01aa75ed71a1
Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.
Luccioni, A. S., Viguier, S., & Ligozat, A.-L. (2022). Estimating the carbon footprint of BLOOM, a 176B parameter language model. Journal of Machine Learning Research, 24(253), 1–15. https://jmlr.org/papers/v24/23-0069.html
Ludvigsen, K. G. A. (2023, mars 16). The carbon footprint of GPT-4. Towards Data Science. https://towardsdatascience.com/the-carbon-footprint-of-gpt-4-d6c676eb21ae
Note : Article de vulgarisation proposant des estimations extrapolées pour GPT-4. OpenAI n'ayant publié aucune donnée officielle, ces chiffres (51 000–62 000 MWh) restent spéculatifs mais cohérents avec la logique des scaling laws.
Patterson, D., Gonzalez, J., Le, Q., Liang, C., Munguia, L.-M., Rothchild, D., So, D., Texier, M., & Dean, J. (2021). Carbon emissions and large neural network training. Rapport technique Google Research. arXiv:2104.10350. https://arxiv.org/abs/2104.10350
Note : Ce rapport technique, bien que non publié dans une revue à comité de lecture, constitue la source de référence pour les estimations d'empreinte carbone de GPT-3, basées sur des lois d'échelle énergétique validées empiriquement.
Ritchie, H. (2025, janvier 8). What's the carbon footprint of using ChatGPT? Sustainability by Numbers. https://sustainabilitybynumbers.com/p/chatgpt-carbon-footprint
Note : Article de vulgarisation. La fourchette 0,3–3 Wh par requête reflète l'écart entre coût marginal (énergie directement attribuable à une requête) et coût moyen incluant l'infrastructure permanente (serveurs, refroidissement, réseau).
Schwartz, R., Dodge, J., Smith, N. A., & Etzioni, O. (2019). Green AI. arXiv preprint arXiv:1907.10597. https://arxiv.org/abs/1907.10597
- Se connecter ou s'inscrire pour publier un commentaire