Aller au contenu principal
Point d'interrogation IA

Cycle « Technologie & responsabilité » - F.A.Q.

F.A.Q. IA et éco-ingénierie :

questions essentielles

De la compréhension à l'action : huit questions pour passer de la théorie à l'engagement !

Temps de lecture : environ 30 minutes
  

Vous avez parcouru les quatre volets du cycle « Technologie & responsabilité ». Vous y avez découvert les mécanismes techniques de l'intelligence artificielle, les principes de l'éco-ingénierie, les tensions profondes qui opposent ces deux rationalités, ainsi que les conditions politiques d'une éventuelle convergence. Des interrogations demeurent toutefois, légitimes et souvent urgentes. Cette FAQ s'attache à y répondre de manière directe, rigoureuse et opérationnelle, afin de passer de la compréhension théorique à l'action concrète.

  

Introduction

L'intelligence artificielle et l'éco-ingénierie occupent aujourd'hui un espace paradoxal : omniprésentes dans les discours publics, souvent mal comprises, et pourtant décisives pour l'avenir de nos sociétés industrielles. La première promet puissance, optimisation et automatisation ; la seconde impose sobriété, circularité et compatibilité avec les limites planétaires.

Leur rencontre soulève des questions essentielles qui traversent les dimensions technique, économique, politique et philosophique. Cette FAQ propose une synthèse claire des enjeux majeurs, en s'appuyant exclusivement sur des faits vérifiés, des ordres de grandeur robustes et les analyses développées dans la série.

Son objectif est simple : éclairer, clarifier, et fournir des repères solides pour l'action.

L'IA n'est ni un démon ni un dieu ; elle est le miroir mathématique de nos structures de pensée.

Réponse courte

Oui, une IA sobre est techniquement possible et des preuves existent. Non, elle n'est pas encore la norme, car les incitations économiques et géopolitiques poussent massivement dans l'autre sens.

Réponse développée

La sobriété techniquement démontrée

Deux cas emblématiques l'attestent.

BLOOM (2022) : environ 50 tonnes de CO₂e pour l'entraînement complet d'un modèle de 176 milliards de paramètres, soit dix fois moins qu'un modèle de taille comparable comme GPT-3 (environ 500-550 tonnes de CO₂e selon les estimations disponibles). Cette performance repose sur trois choix délibérés : mix électrique bas-carbone (supercalculateur Jean Zay alimenté majoritairement par le nucléaire français), infrastructure optimisée (mutualisation des ressources, taux d'utilisation maximisé), transparence méthodologique complète (ACV publiée dans une revue à comité de lecture).

DeepMind (2016) : réduction de 40% de l'énergie de refroidissement des data centers Google grâce à un pilotage algorithmique en temps réel. L'IA ajuste dynamiquement les flux d'air, les températures, les régimes de pompes en fonction de centaines de paramètres. Résultat : des dizaines de millions de kilowattheures économisés chaque année, sans dégrader les performances des serveurs.

Ces exemples prouvent qu'à performance équivalente, l'empreinte peut varier d'un facteur 10 selon les choix de conception.

Les raisons de la marginalité actuelle

La dynamique dominante du secteur repose sur les scaling laws : plus grand = meilleur. Cette logique entraîne : explosion des tailles de modèles (de 175 milliards de paramètres pour GPT-3 à plus de 1 000 milliards estimés pour GPT-4), augmentation des besoins en calcul (facteur 10 à 50 entre générations), multiplication des data centers énergivores.

Dans ce contexte, la sobriété apparaît comme un handicap concurrentiel. Aucune entreprise n'accepte volontairement de ralentir dans un jeu où celui qui ralentit perd des parts de marché.

Ce qui relève effectivement du greenwashing

Promesses « net-zero 2030 » sans trajectoire vérifiable ni mécanisme d'audit indépendant. Compensations carbone douteuses (crédits non additionnels, plantations sur des zones déjà forestières). Périmètres d'analyse volontairement restreints (exclusion de la fabrication du matériel, du transport, des usages finaux). Absence de publication des ACV complètes pour les modèles propriétaires.

Sans obligation légale de transparence, la communication l'emporte souvent sur la réalité.

Verdict

La sobriété de l'IA est techniquement possible et scientifiquement établie, mais elle reste marginale tant que les règles du jeu n'imposent ni transparence obligatoire, ni plafonds contraignants, ni incitations économiques alignées sur l'objectif écologique.

Réponse courte

Parce que l'efficacité technique, laissée à elle seule, n'a jamais fait baisser l'impact global. C'est le cœur du paradoxe de Jevons : on consomme plus dès que c'est plus efficace. Sans plafonds chiffrés, l'IA « sobre » alimente la croissance des usages plutôt que la réduction des impacts.

Réponse développée

Le paradoxe de Jevons : efficacité ≠ sobriété

Depuis JEVONS et sa « question du charbon » au XIXe siècle (1865), on sait que l'amélioration de l'efficacité énergétique ne garantit pas une baisse de la consommation totale. Au contraire, elle la fait souvent exploser : la ressource devient moins chère par unité d'usage, les usages se multiplient, l'impact global augmente.

Le numérique illustre déjà ce mécanisme. Les data centers ont vu leur efficacité s'améliorer spectaculairement (PUE passant typiquement d'environ 2,0 à 1,2 pour les meilleurs), mais la demande de calcul, de stockage et de bande passante a crû plus vite encore. Résultat : la part du numérique dans les émissions mondiales de gaz à effet de serre croît, avec une projection autour de 8% à horizon 2025 dans un scénario tendanciel (The Shift Project, 2019).

L'IA suit la même trajectoire. L'optimisation algorithmique, les progrès matériels, la mutualisation permettent de réduire la consommation par requête ou par modèle. Mais ces gains sont immédiatement réinvestis dans plus de modèles, plus d'usages, plus de requêtes. Une IA plus « efficace » rend simplement le service moins cher et plus accessible, donc plus consommé.

Les trois types de plafonds nécessaires

Plafonds énergétiques sectoriels : part maximale de l'électricité nationale allouée au numérique, puis trajectoire de stabilisation ou de réduction. Cela force les acteurs à prioriser les usages les plus utiles dans une enveloppe contrainte.

Plafonds d'émissions par acteur : quota annuel de CO₂e pour les grandes plateformes, aligné sur une trajectoire 1,5°C compatible avec les engagements climatiques internationaux. Sanctionne les dépassements par des amendes dissuasives.

Plafonds d'usage pour certains services : nombre maximal de requêtes, de paramètres, de modèles pour les usages considérés comme peu essentiels (génération ludique massive, publicité hypertrophiée, etc.). Assume qu'il existe une hiérarchie de légitimité des usages.

Ces plafonds ne remplacent pas l'efficacité ; ils la rendent enfin utile. Sans limite, chaque gain d'efficience nourrit la croissance des usages. Avec une limite, les mêmes gains permettent de faire autant avec moins, voire de réduire réellement l'empreinte.

Une métaphore clarifiante

L'image est simple : optimiser sans plafond revient à installer une pompe plus puissante dans un bateau qui prend l'eau. On retarde le naufrage, mais on ne change pas le destin. Fixer des plafonds, c'est décider à quel niveau d'eau nous acceptons de vivre, puis dimensionner nos pompes et nos usages en conséquence.

Verdict

Les plafonds absolus sont la condition nécessaire (mais pas suffisante) pour que l'efficacité technique se traduise en sobriété réelle. Sans eux, les gains d'efficience alimentent la croissance plutôt que la réduction. C'est une question de gouvernance collective, pas de performance technique.

Réponse courte

On peut estimer grossièrement des ordres de grandeur, mais pas mesurer sérieusement sans transparence. D'où l'enjeu politique : transformer la mesure d'empreinte en obligation légale, standardisée, auditée, et non en geste volontaire de communication.

Réponse développée

L'opacité actuelle : un choix stratégique

Aujourd'hui, la plupart des grands acteurs de l'IA publient peu ou pas de données complètes sur l'empreinte de leurs modèles. OpenAI ne donne aucune estimation officielle pour GPT-4 ; Meta, Google ou Anthropic restent très sélectifs sur ce qu'ils communiquent.

Les chercheurs compensent par des estimations indirectes : lois d'échelle énergie-paramètres (PATTERSON et al., 2021), mesures sur des modèles plus petits extrapolées aux grands, outils comme Green Algorithms ou CodeCarbon (LACOSTE et al., 2019). Ces approches donnent des ordres de grandeur utiles, mais elles restent des reconstructions partielles, sans accès aux données internes complètes.

Les trois briques d'une mesure sérieuse

Une méthodologie standardisée : Une norme de type ISO, analogue à celles de l'analyse de cycle de vie pour les produits physiques (ISO 14040/14044), doit préciser le périmètre minimal : entraînement initial et réentraînements, phase d'inférence sur toute la durée de vie, infrastructure (data centers, réseaux, refroidissement), fabrication et fin de vie des équipements. Sans cadre commun, chacun choisit un périmètre qui l'avantage.

Des audits indépendants : Des agences publiques ou para-publiques doivent avoir accès aux données réelles : compteurs électriques, logs de calcul, localisation des serveurs, contrats d'énergie. Ce modèle existe déjà pour la sûreté nucléaire (Autorité de sûreté nucléaire en France) ou certains marchés financiers (Autorité des marchés financiers) ; il doit être transposé au numérique critique.

Des sanctions dissuasives : Sans contrainte, la tentation est forte de « verdir » les chiffres. Il faut que la non-publication ou la falsification aient un coût supérieur au risque de transparence : amendes indexées sur le chiffre d'affaires (4% comme pour le RGPD), interdiction temporaire de commercialisation en cas de récidive, responsabilité pénale des dirigeants pour fraude environnementale caractérisée.

L'ignorance organisée comme situation actuelle

En attendant ce cadre, on reste dans une situation d'« ignorance organisée » : quelques travaux académiques rigoureux sur des modèles ouverts (BLOOM, OPT de Meta) donnent des repères, mais l'essentiel de la puissance de calcul mondiale reste dans l'ombre.

Le point clé est donc politique : le problème n'est pas tant l'absence de méthode que l'absence d'obligation. Dès que la transparence deviendra un prérequis réglementaire à la mise sur le marché, la mesure cessera d'être un exercice de communication pour devenir un socle de gouvernance.

Verdict

Mesurer sérieusement l'empreinte de l'IA sans accès aux données internes est impossible. Les estimations indirectes donnent des ordres de grandeur utiles mais insuffisants pour une gouvernance rigoureuse. L'enjeu est donc de transformer la transparence en obligation légale, standardisée et auditée.

Réponse courte

Oui, à la fois par la phase d'entraînement (extrêmement concentrée et énergivore) et par l'usage massif au quotidien (inférence). Une requête ChatGPT ou une image générée consomment nettement plus qu'une recherche Web ou un e-mail. Le problème vient surtout de la combinaison puissance par requête × volume d'usage.

Réponse développée

L'entraînement initial : un choc énergétique concentré

Les grands modèles de langage et d'images nécessitent des milliers de GPU, activés pendant des jours ou des semaines. Les estimations disponibles suggèrent :

GPT-3 : environ 1 287 MWh consommés pour l'entraînement, soit de l'ordre de 500 à 550 tonnes de CO₂e selon les estimations indirectes de PATTERSON et al. (2021). Ces chiffres constituent la meilleure approximation disponible, bien qu'OpenAI n'ait jamais publié de données officielles.

BLOOM : environ 433 MWh pour quelque 50 tonnes de CO₂e en bilan complet (LUCCIONI et al., 2023), soit dix fois moins que GPT-3 à taille comparable. Cette performance résulte d'un entraînement sur supercalculateur public bas-carbone et d'une méthodologie d'ACV complète publiée.

Même si les chiffres exacts varient selon les hypothèses, l'ordre de grandeur est clair : un seul entraînement représente déjà l'empreinte annuelle de dizaines à centaines de personnes dans un pays comme la France (environ 10 tonnes CO₂e/habitant/an).

L'inférence : une pluie fine continue, potentiellement plus lourde à long terme

Chaque requête à un modèle génératif active des milliards de paramètres. On estime grossièrement qu'une requête textuelle à un grand modèle consomme 0,3 à 3 Wh selon les méthodologies (RITCHIE, 2025), soit plusieurs fois plus d'énergie qu'une recherche Web classique (environ 0,0003 kWh selon Google, 2009), et qu'une génération d'image est encore plus coûteuse (plusieurs Wh par image).

Pris isolément, l'impact d'une requête reste modeste. Mais si l'on multiplie : des centaines de millions d'utilisateurs × des dizaines de requêtes quotidiennes × sur des années = empreinte cumulée de l'inférence dépassant rapidement celle de l'entraînement. C'est déjà le cas pour des services grand public largement diffusés.

Comparaison avec les autres usages numériques

En comparaison, les autres usages numériques dominants (streaming vidéo, navigation Web, e-mails) restent moins intensifs par unité de service, même si leur volume les rend très impactants. Le streaming vidéo en haute définition reste aujourd'hui le principal poste du trafic de données, mais l'IA générative ajoute un nouveau bloc de consommation côté calcul (The Shift Project, 2019).

Le point important est donc double : sur le plan unitaire, l'IA générative se situe clairement dans le haut du spectre des usages numériques ; sur le plan systémique, elle arrive dans un paysage déjà tendu, et risque de faire sauter les budgets carbone du numérique si elle se généralise sans contrainte.

Verdict

L'IA générative est effectivement plus polluante que la plupart des usages numériques classiques, à la fois par la concentration énergétique de l'entraînement et par l'intensité de l'inférence multipliée par le volume d'usage. La réponse n'est pas d'abolir ces usages, mais de les réserver là où la valeur créée justifie le coût, de les rendre aussi sobres que possible, et d'en limiter la prolifération à des cas véritablement utiles.

Réponse courte

Mesurer sérieusement, éco-conditionner les choix numériques, rendre les équipes techniques « bivalentes » (calcul et écologie), publier leurs données et peser politiquement pour que la sobriété devienne une norme et non un handicap compétitif.

Réponse développée

Mesurer avant d'agir : le diagnostic préalable

Sans diagnostic, on ne fait qu'optimiser à l'aveugle.

Réaliser une cartographie complète des usages numériques et IA : quels services, chez quels fournisseurs, pour quels volumes, à quelle fréquence. Estimer l'empreinte via des outils et méthodes reconnues (Green Algorithms, CodeCarbon, ACV numériques, méthodologies du Shift Project). Identifier les « points chauds » : modèles internes très gourmands, services externes massivement utilisés, data centers peu efficaces ou alimentés par de l'énergie carbonée.

Éco-conditionner les achats et les projets

L'idée n'est plus d'acheter la solution « la plus performante pour le prix », mais « suffisamment performante pour le besoin, avec l'empreinte la plus faible possible ».

Dans les appels d'offres ou les choix de solutions : exiger la publication de l'empreinte (entraînement, inférence, localisation des data centers, mix énergétique), privilégier les infrastructures bas-carbone (nucléaire, hydraulique, renouvelable contractualisé additionnel), favoriser les modèles spécialisés plus petits plutôt que les géants universels lorsqu'un usage ciblé le permet (un modèle de 3 milliards de paramètres dédié peut égaler un géant de 175 milliards sur une tâche spécifique tout en consommant cent fois moins).

Former les équipes techniques aux enjeux écologiques

Une IA sobre impose un changement de culture chez les ingénieurs.

Former les data scientists et développeurs aux ordres de grandeur énergétiques (différence entre kWh et MWh, entre tonne et kilogramme de CO₂e), aux méthodes de mesure (ACV, périmètres, facteurs d'émission), aux techniques de compression et d'optimisation (distillation, quantification, pruning). Intégrer des objectifs d'efficience et d'empreinte dans les critères de qualité des projets, au même titre que la performance et la robustesse.

Optimiser l'existant plutôt que multiplier les projets

Réutiliser et adapter des modèles existants (fine-tuning) plutôt que réentraîner systématiquement depuis zéro. Compresser, quantifier, distiller les modèles internes lorsque c'est possible (DistilBERT conserve 97% des performances de BERT avec 40% de la taille). Allonger la durée de vie du matériel, optimiser le taux de charge des clusters plutôt que multiplier les petits silos sous-utilisés.

Assumer une transparence offensive

Publier régulièrement l'empreinte numérique et IA de l'entreprise, avec la méthodologie associée (périmètre, hypothèses, sources des facteurs d'émission). Communiquer sur les arbitrages et non seulement sur les succès : expliquer quels usages ont été abandonnés, quelles fonctionnalités n'ont pas été implantées pour des raisons de sobriété.

Utiliser son poids économique pour changer les règles du jeu

Une grande entreprise peut peser sur la régulation ; une PME peut peser sur son écosystème.

Plaider pour des règles communes (transparence obligatoire, plafonds sectoriels, éco-conditionnalité des aides publiques), qui évitent que les acteurs vertueux soient pénalisés face aux plus laxistes (SCHWARTZ et al., 2019). Participer à des coalitions (Green Software Foundation, initiatives sectorielles) qui construisent des standards de fait.

Verdict

L'action concrète des entreprises ne se limite pas à optimiser leur propre empreinte ; c'est aussi contribuer à faire évoluer le cadre collectif pour que la sobriété devienne l'option par défaut. Mesurer, éco-conditionner, former, publier, peser : cinq verbes d'action qui transforment le discours en réalité.

Réponse courte

Individuellement, réduire les usages futiles et prolonger la durée de vie des équipements. Collectivement, exiger la transparence, soutenir la régulation et faire pression sur les entreprises et les responsables politiques pour que la sobriété numérique devienne un enjeu de débat, pas une note en bas de page.

Réponse développée

Comprendre pour ne plus consommer « comme si de rien n'était »

La tentation est grande de penser que « tout se joue au niveau des géants du numérique ». C'est partiellement vrai, mais les citoyens disposent de plusieurs leviers, à condition de les articuler.

Prendre conscience que le cloud est un parc de machines très physiques, alimentées et refroidies en continu (CRAWFORD, 2021). Se familiariser avec quelques ordres de grandeur (streaming, IA, stockage) pour éviter de se focaliser sur des gestes symboliques (éteindre le Wi-Fi la nuit) et négliger les gros postes (renouvellement anticipé du smartphone, génération massive de contenus IA).

Pratiquer une sobriété d'usage lucide, sans culpabilisme

Limiter les requêtes IA purement ludiques ou répétitives (régénérer dix fois un texte pour des variations marginales). Éviter de régénérer sans fin textes et images pour un bénéfice marginal. Allonger autant que possible la durée de vie des smartphones, ordinateurs, tablettes (l'essentiel de l'empreinte d'un appareil électronique se situe dans sa fabrication, pas dans son usage).

Ce n'est pas « héroïque », mais multiplié par des centaines de millions de personnes, cela commence à peser sur la demande globale.

Orienter son pouvoir de client

Favoriser les services qui publient leur empreinte et s'engagent de manière crédible sur la réduction (avec trajectoires vérifiables, pas seulement déclarations d'intention). Questionner les services que l'on utilise : demander des informations environnementales, signaler que ce critère pèse dans son choix (les entreprises sont sensibles aux signaux clients, surtout quand ils sont nombreux).

Peser comme citoyen, pas seulement comme consommateur

Interpeller ses élus sur la régulation de l'IA et du numérique : transparence obligatoire, plafonds sectoriels, éco-conditionnalité des aides publiques, taxe carbone sur les data centers. Participer aux consultations publiques (la Commission européenne en organise régulièrement sur les sujets numériques et environnementaux). Soutenir les ONG qui travaillent sur ces sujets (The Shift Project, Green IT, Framasoft, La Quadrature du Net). Faire de la sobriété numérique un critère de vote.

Ce qui change réellement les trajectoires, ce n'est pas seulement la somme des gestes individuels, c'est la combinaison de ces gestes avec une pression politique durable qui rend possible des règles collectives plus ambitieuses.

Verdict

L'action citoyenne la plus puissante n'est pas la culpabilité individuelle mais la combinaison : sobriété personnelle raisonnée + pression politique collective. Les gestes individuels comptent, mais ils ne transforment les trajectoires que s'ils s'inscrivent dans un mouvement de transformation des règles du jeu.

Réponse courte

L'IA n'est ni un gadget généralisé ni une nécessité universelle. Elle est décisive pour certains usages (santé, climat, maintenance, recherche), largement dispensable pour d'autres (publicité hypertrophiée, gadgets de confort, deepfakes récréatifs). La question n'est pas « pour ou contre l'IA ? », mais « pour quoi, où et à quel prix écologique et social ? ».

Réponse développée

Des usages à forte valeur difficilement substituables

Parler d'« IA » en bloc est trompeur. Il est plus pertinent de raisonner usage par usage, en mettant en regard la valeur créée et l'empreinte générée.

Aide au diagnostic médical : détection précoce de cancers sur images médicales, triage radiologique, amélioration nette de la précision et de la rapidité, avec un bénéfice vital évident.

Optimisation des réseaux électriques : intégration des énergies renouvelables intermittentes (éolien, solaire), équilibrage dynamique offre/demande, condition technique pour monter à des taux élevés de renouvelables sans menacer la stabilité des réseaux.

Maintenance prévisionnelle : prolongation de la durée de vie des équipements industriels, réduction des pannes catastrophiques, donc des déchets et des pertes de production (modèle Rolls-Royce Power-by-the-Hour).

Simulation scientifique avancée : climat, matériaux, biologie moléculaire. Le calcul intensif a un rôle structurel dans la découverte scientifique.

Dans ces cas, le coût écologique de l'IA peut être considéré comme un investissement dans la décarbonation et la résilience, à condition de rester maîtrisé.

Des usages à faible valeur, voire nuisibles

Hyper-ciblage publicitaire : scoring comportemental massif, bénéfice surtout pour les plateformes, coût sociétal (manipulation) et écologique (calcul massif) important.

Deepfakes de divertissement : génération massive de contenus sans qualité, automatisation de spams sophistiqués, désinformation facilitée.

Sur-équipement en assistants « intelligents » : fonctionnalités qui apportent peu par rapport à des solutions simples, mais consomment en permanence.

Ici, l'IA consomme des ressources rares pour des bénéfices discutables, voire négatifs.

Un critère d'évaluation : le rapport bénéfice social / impact écologique

On peut se représenter chaque usage dans un repère à deux axes : bénéfice social ou écologique (faible, moyen, élevé) et impact environnemental (faible, moyen, élevé).

Les cas à généraliser sont ceux où le bénéfice est élevé pour un impact contenu, surtout lorsque l'IA permet d'éviter des émissions beaucoup plus importantes ailleurs (optimiser un système fortement émetteur). Les cas à interdire ou rationner sont ceux où l'impact est élevé pour un bénéfice faible ou négatif.

Qui tranche sur la légitimité des usages ?

Décider de ce qui est « essentiel » ou « futile » ne relève pas des seules entreprises ni des seuls ingénieurs. C'est un débat politique, qui doit être informé par la science mais tranché par des procédures démocratiques : instances de délibération citoyenne, parlements, autorités indépendantes.

L'enjeu n'est donc pas de décréter un oui ou un non global à l'IA, mais de construire des critères collectifs explicites pour dire où elle a du sens, et où elle n'en a pas.

Verdict

L'IA est indispensable pour certains usages à forte valeur sociale et écologique, dispensable (voire nuisible) pour d'autres. La question centrale n'est pas technique mais politique : quels usages méritons de financer avec notre budget carbone collectif, et qui décide de cette hiérarchie ?

Réponse courte

Commencer par ce qui structure tout le reste : mesurer, fixer des contraintes, transformer les incitations. Pour les entreprises comme pour les pouvoirs publics et les citoyens, il s'agit de privilégier les actions à fort effet de levier sur les structures plutôt que les gestes symboliques isolés.

Réponse développée

Face à l'ampleur du problème, le risque est double : soit l'inaction résignée (« c'est trop gros pour moi »), soit la dispersion dans des micro-gestes sans effet systémique (« j'ai éteint le Wi-Fi, j'ai fait ma part »). D'où l'intérêt d'une hiérarchisation.

Pour les entreprises : trois priorités

Mesurer : audit complet des usages IA et numériques, estimation de l'empreinte avec une méthodologie claire et documentée.

Éco-conditionner : faire de la performance environnementale un critère éliminatoire ou lourdement pondéré dans tout nouveau projet, achat, contrat.

Former et gouverner : doter les équipes d'une culture de sobriété, formaliser une politique interne d'IA responsable, avec des arbitrages documentés et assumés.

Pour les pouvoirs publics : des signaux structurants

Transparence obligatoire sur l'empreinte des grands modèles et des grands data centers, avec audits indépendants et sanctions dissuasives.

Plafonds sectoriels de consommation énergétique et trajectoires de réduction alignées sur les objectifs climatiques nationaux et internationaux.

Éco-conditionnalité des aides publiques et des marchés (pas d'argent public pour des services opaques et manifestement surdimensionnés).

Pour les citoyens : articuler gestes individuels et action politique

Ajuster ses usages et son équipement pour limiter le gaspillage évident (durée de vie allongée, usages raisonnés).

Se former et diffuser des connaissances fiables dans son entourage professionnel et personnel.

Soutenir, par le vote et par l'engagement, des forces politiques et associatives qui portent une régulation ambitieuse du numérique.

L'effet de levier comme boussole

Une règle pratique peut guider les choix d'action : tout ce qui modifie une structure (règle, incitation, norme, infrastructure) a, à long terme, plus d'effet que ce qui ne modifie que des comportements individuels au sein de structures inchangées.

Les actions les plus puissantes sont souvent les moins visibles : une clause dans un marché public, un critère dans un appel d'offres, une méthodologie normée, un plafond légal. Ces changements structurels, une fois en place, orientent durablement les comportements de millions d'acteurs.

En d'autres termes, la question à se poser pour chaque action envisagée pourrait être : « Est-ce que cela change seulement ma pratique, ou est-ce que cela contribue aussi, même modestement, à changer les règles du jeu ? »

Verdict

Les premières actions à fort impact sont celles qui modifient les structures plutôt que seulement les comportements individuels. Mesurer pour rendre visible, contraindre pour rendre inévitable, transformer les incitations pour rendre la sobriété rentable. L'effet de levier comme boussole permet de prioriser les efforts là où ils comptent vraiment.

  

📌 Point de vue Prométhée T&I

 

La connaissance sans action est stérile ; l'action sans connaissance est dangereuse. Cette FAQ n'est pas un exercice académique. En aucun cas, même, ce n'est un exercice académique, voyez-là comme un outil de travail et un outil de combat intellectuel.

Chez Prométhée T&I, nous pensons que la bataille pour une IA sobre se gagne d'abord sur le terrain des idées : en donnant des ordres de grandeur fiables, en distinguant le démontré du spéculatif, en clarifiant les confusions conceptuelles qui alimentent l'inaction (ce que nous avons essayé de faire ; et croyez bien que la tache est ardue).

Notre conviction : le principal obstacle à la transition écologique du numérique n'est ni technique ni moral ; il est cognitif. Efficacité n'est pas sobriété. Gains unitaires n'est pas impact global. Innovation n'est pas régulation. Et l'effet rebond est plus puissant que toutes les bonnes intentions.

Ce que nous défendons :

  • Répondre aux vraies questions, pas aux questions faciles.
  • Donner des chiffres vérifiables, jamais des impressions.
  • Distinguer ce qui est établi de ce qui est incertain.
  • Proposer des leviers concrets, hiérarchisés par impact réel.

 

Notre engagement : ne jamais simplifier au point de trahir la réalité. Les enjeux sont complexes. Les solutions sont difficiles. Les arbitrages sont douloureux. Nous préférons des lecteurs lucides mais responsables à des lecteurs rassurés mais trompés.

Si, après cette FAQ, vous êtes mieux informés mais aussi plus conscients de la difficulté du chemin, alors nous aurons réussi : c'est de cette lucidité-là que naît l'action responsable.

  

Pour aller plus loin

Cette FAQ a répondu aux questions les plus fréquentes sur la convergence entre intelligence artificielle et éco-ingénierie. Elle a montré que la sobriété de l'IA est techniquement possible mais politiquement improbable sans transformation profonde des règles du jeu. Elle a identifié les leviers d'action concrets pour les entreprises, les pouvoirs publics et les citoyens.

Pour approfondir ces enjeux, voici quelques ressources complémentaires :

Organismes et think tanks

 

Outils de mesure

  • Green Algorithms : calculateur d'empreinte carbone pour le calcul scientifique
  • CodeCarbon : outil open source pour mesurer les émissions du code Python
  • ML CO2 Impact : estimateur d'empreinte pour les modèles d'apprentissage automatique

 

Textes législatifs

 

Conférences scientifiques

  
Bibliographie commentée

Crawford, Kate (2021) - Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press.
Cartographie exhaustive des coûts matériels, sociaux et environnementaux de l'IA. Crawford documente les chaînes d'extraction des métaux rares, les conditions de travail des annotateurs de données, la consommation énergétique massive des data centers. Démonte le mythe de l'IA immatérielle. Essentiel pour comprendre que toute sobriété numérique doit intégrer l'ensemble du cycle de vie.

Jevons, William Stanley (1865) - The Coal Question: An Inquiry Concerning the Progress of the Nation, and the Probable Exhaustion of Our Coal-Mines, Macmillan.
Ouvrage historique documentant le premier effet rebond observé : l'amélioration de l'efficacité des machines à vapeur n'a pas réduit la consommation de charbon, mais l'a accrue. Le « paradoxe de Jevons » reste central pour comprendre pourquoi l'innovation technique seule ne garantit jamais une réduction d'impact absolu sans gouvernance des usages. Texte fondateur pour penser les plafonds absolus.

Lacoste, Alexandre ; Luccioni, Alexandra ; Schmidt, Victor ; Dandres, Thomas (2019) - Quantifying the Carbon Emissions of Machine Learning, arXiv:1910.09700.
Article introduisant l'outil Machine Learning Emissions Calculator, permettant aux chercheurs d'estimer l'empreinte carbone de leurs expériences. Méthodologie de référence pour sensibiliser la communauté scientifique à ses propres impacts. Propose des bonnes pratiques pour réduire l'empreinte sans sacrifier la qualité de la recherche.

Luccioni, Alexandra Sasha ; Viguier, Sylvain ; Ligozat, Anne-Laure (2023) - Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language ModelJournal of Machine Learning Research, vol. 24, n° 253, p. 1-15.
Méthodologie de référence pour mesurer l'empreinte carbone d'un modèle d'IA. L'étude de BLOOM démontre qu'un modèle performant peut être sobre (environ 50 tonnes de CO₂e en bilan complet) grâce à des choix d'infrastructure, de mutualisation et de gouvernance. Fait autorité pour toute ACV d'IA. Prouve qu'une autre voie est possible dès aujourd'hui.

Patterson, David ; Gonzalez, Joseph ; Le, Quoc V. et al. (2021) - Carbon Emissions and Large Neural Network Training, arXiv:2104.10350.
Rapport technique de Google Research établissant une méthode de calcul des émissions de CO₂ liées à l'entraînement de modèles de grande taille. Bien que non publié dans une revue à comité de lecture, ce rapport constitue la source la plus citée pour les estimations d'empreinte carbone de GPT-3 (environ 500-550 tonnes de CO₂e). Sert de référence méthodologique malgré l'opacité des données primaires.

Ritchie, Hannah (2025) - What's the Carbon Footprint of Using ChatGPT?, newsletter Sustainability by Numbers.
Article de vulgarisation scientifique analysant le coût énergétique par requête (0,3 à 3 Wh selon les méthodologies). Cette fourchette illustre la difficulté méthodologique de mesurer précisément l'impact d'un usage individuel. Met en lumière l'écart entre coût marginal et coût moyen incluant l'infrastructure permanente.

Schwartz, Roy ; Dodge, Jesse ; Smith, Noah A. ; Etzioni, Oren (2019) - Green AICommunications of the ACM, vol. 63, n° 12, p. 54-63.
Texte programmatique opposant la « Red AI » (croissance illimitée des modèles) à la « Green AI » (efficience, traçabilité, sobriété). Propose de redéfinir les critères d'excellence scientifique en IA pour intégrer systématiquement l'impact environnemental. Appel fondateur à transformer la culture de recherche elle-même.

The Shift Project (2019) - Lean ICT: Pour une sobriété numérique, Rapport.
Premier rapport français de référence documentant l'impact environnemental croissant du numérique (environ 4% des émissions mondiales de GES en 2019, avec une projection autour de 8% à horizon 2025 dans un scénario tendanciel). Propose le concept de « sobriété numérique » comme alternative à l'approche purement techniciste de l'efficacité énergétique. Démontre que sans gouvernance des usages, les gains d'efficience sont systématiquement annulés par l'effet rebond.

The Shift Project (2021) - Impact environnemental du numérique : tendances à 5 ans et gouvernance de la 5G, Rapport.
Mise à jour intégrant les nouvelles données sur la 5G, le streaming, le cloud. Affine les estimations d'impact et propose des scénarios de transition. Introduit le concept de « budget carbone numérique » par secteur. Plaide pour une régulation publique forte plutôt que pour la seule autorégulation des acteurs. Influence croissante sur les politiques publiques françaises et européennes.

NB : Toutes les références principales s’appuient sur la littérature académique ou institutionnelle, complétée par quelques articles de vulgarisation explicitement signalés comme tels. Aucune source non traçable n’a été retenue.

Stéphane COUTANSON - Prométhée T&I - © 2025

Prométhée T&I

Réseaux sociaux

Articles récents