Aller au contenu principal
Point d'interrogation IA

F.A.Q. IA et éco-ingénierie : questions essentielles

IA et éco-ingénierie : questions essentielles

Comprendre les enjeux, dissiper les malentendus, identifier les leviers d'action

Cycle « Technologie et responsabilité » – Prométhée Technologies & Ingénierie

[Chapô de série commun]

À l'heure où l'intelligence artificielle s'impose comme la technologie la plus disruptive du XXIe siècle, et où l'urgence écologique redéfinit les conditions mêmes de l'activité industrielle, une question décisive émerge : ces deux dynamiques peuvent-elles converger, ou sont-elles structurellement incompatibles ?

Ce cycle de quatre articles propose une exploration rigoureuse, à la fois scientifique, philosophique et politique, de cette tension fondatrice. Son ambition : outiller décideurs, ingénieurs et citoyens pour comprendre ce qui se joue réellement dans la mutation technologique contemporaine, au-delà des mythes et des slogans.

La série se déploie en quatre temps :

  1. L'intelligence artificielle : démystifier la machine à calculer — Comprendre ce qu'est vraiment l'IA, ses principes techniques, ses promesses et ses angles morts.
  2. L'éco-ingénierie : l'intelligence du juste nécessaire — Explorer les fondements d'une ingénierie compatible avec les limites planétaires, sobre et systémique.
  3. IA et éco-ingénierie : les noces impossibles ? — Cartographier les cinq tensions structurelles qui opposent calcul et sobriété.
  4. Vers une IA sobre : conditions d'une alliance improbable — Identifier les convergences possibles et les conditions politiques nécessaires à leur généralisation.

Ni technophilie béate, ni ascèse punitive : cette série défend une politique des moyens orientée vers l'efficience systémique, la mesure et la traçabilité. Elle interroge les choix civilisationnels que nous devons faire, collectivement, pour que la technique serve enfin le vivant.

Chapô

Vous avez lu les quatre articles du cycle « Technologie et responsabilité ». Vous avez exploré les principes techniques de l'IA, les fondements de l'éco-ingénierie, les tensions structurelles qui les opposent, et les conditions politiques d'une éventuelle convergence.

Mais des questions demeurent — légitimes, pratiques, urgentes. Cet article y répond directement, sans détour, en synthétisant ce que nous avons appris et en l'orientant vers l'action.

Huit questions pour passer de la compréhension à l'engagement.

1. L'IA peut-elle vraiment être sobre, ou est-ce du greenwashing ?

Réponse courte : Oui, techniquement, une IA sobre est possible. Non, ce n'est pas encore la norme.

Réponse développée :

La sobriété énergétique de l'IA est techniquement démontrée par plusieurs exemples concrets et mesurés :

BLOOM (2022), modèle francophone de 176 milliards de paramètres, a émis environ 25 tonnes de CO₂e pendant son entraînement — vingt fois moins que GPT-3 à taille comparable (502 tonnes). Cette performance repose sur trois piliers : mix énergétique bas-carbone (nucléaire français via le supercalculateur Jean Zay), infrastructure optimisée et mutualisée, transparence totale avec publication de l'ACV complète dans une revue scientifique à comité de lecture (Journal of Machine Learning Research).

DeepMind (2016) a réduit de 40% la consommation de refroidissement des data centers Google en utilisant l'IA pour piloter dynamiquement ventilateurs, pompes et températures d'eau selon des centaines de paramètres. Résultat : des dizaines de millions de kWh économisés annuellement, sans dégradation des performances. L'intérêt économique (l'électricité représente 30-40% des coûts opérationnels) a convergé avec l'intérêt écologique.

Mais ces cas restent marginaux, pour trois raisons structurelles :

  1. BLOOM a bénéficié d'un financement public déconnecté de la pression du profit trimestriel, d'une infrastructure nationale bas-carbone (tous les pays n'ont pas le nucléaire ou l'hydraulique), et d'une gouvernance académique acceptant la transparence totale.
  2. DeepMind a optimisé parce que l'électricité coûtait cher. Quand l'énergie est bon marché (charbon en Chine, gaz aux États-Unis), l'incitation économique à optimiser s'effondre.
  3. La tendance dominante va dans le sens inverse : les modèles deviennent exponentiellement plus gros (GPT-4 consommerait 40 à 48 fois plus que GPT-3 selon les estimations), les data centers se multiplient, les usages explosent.

Verdict : La sobriété est techniquement possible, économiquement viable dans certains contextes, mais structurellement marginale sans transformation des incitations. Le greenwashing existe massivement (promesses "net-zero 2030" sans trajectoire contraignante, compensations carbone douteuses), mais quelques acteurs font réellement le choix de la sobriété. Il faut distinguer les vitrines vertueuses de la tendance générale — et agir pour que l'exception devienne norme.

2. Pourquoi les plafonds absolus sont-ils indispensables ?

Réponse courte : Parce que l'efficacité technique seule ne garantit jamais une réduction d'impact absolu. C'est le paradoxe de Jevons.

Réponse développée :

L'histoire économique le prouve sur deux siècles : toute amélioration d'efficacité énergétique finit systématiquement par être réinvestie dans la croissance des usages, annulant — voire inversant — les bénéfices écologiques potentiels.

Le paradoxe de Jevons (1865) : quand les machines à vapeur sont devenues plus efficientes (moins de charbon par unité de puissance produite), la consommation totale de charbon n'a pas baissé — elle a explosé. Pourquoi ? Parce que l'efficacité a rendu la vapeur moins chère, donc plus attractive, donc utilisée partout (transport, industrie, mines, agriculture). Le gain unitaire a été submergé par la multiplication des usages.

Même mécanisme avec l'IA et le numérique :

  • Les data centers deviennent plus efficients (PUE amélioré de 2,5 en 2010 à 1,2-1,3 aujourd'hui pour les meilleurs) ? On en construit deux fois plus, on multiplie les services, on baisse les prix pour conquérir de nouveaux marchés.
  • Les modèles consomment moins par requête (optimisation algorithmique, quantification, pruning) ? On multiplie les requêtes par dix, on intègre l'IA dans des milliers d'applications qui n'en avaient pas besoin, on généralise l'usage à des contextes futiles.
  • Les véhicules consomment deux fois moins de carburant ? On roule deux fois plus, on achète des SUV plus lourds, on étale les villes, on multiplie les déplacements.

L'effet rebond direct (consommer davantage du service devenu moins cher), indirect (réinvestir l'argent économisé dans d'autres consommations polluantes) et systémique (la croissance de l'efficacité stimule la croissance économique globale) rend l'optimisation technique insuffisante.

Les plafonds absolus sont la seule parade robuste :

  • Quotas énergétiques sectoriels : le numérique ne peut pas dépasser X% de la consommation électrique nationale (par exemple 5%, puis stabilisé ou réduit progressivement), négocié démocratiquement et ajusté selon les trajectoires climatiques.
  • Plafonds d'émissions par entreprise : une entreprise tech ne peut émettre plus de Y tonnes de CO₂e/an pour ses activités IA, avec réduction obligatoire alignée sur les accords de Paris (-5% par an par exemple).
  • Interdiction ou rationnement d'usages futiles : deepfakes récréatifs industriels, publicité micro-ciblée invasive, surveillance de masse non justifiée par un intérêt public supérieur. Décisions prises démocratiquement, pas technocratiquement.

Sans ces limites quantitatives absolues et contraignantes, l'optimisation technique ne fait que repousser temporairement les limites physiques de la croissance. On retarde l'effondrement de quelques années, on ne l'évite pas.

Analogie éclairante : Améliorer l'efficacité énergétique sans plafond absolu, c'est comme installer une pompe plus performante dans un bateau qui prend l'eau. On évacue l'eau plus vite, certes, mais si on ne colmate pas la brèche (= réduction des usages, plafonnement de la consommation), le bateau coulera quand même — juste un peu plus tard.

3. Comment mesurer l'empreinte d'une IA quand les entreprises refusent de publier leurs données ?

Réponse courte : On ne peut pas mesurer précisément sans transparence obligatoire. C'est justement le problème.

Réponse développée :

L'asymétrie d'information est un obstacle structurel majeur. Les entreprises qui produisent les modèles contrôlent totalement l'information et peuvent la façonner stratégiquement :

Stratégies d'opacité courantes :

  • Refus pur et simple de publier : OpenAI n'a jamais communiqué l'empreinte de GPT-4. Anthropic (Claude), Google (Gemini), Meta (Llama) publient très peu de données environnementales détaillées et vérifiables.
  • Périmètres choisis pour minimiser : ne comptabiliser que l'entraînement initial, exclure le fine-tuning, ignorer l'inférence (qui sur la durée de vie peut consommer davantage que l'entraînement), ne pas inclure la fabrication du matériel, le transport, la fin de vie.
  • Moyennes qui masquent les pics : communiquer une consommation "moyenne par requête" qui dilue les requêtes complexes (chaîne de pensée, génération longue) dans les requêtes simples.
  • Compensations carbone douteuses : afficher "neutralité carbone" en achetant des crédits à des projets non additionnels (qui auraient eu lieu de toute façon), plantations d'arbres dans des zones déjà forestières.
  • Promesses à horizon lointain : "net-zero en 2030" sans trajectoire annuelle contraignante, sans mécanisme de vérification indépendant, sans sanction en cas de non-respect.

Ce qu'il faudrait pour une mesure réelle :

Méthodologie standardisée obligatoire : créer une norme ISO spécifique pour l'ACV de l'IA (comme ISO 14040/14044 pour les produits physiques), définissant précisément les périmètres, les phases à inclure, les facteurs d'émission à utiliser, les modalités de calcul. Tout modèle au-delà d'un certain seuil (par exemple 10 milliards de paramètres ou 100 MWh consommés) doit publier son ACV selon cette norme.

Audits indépendants obligatoires et réguliers : agences publiques d'audit environnemental du numérique (sur le modèle des autorités de sûreté nucléaire), indépendantes du gouvernement et des entreprises, dotées de :

  • Financement public pérenne et sanctuarisé
  • Pouvoirs d'investigation étendus (accès aux sites, aux données, aux systèmes, y compris celles considérées comme confidentielles commercialement)
  • Mandat d'audit obligatoire annuel ou semestriel
  • Pouvoir de sanction dissuasif (amendes proportionnelles au CA, fermeture temporaire possible en cas de récidive)

Publication en open data : toutes les données environnementales (consommation énergétique, mix électrique, émissions, consommation d'eau, durée de vie estimée) accessibles publiquement, dans des formats standardisés et machine-readable, pour permettre comparaisons, agrégations, études indépendantes.

Sanctions en cas de non-publication ou de mensonge :

  • Non-publication = interdiction de commercialisation (sur le modèle du RGPD pour les données personnelles)
  • Données mensongères ou incomplètes = amende de 4% du chiffre d'affaires mondial (comme RGPD)
  • Récidive = suspension temporaire de commercialisation

En attendant cette régulation (qui n'existe pas encore), on en est réduit à :

  • Estimations académiques indépendantes : comme celle de Luccioni et al. pour BLOOM (publiée et peer-reviewed), ou Patterson et al. pour GPT-3 (rapport technique Google basé sur des lois d'échelle validées). Mais elles restent rares, coûteuses en temps et expertise, contestées par les entreprises.
  • Extrapolations basées sur les scaling laws : si on connaît la taille approximative d'un modèle, on peut estimer son coût énergétique en appliquant les lois d'échelle empiriques. C'est ce qui a été fait pour GPT-4 (Ludvigsen, 2023), donnant une fourchette 51 000-62 000 MWh. Mais sans validation officielle, ça reste spéculatif.
  • Lanceurs d'alerte et fuites : parfois des employés révèlent des informations internes (consommation réelle, écarts entre communication et réalité). Mais c'est anecdotique et juridiquement risqué.

Verdict : Sans transparence obligatoire et vérifiable, on navigue à l'aveugle. Les quelques données disponibles suggèrent une explosion de la consommation, mais on ne peut ni la quantifier précisément ni la réguler efficacement. C'est précisément pour cela que la transparence doit devenir une obligation légale, pas une vertu volontaire.

4. L'IA générative (ChatGPT, Midjourney, etc.) est-elle plus polluante que les autres usages numériques ?

Réponse courte : Oui, significativement, surtout en phase d'entraînement. Mais la consommation cumulative de l'inférence (utilisation quotidienne) peut finir par dépasser.

Réponse développée :

Phase d'entraînement (coût initial unique) :

L'entraînement d'un grand modèle de langage (LLM) comme GPT-3 ou GPT-4 consomme énormément d'énergie concentrée sur quelques semaines ou mois :

  • GPT-3 : environ 1 287 MWh, soit 502 tonnes CO₂e (Patterson et al., 2021)
  • GPT-4 : estimations 51 000-62 000 MWh, soit 20 000-25 000 tonnes CO₂e selon le mix électrique (Ludvigsen, 2023, non vérifié officiellement mais cohérent avec les scaling laws)

À titre de comparaison :

  • Un vol Paris-New York aller-retour : ~1 tonne CO₂e par passager
  • Consommation annuelle d'un Français moyen : ~10 tonnes CO₂e
  • GPT-4 = empreinte de 2 000 à 2 500 Français pendant un an, concentrée sur quelques mois

Phase d'inférence (coût récurrent quotidien) :

Chaque requête à ChatGPT consomme entre 0,3 et 3 Wh selon les estimations (Ritchie, 2025), soit en moyenne environ 1 Wh. Cela semble dérisoire, mais :

  • ChatGPT a dépassé 200 millions d'utilisateurs actifs mensuels en 2024
  • Si chaque utilisateur fait 10 requêtes/jour, ça fait 2 milliards de requêtes/jour
  • 2 milliards × 1 Wh = 2 000 MWh/jour = 730 000 MWh/an
  • Soit environ 300 000 tonnes CO₂e/an (si mix électrique mondial moyen ~400g/kWh)

En un an d'utilisation, l'inférence de ChatGPT pourrait consommer autant que plusieurs entraînements de GPT-3. Et ce n'est qu'un seul service parmi des centaines (Midjourney, DALL-E, Claude, Gemini, Copilot, etc.).

Comparaison avec d'autres usages numériques :

  • Streaming vidéo (Netflix, YouTube) : environ 0,05-0,2 Wh par heure de visionnage en HD (mais multiplié par des milliards d'heures)
  • Email : environ 0,3 Wh pour envoyer/recevoir un email simple
  • Recherche Google : environ 0,3 Wh par recherche

Une requête ChatGPT consomme donc 3 à 10 fois plus qu'une recherche Google ou un email, parce que le calcul est bien plus intensif (des milliards de paramètres activés, des dizaines de milliers d'opérations matricielles).

Génération d'images (Midjourney, DALL-E, Stable Diffusion) :

Encore plus énergivore que le texte. Générer une image haute résolution nécessite des millions de calculs itératifs (processus de diffusion). Estimation : 5 à 20 Wh par image générée, selon la résolution et le nombre d'itérations.

Un créateur qui génère 100 images/jour consomme autant qu'un streaming vidéo intensif. Multipliez par des millions d'utilisateurs...

Verdict :

Oui, l'IA générative est significativement plus polluante que les usages numériques classiques (recherche, email, réseaux sociaux texte). Pas catastrophique à l'échelle individuelle (une requête reste anecdotique), mais l'échelle d'adoption massive transforme le problème : des centaines de millions d'utilisateurs × des dizaines de requêtes quotidiennes = impact global considérable et croissant exponentiellement.

L'enjeu n'est donc pas d'arrêter d'utiliser ChatGPT individuellement, mais de :

  1. Réguler la croissance globale (plafonds, rationnement des usages futiles)
  2. Décarboner les infrastructures (mix énergétique bas-carbone obligatoire)
  3. Optimiser les modèles (sobriété algorithmique, spécialisation plutôt qu'universalité)
  4. Éduquer aux usages sobres (ne pas régénérer 50 fois une image si la première convient)

5. Que peuvent faire concrètement les entreprises, au-delà du discours ?

Réponse courte : Mesurer rigoureusement, publier transparentement, éco-conditionner leurs choix, former leurs équipes, influencer politiquement.

Réponse développée :

1. Mesurer l'empreinte réelle de leurs usages IA (ACV complète)

Avant d'agir, il faut savoir. Combien consomment réellement vos outils IA ? Sur quel mix électrique tournent-ils ? Quelle est l'empreinte de bout en bout (entraînement + inférence + infrastructure + matériel) ?

Actions concrètes :

  • Réaliser une ACV selon les normes ISO 14040/14044 adaptées au numérique
  • Utiliser des outils comme CodeCarbon, Green Algorithms, ML CO2 Impact pour estimer l'empreinte de vos modèles maison
  • Exiger la transparence de vos fournisseurs (AWS, Google Cloud, Azure, OpenAI, etc.) : où sont les serveurs ? Quel mix électrique ? Quelle empreinte par requête ?
  • Intégrer l'impact environnemental dans vos tableaux de bord de pilotage, au même titre que les coûts financiers

2. Éco-conditionner strictement les choix de fournisseurs et de solutions

Ne plus choisir une solution IA uniquement sur des critères de performance technique et de coût financier. Intégrer systématiquement l'impact environnemental.

Critères à imposer dans vos appels d'offres :

  • Publication obligatoire de l'ACV complète et vérifiable
  • Mix énergétique du data center (privilégier bas-carbone : nucléaire, hydraulique, géothermie, solaire/éolien contractualisé en direct)
  • Durée de vie garantie du service (pas de modèle obsolète et remplacé tous les 6 mois)
  • Politique de transparence (open data sur les consommations)
  • Engagement contraignant sur une trajectoire de réduction (pas juste une promesse 2030 floue)

Privilégier :

  • Les modèles open source audités (Hugging Face, BLOOM, Mistral avec données environnementales publiées)
  • Les solutions spécialisées plutôt que les mastodontes universels (un modèle de 7B paramètres bien entraîné sur votre domaine plutôt que GPT-4 pour tout)
  • Les infrastructures européennes quand c'est possible (mix électrique souvent moins carboné qu'Asie ou certains États US)

3. Optimiser vos propres développements IA (sobriété algorithmique)

Si vous développez vos propres modèles :

  • Privilégier les architectures frugales : distillation (modèle étudiant léger apprenant d'un modèle prof lourd), quantification (réduire la précision des calculs sans trop perdre en performance), pruning (supprimer les neurones/paramètres inutiles)
  • Entraîner sur infrastructures bas-carbone : utiliser des clusters de calcul alimentés au nucléaire ou renouvelable (Jean Zay en France, clusters nordiques, Islande)
  • Mutualiser les ressources : réutiliser des modèles pré-entraînés et les affiner (fine-tuning) plutôt que tout réentraîner from scratch
  • Mesurer systématiquement : intégrer CodeCarbon ou équivalent dans vos pipelines d'entraînement pour tracker la consommation réelle

4. Former massivement vos équipes techniques (ingénieurs bilingues calcul/écologie)

La plupart des data scientists ignorent tout de l'ACV, des ordres de grandeur énergétiques, des limites planétaires. Il faut former :

  • Formation continue obligatoire pour tous les profils tech sur les impacts environnementaux du numérique et de l'IA
  • Intégration dans les process : chaque revue de code, chaque choix d'architecture doit intégrer la dimension énergétique
  • KPIs environnementaux : mesurer et afficher la consommation énergétique et l'empreinte carbone au même titre que les temps de réponse ou la précision

5. Transparence radicale et exemplarité (leadership par l'exemple)

  • Publier votre empreinte IA en open data (même si ce n'est pas encore obligatoire légalement) : montrer l'exemple pour pousser vos concurrents et fournisseurs à faire de même
  • Communiquer honnêtement : ne pas faire de greenwashing ("IA verte" quand vous tournez au charbon), assumer les ordres de grandeur, expliquer votre trajectoire de progrès et ses limites
  • Participer aux coalitions sectorielles : rejoindre des initiatives comme Green Software Foundation, Climate Action in Tech, pour mutualiser les bonnes pratiques et peser collectivement

6. Lobbying constructif (influencer la régulation plutôt que la subir)

Les entreprises ont un pouvoir de lobbying immense — généralement utilisé pour affaiblir les régulations. Pourquoi ne pas l'utiliser pour pousser des régulations ambitieuses qui égalisent le terrain de jeu ?

  • Plaider pour la transparence obligatoire : si tout le monde doit publier son empreinte, vous n'êtes plus désavantagé à le faire volontairement
  • Soutenir les plafonds sectoriels : si tout le monde doit respecter des quotas, la sobriété devient compétitive plutôt que handicapante
  • Financer la recherche publique sur la Green AI, les méthodologies d'ACV adaptées au numérique, les architectures frugales

Résumé — checklist entreprise :

✅ Mesurer l'empreinte réelle (ACV complète)
✅ Éco-conditionner les achats (critères environnementaux contraignants)
✅ Optimiser les développements maison (sobriété algorithmique)
✅ Former les équipes (data scientists → éco-data scientists)
✅ Transparence radicale (publier en open data)
✅ Lobbying constructif (pousser la régulation ambitieuse)

Ce qui ne marche pas : les engagements volontaires flous ("on fera mieux"), les compensations carbone douteuses, le greenwashing communicationnel.

Ce qui marche : la mesure rigoureuse, les choix éco-conditionnés contraignants, la transparence vérifiable, la formation systématique, la régulation collective.

6. Que peuvent faire les citoyens et les utilisateurs ?

Réponse courte : S'informer, sobriété d'usage, pression sur les acteurs, engagement politique.

Réponse développée :

1. S'informer et informer (sortir de l'ignorance collective)

La première action est cognitive : comprendre que le numérique n'est pas immatériel, que l'IA a un coût écologique massif, que nos usages individuels, multipliés par des millions, ont un impact global.

Actions concrètes :

  • Lire des sources fiables (cette série d'articles, rapports du Shift Project, travaux de chercheurs comme Luccioni, Crawford, etc.)
  • Partager l'information dans vos réseaux (collègues, famille, réseaux sociaux) sans culpabilisation mais avec lucidité
  • Sensibiliser les jeunes générations (qui sont nées avec le smartphone et croient souvent que le cloud est "dans les nuages")

2. Sobriété d'usage personnelle (chaque geste compte, surtout multiplié par des millions)

À l'échelle individuelle, l'impact est modeste. Mais si 100 millions de personnes changent leurs pratiques, ça devient significatif.

Usages IA :

  • Limiter les requêtes inutiles : ne pas régénérer 50 fois une réponse ChatGPT ou une image Midjourney si la première convient
  • Privilégier les outils sobres quand ils existent (recherche classique plutôt que ChatGPT quand une recherche Google suffit)
  • Désactiver les suggestions IA dans les outils bureautiques si vous ne les utilisez pas (Copilot dans Word, suggestions Gmail, etc.)

Usages numériques généraux :

  • Limiter le streaming vidéo HD/4K quand la SD suffit (Netflix en SD consomme 5 fois moins)
  • Désabonner des newsletters non lues (chaque email stocké consomme)
  • Nettoyer régulièrement le cloud (photos/vidéos en double, anciens documents)
  • Allonger la durée de vie des appareils (smartphone 5-7 ans plutôt que 2 ans, ordinateur 8-10 ans)

3. Pression sur les acteurs économiques (vote par le portefeuille et la voix)

En tant que consommateur :

  • Choisir des fournisseurs transparents : privilégier les entreprises qui publient leur empreinte, qui s'engagent sur des trajectoires vérifiables
  • Boycotter les plus opaques/pollueurs : refuser d'utiliser des services dont l'empreinte est manifestement démesurée et cachée
  • Exiger la transparence : écrire aux entreprises (Amazon, Google, Microsoft, etc.) pour demander la publication de l'ACV de leurs services IA

En tant que salarié :

  • Pousser votre employeur à éco-conditionner ses achats tech, à mesurer son empreinte numérique, à former les équipes
  • Rejoindre ou créer des collectifs internes (type Tech for Good, Green IT) qui portent ces sujets
  • Refuser de travailler sur des projets manifestement nuisibles (surveillance de masse, manipulation comportementale, etc.) si votre situation le permet

4. Engagement politique et citoyen (la régulation ne viendra que de la pression collective)

Les changements individuels, aussi vertueux soient-ils, ne suffiront jamais à inverser la tendance systémique. Il faut une régulation politique contraignante. Et celle-ci n'adviendra que sous pression citoyenne massive.

Actions concrètes :

  • Interpeller les élus (députés, eurodéputés, sénateurs) : courriers, pétitions, rencontres publiques pour exiger transparence obligatoire, plafonds d'émission, éco-conditionnalité des aides publiques
  • Soutenir les ONG qui portent ces combats (Greenpeace, La Quadrature du Net, The Shift Project, etc.) : adhésion, dons, bénévolat
  • Participer aux consultations publiques sur les régulations en cours (AI Act, directives environnementales, etc.)
  • Voter pour des représentants qui prennent ces sujets au sérieux (et sanctionner électoralement ceux qui font du greenwashing)

5. Éducation et transmission (préparer les générations futures)

Si vous êtes parent, enseignant, formateur :

  • Éduquer au numérique sobre : expliquer que le cloud n'est pas magique, montrer ce qu'il y a derrière (data centers, câbles sous-marins, extraction de métaux rares)
  • Développer l'esprit critique face aux promesses technologiques (l'IA ne résoudra pas le changement climatique si elle contribue à l'aggraver)
  • Transmettre une culture de la sobriété : ne pas confondre progrès et accumulation, qualité de vie et consommation

Résumé — checklist citoyen :

✅ S'informer et informer (sortir de l'ignorance)

✅ Sobriété d'usage personnelle (limiter les requêtes inutiles, allonger la durée de vie des appareils)
✅ Pression sur les acteurs économiques (choisir des fournisseurs transparents, boycotter les opaques)
✅ Engagement politique (interpeller les élus, soutenir les ONG, voter)
✅ Éducation et transmission (former les jeunes générations à la sobriété numérique)

Ce qui ne marche pas : La culpabilisation individuelle sans action collective, la croyance que nos petits gestes suffiront, l'attentisme (« les entreprises/l'État vont régler le problème »).

Ce qui marche : L'information rigoureuse + la sobriété personnelle + la pression collective massive + l'engagement politique durable = transformation systémique.

Message essentiel : Votre action individuelle compte, mais elle ne suffira jamais seule. Elle doit s'inscrire dans un mouvement collectif qui pousse à la régulation contraignante. C'est l'alliance des gestes individuels et de la pression politique qui peut changer la donne.

7. L'IA est-elle vraiment indispensable, ou peut-on s'en passer ?

Réponse courte : Ni indispensable partout, ni inutile partout. Il faut distinguer les usages essentiels des usages futiles.

Réponse développée :

La question de l'indispensabilité de l'IA est mal posée si on la traite de manière binaire. Il faut la décomposer par usage, par contexte, par rapport coût/bénéfice environnemental et social.

Usages où l'IA apporte une valeur réelle et difficilement remplaçable :

Santé :

  • Aide au diagnostic médical (détection précoce de cancers sur imagerie, repérage de rétinopathies diabétiques) : ici, l'IA augmente significativement la précision et la rapidité, sauvant potentiellement des vies. Le coût énergétique est largement justifié.
  • Découverte de médicaments (prédiction de structures protéiques comme AlphaFold) : accélération spectaculaire de la recherche pharmaceutique.

Transition énergétique :

  • Gestion des réseaux électriques avec forte pénétration de renouvelables intermittents : l'IA permet d'équilibrer en temps réel production et consommation, condition sine qua non pour sortir des énergies fossiles.
  • Optimisation énergétique des bâtiments et des processus industriels : réduction substantielle de la consommation, amortissement rapide de l'empreinte du système d'IA lui-même.

Maintenance prévisionnelle industrielle :

  • Prolongation drastique de la durée de vie des équipements, réduction des déchets, optimisation des ressources. L'IA se paie écologiquement par l'économie de matière qu'elle permet.

Recherche scientifique :

  • Modélisation climatique, simulation de phénomènes complexes (fusion nucléaire, nouveaux matériaux) où le calcul intensif est incontournable pour progresser dans la compréhension et les solutions.

Usages où l'IA est largement dispensable ou disproportionnée :

Deepfakes récréatifs de masse :

  • Générer des millions de vidéos truquées pour le divertissement : coût énergétique considérable, bénéfice social questionnable (surtout au regard des risques de désinformation), clairement non essentiel.

Publicité micro-ciblée invasive :

  • Des milliards de dollars investis, des térawattheures consommés pour... optimiser des taux de clic sur des bannières. Est-ce vraiment une priorité civilisationnelle ? Ne pourrait-on pas revenir à une publicité contextuelle simple (afficher des pubs de sport sur un site de sport) sans traquer les utilisateurs partout ?

Assistants vocaux omniprésents :

  • Demander à Alexa/Google Home de mettre la musique ou d'allumer la lumière : confort marginal, infrastructure cloud massive derrière. Un interrupteur manuel et une télécommande suffisent amplement.

Génération de contenu futile à grande échelle :

  • Produire automatiquement des milliers d'articles SEO de mauvaise qualité, des images génériques pour inonder les banques d'images, du spam amélioré. Pollution informationnelle + pollution énergétique.

Surveillance généralisée non justifiée :

  • Reconnaissance faciale en temps réel dans tous les espaces publics, notation sociale algorithmique : atteinte aux libertés + coût énergétique colossal pour un bénéfice social très contestable.

Le critère de décision : rapport bénéfice social / impact environnemental

Un cadre d'évaluation simple pourrait être :

Bénéfice social

Impact environnemental

Verdict

Élevé (santé, climat, recherche)

Élevé

À optimiser : nécessaire mais doit être sobre

Élevé

Faible

À encourager : cas idéal

Faible (divertissement, futilité)

Élevé

À interdire ou rationner : disproportionné

Faible

Faible

Tolérable : pas prioritaire mais pas nuisible

Qui décide de ce qui est "essentiel" ou "futile" ?

C'est précisément la question politique centrale. Ce n'est ni aux ingénieurs ni aux entreprises tech de trancher seuls. C'est un débat démocratique qui doit avoir lieu :

  • Instances délibératives citoyennes : panels de citoyens tirés au sort, informés par des experts contradictoires, qui émettent des recommandations
  • Débats parlementaires : législateurs élus qui votent des interdictions ou des quotas après débat public
  • Consultations publiques larges : permettre à tout citoyen de s'exprimer sur les usages qu'il juge prioritaires ou nuisibles

Verdict :

L'IA n'est ni indispensable partout (beaucoup d'usages sont du gadget énergétivore), ni inutile partout (certains usages sont clairement bénéfiques et difficiles à remplacer). Il faut trier, prioriser, gouverner démocratiquement les usages plutôt que laisser le marché décider seul (car le marché maximise le profit, pas l'utilité sociale ni la soutenabilité écologique).

La sobriété, ce n'est pas tout arrêter ; c'est garder ce qui a du sens et éliminer ce qui n'en a pas.

8. Par où commencer concrètement ? Quelles sont les premières actions à fort impact ?

Réponse courte : Mesurer, éco-conditionner, former, réguler. Dans cet ordre.

Réponse développée :

Face à l'ampleur du défi, il est facile de se sentir paralysé ou de se disperser dans des actions cosmétiques. Voici une feuille de route pragmatique avec les actions à fort impact, classées par priorité et par acteur.

Pour les entreprises — feuille de route 0-24 mois

Mois 0-3 : Diagnostic (mesurer l'existant)

Audit complet de vos usages IA actuels : inventaire exhaustif de tous les services, outils, modèles utilisés (internes et externes)
Estimation de l'empreinte carbone : utiliser CodeCarbon, Green Algorithms, ou faire appel à un bureau d'étude spécialisé pour une ACV complète
Identification des quick wins : quels usages pourraient être remplacés par des solutions moins gourmandes sans perte fonctionnelle ?
Benchmark sectoriel : où vous situez-vous par rapport à vos concurrents ? Quelles sont les meilleures pratiques observables ?

Mois 3-6 : Politique interne (cadrer les pratiques)

Rédaction d'une politique IA responsable : document officiel fixant les critères environnementaux obligatoires pour tout nouvel achat ou développement
Éco-conditionnalité des appels d'offres : intégrer systématiquement des critères environnementaux contraignants (publication ACV, mix énergétique, trajectoire de réduction) avec pondération significative (au moins 30% de la note)
Formation du top management : sensibiliser direction générale et COMEX aux enjeux, aux ordres de grandeur, aux leviers d'action
Nomination d'un responsable Green IT / IA responsable : personne dédiée, avec budget et mandat clair, rattachée à la direction

Mois 6-12 : Optimisation technique (réduire l'existant)

Migration progressive vers infrastructures bas-carbone : renégocier les contrats cloud pour privilégier des data centers alimentés au nucléaire/hydraulique/renouvelable
Optimisation des modèles maison : distillation, quantification, pruning sur vos développements internes
Substitution des usages futiles : identifier et supprimer les usages d'IA non essentiels (gadgets, features peu utilisées, démos marketing énergivores)
Allongement de la durée de vie du matériel : repousser le renouvellement des serveurs de 3-5 ans à 6-8 ans minimum

Mois 12-24 : Transparence et influence (changer l'écosystème)

Publication volontaire de votre empreinte IA : rapport annuel avec méthodologie détaillée, en open data
Participation aux coalitions sectorielles : Green Software Foundation, Climate Action in Tech, groupes de travail normatifs ISO
Lobbying constructif : rejoindre les coalitions d'entreprises qui plaident pour une régulation ambitieuse (transparence obligatoire, plafonds sectoriels)
Communication authentique : partager vos échecs et difficultés, pas seulement vos succès, pour montrer que la transition est complexe mais faisable

Pour les pouvoirs publics — agenda réglementaire

Court terme (0-2 ans) :

Obligation de transparence pour les grands modèles : tout modèle >10 milliards de paramètres doit publier son ACV selon méthodologie standardisée
Éco-conditionnalité stricte des marchés publics : l'État n'achète que des services IA dont l'empreinte est publiée et vérifiée
Création d'une agence d'audit environnemental du numérique : indépendante, dotée de pouvoirs d'investigation, financée par une taxe sur les acteurs
Lancement d'un grand programme de recherche publique sur la Green AI : financement massif (centaines de millions d'euros) pour développer des architectures frugales, des méthodologies d'ACV, des alternatives sobres

Moyen terme (2-5 ans) :

Taxe carbone progressive sur les data centers : 100€/tonne CO₂ la première année, puis augmentation jusqu'à 300-500€/tonne
Plafonds sectoriels de consommation énergétique : le numérique ne peut dépasser X% de la consommation nationale, avec réduction progressive
Bonus-malus sur la sobriété : subventions pour les modèles efficients, pénalités pour les mastodontes injustifiés
Interdiction d'implantation de nouveaux data centers au charbon : sauf exception souveraineté absolue, avec date butoir 2030

Long terme (5-10 ans) :

Plafonds d'émission par entreprise : pas plus de Y tonnes CO₂e/an pour les activités IA, avec réduction alignée sur Paris Agreement
Gouvernance démocratique des infrastructures critiques : data centers comme biens communs, contrôle public ou coopératif
Interdiction ou rationnement d'usages : décisions démocratiques sur ce qui est essentiel/futile, avec interdiction ou quotas sur les usages disproportionnés

Pour les citoyens — engagement progressif

Niveau 1 : S'informer et ajuster (accessibilité : tout le monde)

✅ Lire cette série d'articles et 2-3 sources complémentaires fiables
✅ Limiter les requêtes IA inutiles (ne pas régénérer 50 fois)
✅ Allonger la durée de vie de vos appareils (5-7 ans smartphone, 8-10 ans ordinateur)
✅ Nettoyer régulièrement votre cloud (photos doublons, emails anciens)

Niveau 2 : Influencer son environnement proche (accessibilité : engagés)

✅ Sensibiliser collègues/famille/amis sans culpabiliser
✅ Pousser votre employeur à mesurer et réduire son empreinte numérique
✅ Privilégier les fournisseurs transparents dans vos achats personnels et professionnels
✅ Interpeller une fois par trimestre un élu (mail, courrier) sur ces sujets

Niveau 3 : Militantisme actif (accessibilité : très engagés)

✅ Adhérer et soutenir financièrement des ONG spécialisées
✅ Participer aux consultations publiques sur les régulations
✅ Organiser des conférences/ateliers de sensibilisation dans votre écosystème
✅ S'engager politiquement (candidature, militantisme partisan) pour porter ces sujets dans le débat public

Principe directeur : l'effet de levier

Toutes les actions ne se valent pas. Privilégiez celles qui ont le plus grand effet de levier :

Impact individuel faible :

  • Éteindre votre box internet la nuit : économie réelle (~10 kWh/an), mais impact dérisoire à l'échelle globale

Impact individuel moyen :

  • Allonger la durée de vie de vos appareils : impact significatif (plusieurs centaines de kg CO₂e évités), surtout multiplié par des millions

Impact collectif élevé :

  • Pousser votre employeur (qui pèse des milliers/millions d'utilisateurs) à changer ses pratiques : démultiplication massive
  • Faire pression pour obtenir une régulation contraignante : transformation systémique qui s'impose à tous les acteurs

Priorité absolue : les actions qui transforment les structures et les incitations, pas seulement les comportements individuels.

Résumé — Par où commencer ?

Si vous êtes une entreprise : Commencez par mesurer (audit complet), puis éco-conditionnez vos achats (critères environnementaux contraignants), puis formez vos équipes (data scientists → éco-data scientists).

Si vous êtes un décideur public : Commencez par imposer la transparence (obligation de publication des ACV), puis créez une agence d'audit indépendante, puis fixez des plafonds sectoriels.

Si vous êtes un citoyen : Commencez par vous informer rigoureusement, puis ajustez vos usages personnels (sobriété), puis interpellez vos élus et votre employeur (pression collective).

Dans tous les cas, la priorité est triple :

  1. Mesurer (on ne peut gérer que ce qu'on mesure)
  2. Contraindre (les bonnes intentions ne suffisent jamais)
  3. Transformer les incitations (aligner intérêt économique et intérêt écologique)

L'action parfaite n'existe pas. Commencez imparfaitement, mais commencez maintenant.

Conclusion : de la compréhension à l'action

Cette FAQ a exploré huit questions essentielles pour passer de la compréhension théorique des enjeux à l'engagement concret. Résumons les messages clés :

1. La sobriété de l'IA est techniquement possible (BLOOM, DeepMind le prouvent), mais structurellement marginale sans transformation des incitations économiques et politiques.

2. Les plafonds absolus sont indispensables pour contrer l'effet rebond : l'optimisation technique seule ne garantit jamais une réduction d'impact absolu.

3. La transparence doit devenir obligatoire et vérifiable via des audits indépendants, des méthodologies standardisées, des sanctions dissuasives. Sans cela, on navigue à l'aveugle.

4. L'IA générative est significativement plus polluante que les usages numériques classiques, surtout à grande échelle (centaines de millions d'utilisateurs × dizaines de requêtes quotidiennes).

5. Les entreprises peuvent agir concrètement : mesurer rigoureusement, éco-conditionner les achats, optimiser les développements, former les équipes, publier en open data, lobbyer pour une régulation ambitieuse.

6. Les citoyens ont un rôle crucial : s'informer, sobriété d'usage, pression sur les acteurs économiques et politiques, engagement démocratique durable. L'action individuelle compte mais ne suffit jamais seule.

7. L'IA n'est ni indispensable partout ni inutile partout : il faut distinguer les usages essentiels (santé, transition énergétique, recherche) des usages futiles (deepfakes récréatifs, surveillance de masse, publicité invasive) et gouverner démocratiquement cette distinction.

8. Par où commencer ? Mesurer, éco-conditionner, former, réguler. Dans cet ordre. En privilégiant les actions à fort effet de levier (transformation des structures et des incitations plutôt que seuls gestes individuels).

Le défi est immense. Les résistances seront féroces. Les compromis seront nécessaires. Mais l'inaction n'est pas une option.

Nous sommes à un moment charnière où les choix que nous faisons — individuellement et collectivement, dans nos entreprises et dans nos institutions, dans nos modes de vie et dans nos votes — détermineront si l'intelligence artificielle devient instrument de résilience ou accélérateur d'effondrement.

La technique ne nous sauvera pas. Seule la politique le peut.

Et la politique, c'est nous. Chacun d'entre nous. Maintenant.

Pour aller plus loin

Cette FAQ complète le cycle « Technologie et responsabilité » de Prométhée Technologies & Ingénierie. Si vous souhaitez approfondir les analyses qui sous-tendent ces réponses, nous vous invitons à lire ou relire les quatre articles de la série :

→ Article 1 : L'intelligence artificielle — démystifier la machine à calculer
Pour comprendre ce qu'est vraiment l'IA, au-delà des mythes et des fantasmes.

→ Article 2 : L'éco-ingénierie — l'intelligence du juste nécessaire
Pour explorer les fondements d'une ingénierie compatible avec les limites planétaires.

→ Article 3 : IA et éco-ingénierie — les noces impossibles ?
Pour cartographier les cinq tensions structurelles qui opposent calcul et sobriété.

→ Article 4 : Vers une IA sobre — conditions d'une alliance improbable
Pour identifier les convergences possibles et les conditions politiques de leur généralisation.

Ressources complémentaires

Rapports institutionnels

  • The Shift Project : Déployer la sobriété numérique (2020)
  • Commission européenne : Industry 5.0 (2021)
  • AIE : Digitalization & Energy (2017, actualisé régulièrement)

Ouvrages de référence

  • Crawford, K. (2021). Atlas of AI
  • Russell, S. (2019). Human Compatible
  • Raworth, K. (2017). Doughnut Economics

Outils de mesure

  • CodeCarbon : https://codecarbon.io
  • Green Algorithms : https://www.green-algorithms.org
  • ML CO2 Impact : https://mlco2.github.io/impact/

Organisations à suivre

  • Green Software Foundation : https://greensoftware.foundation
  • Climate Action in Tech : https://climateaction.tech
  • Hugging Face (transparence IA) : https://huggingface.co

Prométhée T&I

Réseaux sociaux

Articles récents