Aller au contenu principal
Un humain touche du doigt l'IA

L’intelligence artificielle : démystifier la machine à calculer qui bouleverse le monde

L'intelligence artificielle : démystifier la machine à calculer qui bouleverse le monde

Ou comment cesser de fantasmer sur Skynet pour comprendre ce qui se joue vraiment

Cycle « Technologie et responsabilité » – Prométhée Technologies & Ingénierie

[Chapô de série commun]

À l'heure où l'intelligence artificielle s'impose comme la technologie la plus disruptive du XXIe siècle, et où l'urgence écologique redéfinit les conditions mêmes de l'activité industrielle, une question décisive émerge : ces deux dynamiques peuvent-elles converger, ou sont-elles structurellement incompatibles ?

Ce cycle de quatre articles propose une exploration rigoureuse, à la fois scientifique, philosophique et politique, de cette tension fondatrice. Son ambition : outiller décideurs, ingénieurs et citoyens pour comprendre ce qui se joue réellement dans la mutation technologique contemporaine, au-delà des mythes et des slogans.

La série se déploie en quatre temps :

  1. L'intelligence artificielle : démystifier la machine à calculer — Comprendre ce qu'est vraiment l'IA, ses principes techniques, ses promesses et ses angles morts.
  2. L'éco-ingénierie : l'intelligence du juste nécessaire — Explorer les fondements d'une ingénierie compatible avec les limites planétaires, sobre et systémique.
  3. IA et éco-ingénierie : les noces impossibles ? — Cartographier les cinq tensions structurelles qui opposent calcul et sobriété.
  4. Vers une IA sobre : conditions d'une alliance improbable — Identifier les convergences possibles et les conditions politiques nécessaires à leur généralisation.

Ni technophilie béate, ni ascèse punitive : cette série défend une politique des moyens orientée vers l'efficience systémique, la mesure et la traçabilité. Elle interroge les choix civilisationnels que nous devons faire, collectivement, pour que la technique serve enfin le vivant.

Chapô

Cet article ouvre le cycle « Technologie et responsabilité » de Prométhée Technologies & Ingénierie.

Il propose une exploration à la fois scientifique, philosophique et politique de ce que l'on appelle, souvent trop vite, intelligence artificielle. Son ambition : comprendre les principes réels de ces systèmes, les replacer dans l'histoire longue de la pensée technique, et surtout questionner leur compatibilité avec la soutenabilité écologique et humaine que revendique l'éco-ingénierie contemporaine.

Car, loin des mythes de conscience machinique ou d'apocalypse algorithmique, l'IA demeure d'abord ce qu'elle a toujours été : une fabrique de corrélations, un prolongement du calcul mis au service de la décision.

Introduction : entre fascination et méprise

Il est devenu difficile d'échapper à l'IA.

Elle filtre nos courriels, traduit nos textes, anticipe nos achats, reconnaît nos visages, prescrit des médicaments, compose des images et, depuis peu, rédige des textes dont la tonalité semble presque humaine. Le monde numérique contemporain a placé le calcul au cœur du langage.

Mais cette ubiquité engendre une confusion : plus la machine paraît intelligente, plus nous projetons sur elle nos propres catégories de pensée. Le paradoxe est saisissant : nous prêtons à l'IA la capacité de raisonner ou de comprendre alors qu'elle n'en possède ni les fondements biologiques ni les structures symboliques.

En 2014, Amazon conçoit un algorithme de recrutement censé identifier les meilleurs profils techniques. Trois ans plus tard, l'entreprise découvre qu'il défavorise systématiquement les candidatures féminines : les CV contenant le mot women's ou issus d'universités féminines sont rétrogradés. La machine n'était pas sexiste ; elle avait simplement appris sur des données biaisées — celles d'une industrie historiquement masculine. Elle n'avait rien compris ; elle avait reproduit.

Deux ans plus tard, en 2016, l'IA AlphaGo de DeepMind terrasse le champion du monde Lee Sedol au jeu de go, un exploit jugé impossible pour une machine avant 2025. L'onde de choc fut planétaire : pour la première fois, une entité non humaine battait un expert dans un espace combinatoire quasi infini.

Entre l'échec d'Amazon et la victoire d'AlphaGo s'étend tout le spectre des malentendus sur l'intelligence artificielle : une puissance de calcul inédite, certes, mais dénuée d'intention, de conscience et de jugement.

L'IA n'est ni un démon ni un dieu : elle est le miroir mathématique de nos structures de pensée.

1. Sortir du piège du mot « intelligence »

Lorsque Alan Turing publia, en 1950, son article fondateur Computing Machinery and Intelligence, il ne demandait pas si une machine pensait, mais si elle pouvait imiter l'humain au point de tromper un interlocuteur. Son célèbre « test de Turing » n'évalue pas la conscience, mais la capacité d'un système à produire des réponses cohérentes dans un dialogue.

Or, c'est précisément ici que la confusion s'est installée : on a pris la simulation pour la pensée, la vraisemblance pour la compréhension.

L'IA ne pense pas : elle calcule.
Elle ne comprend pas : elle corrèle.
Elle n'analyse pas : elle optimise une fonction mathématique.

Prenons un exemple trivial : demander à ChatGPT la capitale de la France. Il ne « sait » rien. Il a seulement appris que dans des milliards de textes, le mot Paris suit presque toujours la séquence capitale de la France. Ce n'est pas du sens ; c'est du motif statistique. Cette différence paraît minime ; elle est abyssale. Car si l'intelligence humaine crée du sens, l'IA ne fait que prolonger la syntaxe.

Les systèmes d'apprentissage actuels n'ont ni intuition, ni mémoire sémantique, ni intentionnalité. Leur "raisonnement" consiste à minimiser une erreur prédictive à partir d'exemples. Ils excellent à reconnaître, pas à comprendre ; à prédire, pas à interpréter.

Ainsi, lorsque nous parlons d'« intelligence artificielle », nous usons d'une métaphore qui en dit plus sur notre besoin d'anthropomorphisme que sur la nature réelle de la machine. Nous cherchons moins à comprendre la technique qu'à y projeter nos fantasmes.

2. Les grandes familles de l'IA : trois voies vers la même illusion

L'IA n'est pas une invention récente ; c'est un champ foisonnant né au croisement de la logique, de la cybernétique et de la biologie computationnelle. On peut la décrire selon trois approches dominantes, qui poursuivent un même rêve : reproduire certaines fonctions cognitives de l'humain.

La première voie, celle des pionniers des années 1950-1970 — John McCarthy, Marvin Minsky, Herbert Simon — parie sur la formalisation logique. Le monde y est représenté sous forme de symboles manipulés par des règles : si le patient a de la fièvre et tousse, alors suspicion d'infection ; si fièvre + toux sèche + anosmie, alors Covid probable. Ces systèmes experts, encore utilisés en médecine, en finance ou en droit, offrent une transparence absolue : chaque décision peut être retracée, expliquée, justifiée. Mais leur rigidité les condamne à l'échec dans des environnements complexes ; la réalité dépasse trop vite la logique formelle.

La seconde voie, celle de l'apprentissage automatique, change radicalement de paradigme dans les années 1980-2000 : au lieu de programmer des règles, on fait apprendre au système à partir de données. Cette famille se décompose elle-même en deux branches. D'abord, le machine learning classique : régressions, arbres de décision, forêts aléatoires, machines à vecteurs de support. Robuste, explicable, frugal, c'est encore aujourd'hui le socle de la plupart des usages industriels — détection de fraude bancaire, recommandation de films, prévision de consommation électrique. Ensuite, le deep learning, qui utilise des réseaux de neurones multicouches capables d'extraire des motifs hiérarchiques. En leur montrant dix mille images de chats, ils apprennent à reconnaître un chat sans qu'on ait défini ni moustaches ni oreilles. C'est cette approche qui permit à AlphaGo de battre Lee Sedol, et qui anime désormais la reconnaissance vocale, la traduction automatique et les modèles de langage géants.

Ces architectures connexionnistes possèdent trois forces majeures : adaptabilité, performance, scalabilité. Mais elles paient cher ces vertus : opacité (même les concepteurs ignorent pourquoi le système décide ainsi), dépendance absolue à la qualité des données (garbage in, garbage out), et coût énergétique colossal.

Une troisième voie émerge aujourd'hui, cherchant à réconcilier logique et apprentissage : l'IA neurosymbolique, capable de raisonner sur des concepts tout en apprenant des exemples. Cette approche ambitionne une intelligence à la fois explicable et adaptable, réconciliant la logique humaine et la plasticité statistique. Encore balbutiante, elle représente peut-être l'avenir d'une IA soutenable et vérifiable — celle qui pourrait enfin dialoguer avec l'éco-ingénierie plutôt que de la contredire.

3. Une présence diffuse : l'IA au cœur du quotidien

L'IA n'est plus une discipline de laboratoire ; elle s'est disséminée dans nos vies jusqu'à devenir invisible. Chaque jour, sans en avoir conscience, nous interagissons avec des dizaines de systèmes d'apprentissage automatique.

Dans nos poches, nos montres et nos maisons, elle opère silencieusement. Les assistants vocaux interprètent nos phrases, les appareils photo détectent un sourire, Spotify devine notre humeur, les GPS calculent la trajectoire optimale en temps réel. C'est l'IA diffuse, modeste, banalisée ; celle qui rend nos interactions plus fluides mais aussi plus dépendantes d'une infrastructure de données globale.

Dans les hôpitaux, elle lit les images médicales, accélère le diagnostic, optimise les protocoles thérapeutiques. Mais elle y importe aussi les biais des sociétés qui la nourrissent. L'exemple d'Optum, publié dans Science en 2019, reste emblématique : son algorithme, chargé d'orienter des millions de patients américains vers des soins renforcés, défavorisait systématiquement les patients noirs. Non par intention raciste, mais parce qu'il prédisait les coûts médicaux futurs plutôt que les besoins réels de santé ; or, dans un système inégalitaire, dépenser moins pour se soigner ne signifie pas être en meilleure santé (Obermeyer et al., 2019). En corrigeant cette métrique, la proportion de patients noirs bénéficiant d'un suivi renforcé aurait triplé. Le biais n'était pas algorithmique ; il était structurel.

Dans les usines, les algorithmes croisent capteurs, données et modèles prédictifs pour anticiper les pannes : la maintenance devient prévisionnelle, la production s'ajuste, le gaspillage diminue. Dans les réseaux électriques, des IA prévoient la demande, équilibrent la production renouvelable, optimisent les charges ; elles participent discrètement à la décarbonation du système énergétique.

Mais ailleurs, elles dérivent : en Chine, la reconnaissance faciale sert à surveiller les citoyens ; aux États-Unis, des algorithmes de predictive policing ciblent encore les quartiers pauvres ; en Europe, les banques automatisent l'octroi de crédit avec des modèles que personne ne comprend vraiment.

L'IA n'a pas de morale. Elle n'a que des corrélations.

4. Percevoir, apprendre, agir : la boucle du calcul

Qu'elle analyse des visages, des marchés ou des signaux électriques, toute intelligence artificielle repose sur une triade immuable : percevoir, apprendre, agir. Cette architecture, héritée de la cybernétique, s'applique aussi bien à un robot qu'à un algorithme de recommandation.

Percevoir, c'est capter des données : pixels, sons, mesures de capteurs, clics, textes, signaux biologiques. Apprendre, c'est ajuster les paramètres internes du modèle pour réduire l'erreur entre prédiction et réalité. Agir, enfin, consiste à produire une sortie : une décision, une action, une recommandation.

La voiture autonome illustre ce schéma : ses capteurs recueillent un flot d'informations (radars, caméras, lidars) ; ses réseaux de neurones traitent ces signaux pour anticiper la trajectoire ; son système d'action contrôle le volant, le frein et l'accélérateur.

Mais cette chaîne n'a pas d'intuition du monde. L'IA perçoit des pixels, non des objets ; des intensités lumineuses, non des intentions humaines. Un conducteur humain ne confondrait jamais la pleine lune avec un feu rouge ; une IA, parfois, oui. Car elle ne voit pas, elle mesure.

L'IA est une boucle d'ajustement sans conscience : elle réagit, elle n'éprouve pas.

5. IA faible, IA forte : la frontière du sens

Depuis les origines, deux visions s'affrontent dans le champ de l'intelligence artificielle.

D'un côté, l'IA faible (ou narrow AI), spécialisée dans une tâche unique, sans compréhension globale. AlphaGo excelle au go mais ignore tout des échecs. Un système de reconnaissance faciale détecte des visages mais ne comprend pas ce qu'est un visage. Ces IA sont des virtuoses myopes : elles excellent dans leur domaine et deviennent aveugles dès qu'on les en sort.

De l'autre, l'IA forte, encore hypothétique, viserait la compréhension et la flexibilité cognitive générales — une sorte d'esprit machinique universel capable de transférer ses connaissances d'un domaine à l'autre, de raisonner par analogie, peut-être même de développer une forme de conscience.

La seconde n'existe pas.

Les systèmes actuels, même les plus avancés (GPT-4, Gemini, Claude), ne font que prédire le mot suivant ou la probabilité la plus plausible d'un événement. Leur « raisonnement » n'est qu'une série d'ajustements statistiques sur des milliards de paramètres. Comme l'écrivent Emily Bender, Timnit Gebru et leurs collègues dans On the Dangers of Stochastic Parrots (2021) :

« Les grands modèles de langage sont des perroquets stochastiques : ils répètent des motifs sans en comprendre la signification. »

Autrement dit, ils imitent le langage sans l'habiter. Ils peuvent produire un poème sur la pluie sans jamais en avoir senti une goutte, disserter sur la mélancolie sans jamais avoir éprouvé le moindre chagrin.

Ce malentendu nourrit le vertige collectif : en projetant sur la machine notre propre humanité, nous oublions ce qu'elle n'est pas. Le danger n'est pas que l'IA pense ; c'est que nous cessions de le faire à sa place.

6. Le prix caché : énergie, biais et opacité

Sous son apparence immatérielle, l'IA pèse lourd — sur la planète, sur nos sociétés, sur notre capacité à comprendre ce qui nous gouverne.

Former un grand modèle de langage exige des milliards de calculs ; chaque opération consomme une fraction d'électricité, et la somme devient vertigineuse. Les estimations de Patterson et al. (2021), rapport technique de Google Research basé sur les lois d'échelle énergétique des réseaux neuronaux (arXiv:2104.10350), situent l'entraînement de GPT-3 autour de 1 287 MWh pour environ 502 tonnes de CO₂e. Ces chiffres, calculés à partir de modèles d'échelle validés empiriquement, constituent la meilleure approximation disponible, bien qu'OpenAI n'ait jamais publié de données officielles. Ils donnent un ordre de grandeur : celui d'une consommation équivalente à plusieurs centaines de foyers américains pendant un an, concentrée en quelques semaines de calcul.

À titre de comparaison, BLOOM, modèle francophone open source de 176 milliards de paramètres entraîné sur le supercalculateur français Jean Zay, n'a émis qu'environ 25 tonnes de CO₂e (Luccioni et al., 2022, Journal of Machine Learning Research 24(253)) — vingt fois moins à taille comparable, grâce à un mix électrique majoritairement nucléaire et à une meilleure mutualisation des ressources. Ces écarts montrent qu'il n'existe pas de miracle, seulement des choix d'ingénierie. La sobriété dépend du lieu, du code et de l'intention : un même algorithme peut être propre ou polluant selon l'énergie qui l'alimente.

Mais l'empreinte carbone n'est qu'une facette du problème. Les IA n'inventent pas leurs préjugés ; elles les apprennent. L'affaire Optum l'a démontré : en corrélant coût et santé, l'algorithme a simplement reproduit une inégalité économique. De même, l'outil de recrutement d'Amazon (2014-2017) a absorbé l'histoire masculine de la tech. Les biais ne sont pas des bugs, mais des reflets : la machine ne déforme pas le monde, elle le renvoie sans filtre.

L'explicabilité devient alors un enjeu démocratique. Comment contester un refus de crédit, une sélection universitaire ou une décision judiciaire fondée sur un modèle que personne ne peut expliquer ? La recherche en Explainable AI (XAI) tente de déplier ces boîtes noires : visualisation des poids, attribution de Shapley, contre-factuals. Mais à mesure que les architectures grandissent, la compréhension se dissout.

L'Europe, avec son AI Act (2024), impose désormais transparence et supervision humaine pour les systèmes à haut risque. Une avancée ; mais aucune obligation de publier l'empreinte énergétique ou la provenance de l'électricité. On peut auditer un biais social sans jamais mesurer le wattheure.

7. L'IA, miroir de nous-mêmes

Plus nous fabriquons d'intelligences artificielles, plus nous redécouvrons la complexité de la nôtre.

Raisonner n'est pas calculer ; comprendre n'est pas corréler ; juger n'est pas optimiser. Ces distinctions, que la technique tend à effacer, redonnent à la pensée humaine sa singularité. L'IA agit comme un miroir inversé : elle révèle nos angles morts, nos automatismes, nos hiérarchies implicites. Elle nous rappelle que la véritable intelligence ne réside pas dans la vitesse du calcul, mais dans la lenteur du discernement.

À la question « L'IA peut-elle penser ? », la réponse importe moins que celle-ci : Pouvons-nous encore penser sans elle ?

La dépendance cognitive, déjà perceptible, pourrait devenir le nouveau servage du XXIe siècle : non par contrainte, mais par aisance. L'automatisation du jugement précède toujours l'atrophie du libre arbitre. Nous déléguons de plus en plus nos décisions à des systèmes dont nous ne comprenons plus le fonctionnement, et cette délégation progressive érode notre capacité même à juger.

L'IA pose ainsi une question politique essentielle : qui la contrôle ? Qui choisit les objectifs, les données, les critères de réussite ? Qui décide de ce qui mérite d'être optimisé, et au détriment de quoi ? L'enjeu n'est plus technique ; il est éthique, démocratique, civilisationnel.

8. Conclusion : ni sauveur ni apocalypse

L'intelligence artificielle n'est pas une rupture anthropologique ; elle est la continuation du vieux rêve humain : externaliser la pensée.

L'écriture prolongea la mémoire, l'imprimerie la diffusion du savoir, l'ordinateur la vitesse du calcul ; l'IA automatise désormais la reconnaissance des formes. Elle ne remplace pas l'humain ; elle le prolonge, pour le meilleur ou pour le pire. Elle ne pense pas ; elle nous oblige à repenser ce que signifie penser.

La question centrale n'est donc pas : les machines peuvent-elles devenir humaines ? Mais : les humains peuvent-ils demeurer lucides dans un monde où les machines simulent la lucidité ?

L'IA amplifie nos intentions : si elles sont lucides, elle peut devenir l'instrument d'une efficacité éclairée ; si elles sont aveugles, elle accélérera nos déséquilibres. C'est à nous de décider si nous voulons des machines puissantes ou des machines justes.

Ce qui doit être programmé d'abord, ce n'est pas le code : ce sont les consciences qui le rédigent.

Pour aller plus loin

Nous avons démystifié l'intelligence artificielle : non pas une pensée artificielle, mais une machine à corréler, puissante mais aveugle, capable d'exploits techniques mais dénuée d'intentionnalité, de conscience, de jugement moral. Nous avons vu qu'elle amplifie nos intentions — qu'elles soient lucides ou aveugles — et qu'elle pose une question politique essentielle : qui la contrôle, et vers quelles finalités ?

Mais cette question en appelle immédiatement une autre : vers quelles finalités devrions-nous orienter la technique elle-même ? Si l'IA est un outil, le plus puissant jamais conçu, au service de quoi doit-elle être mise ? Comment concevoir, produire, bâtir dans un monde fini, aux ressources limitées, aux cycles écologiques fragiles ?

C'est précisément la question que pose l'éco-ingénierie. Non pas une « ingénierie verte » cosmétique, mais une refondation épistémologique de ce que signifie concevoir. L'article suivant explore ses fondements : biomimétisme, sobriété fonctionnelle, pensée systémique. Il montre qu'une autre ingénierie est possible — celle du juste nécessaire, de l'élégance structurelle, de la coopération avec le vivant plutôt que de sa domination.

→ Lire l'article 2 : L'éco-ingénierie, l'intelligence du juste nécessaire

Bibliographie

Bender, E. M., Gebru, T., McMillan-Major, A., & Mitchell, M. (2021). On the dangers of stochastic parrots: Can language models be too big? In Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT 2021), 610–623. https://doi.org/10.1145/3442188.3445922

Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.

Luccioni, A. S., Viguier, S., & Ligozat, A.-L. (2022). Estimating the carbon footprint of BLOOM, a 176B parameter language model. Journal of Machine Learning Research, 24(253), 1–15. https://jmlr.org/papers/v24/23-0069.html

Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan, S. (2019). Dissecting racial bias in an algorithm used to manage the health of populations. Science, 366(6464), 447–453. https://doi.org/10.1126/science.aax2342

O'Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown.

Patterson, D., Gonzalez, J., Le, Q., Liang, C., Munguia, L.-M., Rothchild, D., So, D., Texier, M., & Dean, J. (2021). Carbon emissions and large neural network training. Rapport technique Google Research. arXiv:2104.10350. https://arxiv.org/abs/2104.10350
Note : Ce rapport technique, bien que non publié dans une revue à comité de lecture, constitue la source de référence pour les estimations d'empreinte carbone de GPT-3, basées sur des lois d'échelle énergétique validées empiriquement.

Russell, S. (2019). Human compatible: Artificial intelligence and the problem of control. Viking.

Étiquettes

Prométhée T&I

Réseaux sociaux

Articles récents