Aller au contenu principal
Un humain touche du doigt l'IA

Cycle « Technologie & responsabilité » - Article de fond 1/4

Étiquettes
L'intelligence artificielle :

démystifier la machine à calculer qui bouleverse le monde

Première étape du cycle « Technologie & responsabilité » : comprendre ce que l’IA est vraiment, au-delà des mythes ; ou comment cesser de fantasmer sur Skynet pour comprendre ce qui se joue vraiment

Temps de lecture : environ 25 minutes

À l'heure où l'intelligence artificielle s'impose comme la technologie la plus disruptive du XXIe siècle, et où l'urgence écologique redéfinit les conditions mêmes de l'activité industrielle, une question décisive émerge : ces deux dynamiques peuvent-elles converger, ou sont-elles structurellement incompatibles ?

Ce cycle de quatre articles propose une exploration rigoureuse, à la fois scientifique, philosophique et politique, de cette tension fondatrice. Son ambition : outiller décideurs, ingénieurs et citoyens pour comprendre ce qui se joue réellement dans la mutation technologique contemporaine, au-delà des mythes et des slogans.

La série se déploie en quatre temps :

  1. L'intelligence artificielle : démystifier la machine à calculer - Comprendre ce qu'est vraiment l'IA, ses principes techniques, ses promesses et ses angles morts.
  2. L'éco-ingénierie : l'intelligence du juste nécessaire - Explorer les fondements d'une ingénierie compatible avec les limites planétaires, sobre et systémique.
  3. IA et éco-ingénierie : les noces impossibles ? - Cartographier les cinq tensions structurelles qui opposent calcul et sobriété.
  4. Vers une IA sobre : conditions d'une alliance improbable - Identifier les convergences possibles et les conditions nécessaires à leur généralisation.

Ni technophilie béate, ni ascèse punitive : cette série défend une politique des moyens orientée vers l'efficience systémique, la mesure et la traçabilité. Elle interroge les choix civilisationnels que nous devons faire, collectivement, pour que la technique serve enfin le vivant.

Cet article ouvre le cycle « Technologie & responsabilité » de Prométhée Technologies & Ingénierie.

Il propose une exploration à la fois scientifique, philosophique et politique de ce que l'on appelle, souvent trop vite, intelligence artificielle. Son ambition : comprendre les principes réels de ces systèmes, les replacer dans l'histoire longue de la pensée technique, et surtout questionner leur compatibilité avec la soutenabilité écologique et humaine que revendique l'éco-ingénierie contemporaine.

Car, loin des mythes de conscience machinique ou d'apocalypse algorithmique, l'IA demeure d'abord ce qu'elle a toujours été : une fabrique de corrélations, un prolongement du calcul mis au service de la décision.

« Le risque n'est pas que l'IA pense, mais que nous arrêtions de penser. »

⏱️ L'essentiel en 30 secondes

  • L'IA ne pense pas ; elle corrèle des données à grande vitesse selon des motifs statistiques
  • Confondre puissance de calcul et intelligence est l'erreur fondamentale du débat public
  • Les biais algorithmiques ne sont pas des bugs : ce sont les reflets automatisés de nos propres déséquilibres sociaux
  • L'entraînement de GPT-3 a émis environ 500-550 tonnes de CO₂e, soit l'équivalent de 50 à 55 Français pendant un an
  • Le danger n'est pas que l'IA devienne consciente, mais que nous cessions de l'être à sa place
  • La vraie question : qui gouverne ces systèmes, et vers quelles finalités les orientons-nous ?
  

Introduction : entre fascination et méprise

Il est devenu difficile d'échapper à l'IA.

Elle filtre nos courriels, traduit nos textes, anticipe nos achats, reconnaît nos visages, prescrit des médicaments, compose des images et, depuis peu, rédige des textes dont la tonalité semble presque humaine. Le monde numérique contemporain a placé le calcul au cœur du langage.

Mais cette ubiquité engendre une confusion : plus la machine paraît intelligente, plus nous projetons sur elle nos propres catégories de pensée. Le paradoxe est saisissant. Nous prêtons à l'IA la capacité de raisonner ou de comprendre alors qu'elle n'en possède ni les fondements biologiques ni les structures symboliques.

En 2014, Amazon conçoit un algorithme de recrutement censé identifier les meilleurs profils techniques. Trois ans plus tard, l'entreprise découvre qu'il défavorise systématiquement les candidatures féminines ; les CV contenant le mot women's ou issus d'universités féminines sont rétrogradés. La machine n'était pas sexiste. Elle avait simplement appris sur des données biaisées (celles d'une industrie historiquement masculine). Elle n'avait rien compris ; elle avait reproduit.

Deux ans plus tard, en 2016, l'IA AlphaGo de DeepMind terrasse le champion du monde Lee Sedol au jeu de go, un exploit jugé impossible pour une machine avant 2025. L'onde de choc fut planétaire. Pour la première fois, une entité non humaine battait un expert dans un espace combinatoire quasi infini.

Entre l'échec d'Amazon et la victoire d'AlphaGo s'étend tout le spectre des malentendus sur l'intelligence artificielle : une puissance de calcul inédite, certes, mais dénuée d'intention, de conscience et de jugement.

L'IA n'est ni un démon ni un dieu ; elle est le miroir mathématique de nos structures de pensée.

  

1. Le piège du mot « intelligence »

L'IA ne comprend pas ; elle ne fait que calculer plus vite que nous.

Lorsque Alan TURING publia, en 1950, son article fondateur Computing Machinery and Intelligence, il ne demandait pas si une machine pensait, mais si elle pouvait imiter l'humain au point de tromper un interlocuteur. Son célèbre « test de TURING » n'évalue pas la conscience ; il mesure la capacité d'un système à produire des réponses cohérentes dans un dialogue.

Or, c'est précisément ici que la confusion s'est installée. On a pris la simulation pour la pensée, la vraisemblance pour la compréhension.

L'IA ne pense pas ; elle calcule.
Elle ne comprend pas ; elle corrèle.
Elle n'analyse pas ; elle optimise une fonction mathématique.

Prenons un exemple trivial. Demander à ChatGPT la capitale de la France. Il ne « sait » rien. Il a seulement appris que dans des milliards de textes, le mot Paris suit presque toujours la séquence capitale de la France. Ce n'est pas du sens ; c'est du motif statistique. Cette différence paraît minime. Elle est abyssale. Car si l'intelligence humaine crée du sens, l'IA ne fait que prolonger la syntaxe.

Les systèmes d'apprentissage actuels n'ont ni intuition, ni mémoire sémantique, ni intentionnalité. Leur « raisonnement » consiste à minimiser une erreur prédictive à partir d'exemples. Ils excellent à reconnaître, pas à comprendre ; à prédire, pas à interpréter.

Ainsi, lorsque nous parlons d'« intelligence artificielle », nous usons d'une métaphore qui en dit plus sur notre besoin d'anthropomorphisme que sur la nature réelle de la machine. Nous cherchons moins à comprendre la technique qu'à y projeter nos fantasmes.

  

2. Les trois familles de l'intelligence artificielle

En 1951, Marvin MINSKY conçoit le SNARC (Stochastic Neural Analog Reinforcement Calculator), premier simulateur de réseau neuronal capable de reproduire le comportement d'un rat apprenant à se déplacer dans un labyrinthe, esquissant une première modélisation mécanistique de l'apprentissage. Cinq ans plus tard, il coorganise avec John McCARTHY, Nathan ROCHESTER et Claude SHANNON la Dartmouth Summer Research Conference on Artificial Intelligence, événement fondateur où, pour la première fois, le terme « artificial intelligence » est explicitement formulé, revendiqué et établi comme programme scientifique autonome.

L'IA n'est donc pas une invention récente ; c'est un champ foisonnant né au croisement de la logique, de la cybernétique et de la biologie computationnelle. On peut la décrire selon trois approches dominantes, qui poursuivent un même rêve : reproduire certaines fonctions cognitives de l'humain.

L'approche symbolique : la logique formalisée

La première voie, celle des pionniers des années 1950-1970 (John McCARTHY, Marvin MINSKY, Herbert SIMON...), parie sur la formalisation logique. Le monde y est représenté sous forme de symboles manipulés par des règles : si le patient a de la fièvre et tousse, alors suspicion d'infection ; si fièvre + toux sèche + anosmie, alors Covid probable.

Ces systèmes experts, encore utilisés en médecine, en finance ou en droit, offrent une transparence absolue. Chaque décision peut être retracée, expliquée, justifiée. Mais leur rigidité les condamne à l'échec dans des environnements complexes ; la réalité dépasse trop vite la logique formelle.

L'apprentissage automatique : la corrélation plutôt que la règle

La seconde voie, celle de l'apprentissage automatique, change radicalement de paradigme dans les années 1980-2000. Au lieu de programmer des règles, on fait apprendre au système à partir de données.

Cette famille se décompose elle-même en deux branches :

D'abord, le machine learning classique : régressions, arbres de décision, forêts aléatoires, machines à vecteurs de support. Robuste, explicable, frugal, c'est encore aujourd'hui le socle de la plupart des usages industriels (détection de fraude bancaire, recommandation de films, prévision de consommation électrique).

Ensuite, le deep learning, qui utilise des réseaux de neurones multicouches capables d'extraire des motifs hiérarchiques. En leur montrant dix mille images de chats, ils apprennent à reconnaître un chat sans qu'on ait défini ni moustaches ni oreilles. C'est cette approche qui permit à AlphaGo de battre Lee SEDOL, et qui anime désormais la reconnaissance vocale, la traduction automatique et les modèles de langage géants.

« Un modèle peut prédire sans jamais comprendre ce qu'il prédit. »

Ces architectures connexionnistes possèdent trois forces majeures : adaptabilité, performance, scalabilité. Mais elles paient cher ces vertus : Opacité (même les concepteurs ignorent pourquoi le système décide ainsi), dépendance absolue à la qualité des données (garbage in, garbage out), et coût énergétique colossal.

L'approche neurosymbolique : vers une synthèse raisonnée

Une troisième voie émerge aujourd'hui, cherchant à réconcilier logique et apprentissage : l'IA neurosymbolique, capable de raisonner sur des concepts tout en apprenant des exemples.

Cette approche ambitionne une intelligence à la fois explicable1 et adaptable2, réconciliant la logique humaine et la plasticité statistique. Encore balbutiante, elle représente peut-être l'avenir d'une IA soutenable3 et vérifiable4 (celle qui pourrait enfin dialoguer avec l'éco-ingénierie plutôt que de la contredire).

  

3. L'omniprésence invisible de l'IA

L'IA n'est plus une discipline de laboratoire ; elle s'est disséminée dans nos vies jusqu'à devenir invisible. Chaque jour, sans en avoir conscience, nous interagissons avec des dizaines de systèmes d'apprentissage automatique.

Dans nos poches, nos montres et nos maisons, linkedin et tant d'autre plateformes, elle opère silencieusement. Les assistants vocaux interprètent nos phrases, les appareils photo détectent un sourire, Spotify devine notre humeur, les GPS calculent la trajectoire optimale en temps réel. C'est l'IA diffuse, modeste, banalisée ; celle qui rend nos interactions plus fluides mais aussi plus dépendantes d'une infrastructure de données globale.

Dans les hôpitaux, elle lit les images médicales, accélère le diagnostic, optimise les protocoles thérapeutiques. Mais elle y importe aussi les biais des sociétés qui la nourrissent. L'exemple d'Optum, publié dans Science en 2019, reste emblématique. Son algorithme, chargé d'orienter des millions de patients américains vers des soins renforcés, défavorisait systématiquement les patients noirs. Non par intention raciste, mais parce qu'il prédisait les coûts médicaux futurs plutôt que les besoins réels de santé. Or, dans un système inégalitaire, dépenser moins pour se soigner ne signifie pas être en meilleure santé (OBERMEYER et al., 2019). En corrigeant cette métrique, la proportion de patients noirs bénéficiant d'un suivi renforcé aurait triplé. Le biais n'était pas algorithmique ; il était structurel.

Dans les usines, les algorithmes croisent capteurs, données et modèles prédictifs pour anticiper les pannes. La maintenance devient prévisionnelle, la production s'ajuste, le gaspillage diminue. Dans les réseaux électriques, des IA prévoient la demande, équilibrent la production renouvelable, optimisent les charges ; elles participent discrètement à la décarbonation du système énergétique.

Mais ailleurs, elles dérivent. En Chine, la reconnaissance faciale sert à surveiller les citoyens ; aux États-Unis, des algorithmes de predictive policing ciblent encore les quartiers pauvres ; en Europe, les banques automatisent l'octroi de crédit avec des modèles que personne ne comprend vraiment.

L'IA n'a pas de morale. Elle n'a que des corrélations.

  

4. La boucle fondamentale : percevoir, apprendre, agir

Qu'elle analyse des visages, des marchés ou des signaux électriques, toute intelligence artificielle repose sur une triade immuable : percevoir, apprendre, agir. Cette architecture, héritée de la cybernétique, s'applique aussi bien à un robot qu'à un algorithme de recommandation.

Percevoir, c'est capter des données : pixels, sons, mesures de capteurs, clics, textes, signaux biologiques.

Apprendre, c'est ajuster les paramètres internes du modèle pour réduire l'erreur entre prédiction et réalité.

Agir, enfin, consiste à produire une sortie : une décision, une action, une recommandation.

La voiture autonome illustre ce schéma. Ses capteurs recueillent un flot d'informations (radars, caméras, lidars) ; ses réseaux de neurones traitent ces signaux pour anticiper la trajectoire ; son système d'action contrôle le volant, le frein et l'accélérateur.

Mais cette chaîne n'a pas d'intuition du monde. L'IA perçoit des pixels, non des objets ; des intensités lumineuses, non des intentions humaines. Un conducteur humain ne confondrait jamais la pleine lune avec un feu rouge. Une IA, parfois, oui. Car elle ne voit pas ; elle mesure.

L'IA est une boucle d'ajustement sans conscience : elle réagit, elle n'éprouve pas.

  

5. IA faible et IA forte : la frontière du sens

Depuis les origines, deux visions s'affrontent dans le champ de l'intelligence artificielle.

D'un côté, l'IA faible (ou narrow AI), spécialisée dans une tâche unique, sans compréhension globale. AlphaGo excelle au go mais ignore tout des échecs. Un système de reconnaissance faciale détecte des visages mais ne comprend pas ce qu'est un visage. Ces IA sont des virtuoses myopes : elles excellent dans leur domaine et deviennent aveugles dès qu'on les en sort.

De l'autre, l'IA forte, encore hypothétique, viserait la compréhension et la flexibilité cognitive générales (une sorte d'esprit machinique universel capable de transférer ses connaissances d'un domaine à l'autre, de raisonner par analogie, peut-être même de développer une forme de conscience).

La seconde n'existe pas.

Les systèmes actuels, même les plus avancés (GPT-4, Gemini, Claude), ne font que prédire le mot suivant ou la probabilité la plus plausible d'un événement. Leur « raisonnement » n'est qu'une série d'ajustements statistiques sur des milliards de paramètres. Comme l'écrivent Emily BENDER, Timnit GEBRU et leurs collègues dans On the Dangers of Stochastic Parrots (2021) :

« Les grands modèles de langage sont des perroquets stochastiques : ils répètent des motifs sans en comprendre la signification. »

Autrement dit, ils imitent le langage sans l'habiter. Ils peuvent produire un poème sur la pluie sans jamais en avoir senti une goutte, disserter sur la mélancolie sans jamais avoir éprouvé le moindre chagrin. L'IA n'est pas un cerveau ; c'est une calculatrice statistique qui mime le langage.

Ce malentendu nourrit le vertige collectif : en projetant sur la machine notre propre humanité, nous oublions ce qu'elle n'est pas. Le danger n'est pas que l'IA pense ; c'est que nous cessions de le faire à sa place.

  

6. Le prix caché : énergie, biais et opacité

Sous son apparence immatérielle, l'IA pèse lourd (sur la planète, sur nos sociétés, sur notre capacité à comprendre ce qui nous gouverne).

Former un grand modèle de langage exige des milliards de calculs ; chaque opération consomme une fraction d'électricité, et la somme devient vertigineuse. Les estimations de PATTERSON et al. (2021), rapport technique de Google Research basé sur les lois d'échelle énergétique des réseaux neuronaux, situent l'entraînement de GPT-3 autour de 1 287 MWh pour environ 500 à 550 tonnes de CO₂e. Ces chiffres, calculés à partir de modèles d'échelle validés empiriquement, constituent la meilleure approximation disponible, bien qu'OpenAI n'ait jamais publié de données officielles. Ils donnent un ordre de grandeur : celui d'une consommation équivalente à plusieurs centaines de foyers américains pendant un an, concentrée en quelques semaines de calcul.

À titre de comparaison, BLOOM, modèle francophone open source de 176 milliards de paramètres entraîné sur le supercalculateur français Jean Zay, n'a émis qu'environ 50 tonnes de CO₂e en bilan complet (LUCCIONI et al., 2023) soit dix fois moins à taille comparable, grâce à un mix électrique majoritairement nucléaire et à une meilleure mutualisation des ressources. Ces écarts montrent qu'il n'existe pas de miracle, seulement des choix d'ingénierie. La sobriété dépend du lieu, du code et de l'intention ; un même algorithme peut être propre ou polluant selon l'énergie qui l'alimente.

Mais l'empreinte carbone n'est qu'une facette du problème. Les IA n'inventent pas leurs préjugés ; elles les apprennent. L'affaire Optum l'a démontré : en corrélant coût et santé, l'algorithme a simplement reproduit une inégalité économique. De même, l'outil de recrutement d'Amazon (2014-2017) a absorbé l'histoire masculine de la tech. Les biais ne sont pas des bugs, mais des reflets ; la machine ne déforme pas le monde, elle le renvoie sans filtre.

La machine ne déforme pas le monde ; elle le reflète. Et c'est là que réside le danger.

L'explicabilité devient alors un enjeu démocratique. Comment contester un refus de crédit, une sélection universitaire ou une décision judiciaire fondée sur un modèle que personne ne peut expliquer ? La recherche en Explainable AI (XAI) tente de déplier ces boîtes noires : visualisation des poids, attribution de Shapley, contre-factuals. Mais à mesure que les architectures grandissent, la compréhension se dissout.

L'Europe, avec son AI Act (2024), impose désormais transparence et supervision humaine pour les systèmes à haut risque. Une avancée ; mais aucune obligation de publier l'empreinte énergétique ou la provenance de l'électricité. On peut auditer un biais social sans jamais mesurer le wattheure.

  

7. L'IA, miroir de nous-mêmes

Plus nous fabriquons d'intelligences artificielles, plus nous redécouvrons la complexité de la nôtre.

Raisonner n'est pas calculer ; comprendre n'est pas corréler ; juger n'est pas optimiser. Ces distinctions, que la technique tend à effacer, redonnent à la pensée humaine sa singularité. L'IA agit comme un miroir inversé : elle révèle nos angles morts, nos automatismes, nos hiérarchies implicites. Elle nous rappelle que la véritable intelligence ne réside pas dans la vitesse du calcul, mais dans la lenteur du discernement.

À la question « L'IA peut-elle penser ? », la réponse importe moins que celle-ci : Pouvons-nous encore penser sans elle ? (Certaines personnes que je rencontre, ces derniers temps, dans ma vie quotidienne comme dans ma vie professionnelle, m'inquiètent à cet égard, et cela ne fait que rendre cette question plus préoccupante encore.)

La dépendance cognitive, déjà perceptible chez beaucoup, pourrait devenir le nouveau servage du XXIe siècle (non par contrainte, mais par aisance). L'automatisation du jugement précède toujours l'atrophie du libre arbitre. Nous déléguons de plus en plus nos décisions à des systèmes dont nous ne comprenons plus le fonctionnement, et cette délégation progressive érode notre capacité même à juger.

L'IA pose ainsi une question politique essentielle : qui la contrôle ? Qui choisit les objectifs, les données, les critères de réussite ? Qui décide de ce qui mérite d'être optimisé, et au détriment de quoi ? L'enjeu n'est plus technique ; il est éthique, démocratique, civilisationnel.

  

8. Conclusion : ni sauveur ni apocalypse

L'intelligence artificielle n'est pas une rupture anthropologique ; elle est la continuation du vieux rêve humain : externaliser la pensée.

L'écriture prolongea la mémoire, l'imprimerie la diffusion du savoir, l'ordinateur la vitesse du calcul ; l'IA automatise désormais la reconnaissance des formes. Elle ne remplace pas l'humain ; elle le prolonge, pour le meilleur ou pour le pire. Elle ne pense pas ; elle nous oblige à repenser ce que signifie penser.

La question centrale n'est donc pas : les machines peuvent-elles devenir humaines ? Mais : les humains peuvent-ils demeurer lucides dans un monde où les machines simulent la lucidité ?

L'IA amplifie nos intentions. Si elles sont lucides, elle peut devenir l'instrument d'une efficacité éclairée ; si elles sont aveugles, elle accélérera nos déséquilibres. C'est à nous de décider si nous voulons des machines puissantes ou des machines justes.

Ce qui doit être programmé d'abord, ce n'est pas le code : ce sont les consciences qui le rédigent.

Le risque n'est pas que l'IA pense, mais que nous arrêtions de penser.

📌 Point de vue Prométhée T&I

 

L'IA n'a pas besoin de conscience pour être dangereuse ; elle a besoin de gouvernance pour être utile. Chez Prométhée T&I, nous refusons le double écueil du débat public sur l'intelligence artificielle : la fascination anthropomorphique (« elle va bientôt penser comme nous ») et la panique dystopique (« elle va nous détruire »). Ces deux postures partagent la même erreur : elles confondent puissance de calcul et intelligence.

Notre conviction : le vrai danger n'est pas que l'IA devienne consciente, mais que nous cessions de l'être à sa place. Chaque décision déléguée à un algorithme que personne ne comprend est une parcelle de jugement humain qui s'atrophie ; chaque corrélation prise pour une causalité est une erreur de raisonnement institutionnalisée ; chaque biais reproduit sans examen est une injustice automatisée.

Dans nos missions d'accompagnement (industriels, acteurs publics, programme Osez l'IA, opérateur de module transformant), nous commençons systématiquement par cet effort de démystification : clarifier ce que fait réellement un modèle, ce qu'il ne fera jamais, et où s'arrête sa zone de légitimité.

Ce que nous défendons :

  • Former systématiquement les utilisateurs à ce que l'IA fait réellement, et non à ce qu'on fantasme qu'elle fait.
  • Exiger l'explicabilité avant tout déploiement dans les domaines à fort impact humain.
  • Refuser la confusion dangereuse entre performance algorithmique et qualité de la décision.

 

L'IA est un outil puissant, mais un outil ne remplace jamais la responsabilité de celui qui le manie. La vraie intelligence reste humaine : c'est celle qui sait quand utiliser la machine, comment la cadrer, et quand s'en passer.

 

🔎 Exemple de cas client Prométhée T&I

 

Dans une ETI industrielle, nous avons été sollicités pour réduire la fréquence des pannes critiques d'équipements mécaniques. Le discours initial du client : « Il nous faut un modèle complexe capable de prédire tout. »

Notre diagnostic a montré qu'un modèle explicable basé sur les seules données vibratoires et thermiques suffisait largement.

Résultats après déploiement :

  • -37 % d'arrêts non planifiés
  • 72 heures d'anticipation moyenne sur les pannes critiques
  • -17 800 € de coûts de dépannage sur un an
  • Satisfaction managériale passée de 54 % à 80 %

 

Enseignement :

Ce n'est pas la sophistication du modèle qui crée la valeur, mais son intégration raisonnée dans la réalité physique du système. La démystification n'est pas un préalable académique ; c'est la condition même de l'efficacité.

  

Pour aller plus loin

Nous avons démystifié l'intelligence artificielle : non pas une pensée artificielle, mais une machine à corréler, puissante mais aveugle, capable d'exploits techniques mais dénuée d'intentionnalité, de conscience, de jugement moral. Nous avons vu qu'elle amplifie nos intentions (qu'elles soient lucides ou aveugles) et qu'elle pose une question politique essentielle : qui la contrôle, et vers quelles finalités ?

Mais cette question en appelle immédiatement une autre : vers quelles finalités devrions-nous orienter la technique elle-même ? Si l'IA est un outil, le plus puissant jamais conçu, au service de quoi doit-elle être mise ? Comment concevoir, produire, bâtir dans un monde fini, aux ressources limitées, aux cycles écologiques fragiles ?

C'est précisément la question que pose l'éco-ingénierie. Non pas une « ingénierie verte » cosmétique, mais une refondation épistémologique de ce que signifie concevoir. L'article suivant explore ses fondements : biomimétisme, sobriété fonctionnelle, pensée systémique. Il montre qu'une autre ingénierie est possible (celle du juste nécessaire, de l'élégance structurelle, de la coopération avec le vivant plutôt que de sa domination).

⟿ Lire l'article 2 : L'éco-ingénierie, l'intelligence du juste nécessaire

  
Bibliographie commentée

Turing, Alan M. (1950) - Computing Machinery and IntelligenceMind, vol. LIX, n° 236, p. 433-460.
Texte fondateur de la réflexion sur la simulation du raisonnement humain. Turing y définit le fameux « test » qui évalue la capacité d'une machine à imiter l'humain sans jamais évoquer la conscience.

McCarthy, John ; Minsky, Marvin ; Rochester, Nathan ; Shannon, Claude (1955) - A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.
Document d'origine de la discipline. Introduit le terme « artificial intelligence » et pose les bases symboliques de la recherche à venir.

Silver, David et al. (2016) - Mastering the game of Go with deep neural networks and tree searchNature, vol. 529, p. 484-489.
Étude publiée par DeepMind démontrant la victoire d'AlphaGo sur Lee Sedol. Première preuve empirique de la puissance combinée de l'apprentissage profond et de la recherche arborescente.

Obermeyer, Ziad ; Powers, Brian ; Vogeli, Christine ; Mullainathan, Sendhil (2019) - Dissecting racial bias in an algorithm used to manage the health of populationsScience, vol. 366, n° 6464, p. 447-453.
Travail majeur démontrant que l'algorithme d'Optum favorisait involontairement les patients blancs ; la variable de coût avait remplacé celle du besoin réel de soins.

Bender, Emily M. ; Gebru, Timnit ; McMillan-Major, Angelina ; Mitchell, Margaret (2021) - On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, p. 610-623.
Article devenu référence critique sur les grands modèles de langage. Introduit la métaphore du « perroquet stochastique » pour décrire la reproduction de motifs sans compréhension sémantique.

Patterson, David ; Gonzalez, Joseph ; Le, Quoc V. et al. (2021) - Carbon Emissions and Large Neural Network Training, arXiv:2104.10350.
Rapport technique de Google Research établissant une méthode de calcul des émissions de CO₂ liées à l'entraînement de modèles de grande taille. Sert de référence pour estimer l'ordre de grandeur des impacts énergétiques. Bien que non publié dans une revue à comité de lecture, ce rapport constitue la source la plus citée pour les estimations d'empreinte carbone de GPT-3, basées sur des lois d'échelle énergétique validées empiriquement.

Luccioni, Alexandra Sasha ; Viguier, Sylvain ; Ligozat, Anne-Laure (2023) - Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language ModelJournal of Machine Learning Research, vol. 24, n° 253, p. 1-15.
Article évaluant l'empreinte carbone du modèle francophone BLOOM (environ 50 tonnes de CO₂e en bilan complet). Fait autorité pour la méthodologie de mesure et la transparence des données énergétiques. Démontre qu'une IA performante peut être sobre grâce à des choix d'infrastructure et de gouvernance appropriés.

Schwartz, Roy ; Dodge, Jesse ; Smith, Noah A. ; Etzioni, Oren (2020) - Green AICommunications of the ACM, vol. 63, n° 12, p. 54-63.
Texte programmatique opposant la « Red AI » (croissance illimitée des modèles) à la « Green AI » (efficience, traçabilité, sobriété). Propose de redéfinir les critères d'excellence scientifique en IA pour intégrer l'impact environnemental.

Crawford, Kate (2021) - Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, Yale University Press.
Ouvrage de référence documentant les coûts matériels, sociaux et environnementaux de l'IA. Explore les chaînes d'approvisionnement en métaux rares, les conditions de travail des annotateurs de données, et les impacts écologiques des infrastructures numériques.

Russell, Stuart (2019) - Human Compatible: Artificial Intelligence and the Problem of Control, Viking.
Réflexion d'un des pionniers de l'IA sur les enjeux de gouvernance et de contrôle. Propose une refondation des objectifs de l'IA pour qu'elle serve réellement l'intérêt humain plutôt que de maximiser des fonctions objectives mal spécifiées.

O'Neil, Cathy (2016) Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Crown.
Analyse critique des algorithmes de scoring et de prédiction utilisés dans la justice, l'éducation, l'emploi et le crédit. Démontre comment des modèles opaques peuvent amplifier et automatiser les discriminations sociales.

Wiener, Norbert (1948) - Cybernetics: Or Control and Communication in the Animal and the Machine, MIT Press.
Texte fondateur de la cybernétique. Sert de point d'ancrage historique à la compréhension du lien entre calcul, régulation et comportement. Anticipe plusieurs enjeux contemporains de l'IA, notamment la question de la boucle de rétroaction entre machine et environnement.

Shannon, Claude E. (1948) - A Mathematical Theory of CommunicationBell System Technical Journal, vol. 27, p. 379-423 et 623-656.
Établissement du concept d'information mesurable ; fondement mathématique de tout traitement algorithmique moderne. Texte fondateur de la théorie de l'information, sans lequel l'IA contemporaine n'existerait pas.

NB : Toutes les références principales s’appuient sur la littérature académique ou institutionnelle, complétée par quelques articles de vulgarisation explicitement signalés comme tels. Aucune source non traçable n’a été retenue.

Notes

1 : Explicable : une IA dont les raisonnements, les choix et les décisions peuvent être compris, retracés et justifiés. Elle ne se contente pas de donner un résultat ; elle expose le chemin logique qui y conduit, rendant possible l'audit, la confiance et la correction des biais.

2 : Adaptable : une IA capable d'évoluer avec son environnement, d'intégrer de nouvelles données ou contraintes sans perdre cohérence ni robustesse. Elle apprend sans se dérégler ; elle s'ajuste sans se renier.

3 : Soutenable : une IA conçue dans une logique de frugalité, de durabilité et d'efficience énergétique. Elle vise la juste puissance plutôt que la surenchère de calculs ; elle s'inscrit dans une écologie de la performance plutôt que dans une course à la démesure.

4 : Vérifiable : une IA dont les comportements peuvent être testés, mesurés et validés de manière formelle. Autrement dit, une IA dont on peut prouver la conformité à des critères explicites (sécurité, équité, efficacité), plutôt que de la croire sur parole.

Stéphane COUTANSON - Prométhée T&I - © 2025

Prométhée T&I

Réseaux sociaux

Articles récents