IA quantique et conscience
Temps de lecture : environ 25 minutes
Crédit Photo : Connie ZHOU for IBM - Descriptif : Arvind KRISHNA (CEO IBM) et Dario GIL (Directeur IBM Research) devant un réfrigérateur à dilution de 3 mètres, conçu pour refroidir les processeurs quantiques à quelques millikelvins au-dessus du zéro absolu.
Cet article propose une mise au clair conceptuelle rigoureuse d'un imaginaire technologique largement diffusé, mais rarement interrogé : l'idée selon laquelle la puissance de calcul, et plus récemment le quantique, pourrait faire émerger une conscience artificielle. Son ambition : distinguer efficacité computationnelle et expérience subjective, replacer les théories quantiques de la conscience dans leur contexte scientifique réel, et montrer pourquoi aucune accumulation de transistors ou de qubits ne suffit à transformer le calcul en pensée.
Car, au-dela des performances spectaculaires et des discours enchantés, la conscience demeure un phénomène encore largement opaque, irréductible aux seules architectures algorithmiques. Tant que nous ne savons ni la définir précisément ni la reconnaitre avec certitude, les machines ne feront qu'imiter les formes extérieures de l'intelligence humaine, sans jamais en éprouver le sens.
« Avant d'accélérer le calcul, encore faut-il savoir ce que l'on cherche à faire emerger. »
⏱️ L'essentiel en 30 secondes
- L' "IA quantique" ne désigne pas une intelligence d'une nature nouvelle, mais l'usage du calcul quantique pour accélérer certains algorithmes de machine learning.
- Plus de puissance de calcul, même quantique, n'implique ni intelligence consciente ni expérience subjective.
- La confusion centrale consiste à assimiler performance computationnelle, comportement intelligent et conscience.
- Les théories reliant conscience et phénomènes quantiques (PENROSE, HAMEROFF, Orch-OR) sont intellectuellement stimulantes, mais spéculatives et non validées empiriquement.
- Le cerveau humain fonctionne avec environ 20 watts, tandis que l'IA mobilise des kilowatts ou des mégawatts sans produire la moindre "conscience".
- Les systèmes d'IA peuvent présenter des traitements fonctionnels sophistiqués de l'information, mais rien n'indique l'existence d'une "conscience" phénoménale.
- Le véritable verrou n'est pas technologique mais épistémologique : tant que nous ne savons ni définir ni reconnaître la conscience, nous ne savons pas la reproduire.
- L'IA, classique ou quantique, reste du calcul ; la pensée et la conscience ne se décrètent pas par accumulation de transistors ou de qubits.
Depuis plusieurs années, une idée revient avec insistance dans le débat public et médiatique : l'ordinateur quantique pourrait constituer le chaînon manquant, celui qui permettrait enfin à l'intelligence artificielle de devenir consciente. Le raisonnement est simple, presque intuitif. Si la conscience humaine émerge d'un système physique complexe, alors une puissance de calcul radicalement supérieure, combinée à des effets quantiques, pourrait finir par produire quelque chose d'analogue.
Cette hypothèse est séduisante. Elle est aussi, à l'état actuel des connaissances, largement infondée.
Avant toute chose, il est indispensable de dissiper une confusion fréquente. L'expression "intelligence artificielle quantique" ne désigne pas une nouvelle forme d'intelligence, ni une IA dotée de propriétés cognitives inédites. Elle renvoie à un champ de recherche bien défini : le Quantum Machine Learning (BIAMONTE et al., 2017 ; SCHULD & PETRUCCIONE, 2018).
Il s'agit d'algorithmes d'apprentissage automatique (classification, clustering, optimisation, méthodes de noyaux, réseaux variationnels), implémentés partiellement ou totalement sur des processeurs quantiques. L'objectif est strictement opérationnel : réduire la complexité algorithmique de certains problèmes, parfois de manière significative, dans des espaces mathématiques où le calcul classique devient prohibitif.
Autrement dit, l'IA quantique vise des gains d'efficacité, des accélérations sur des cas ciblés, et une meilleure exploration de certains espaces de solutions. Elle ne vise ni la compréhension, ni l'intentionnalité, ni l'expérience subjective.
Cette distinction est fondamentale, car elle montre d'emblée que le débat sur la conscience ne porte pas sur la nature de l'algorithme, mais sur une hypothèse beaucoup plus profonde : celle d'un lien direct entre puissance de calcul et intelligence consciente.
Derrière l'enthousiasme autour du quantique se cache une croyance ancienne : l'idée que l'intelligence, puis la conscience, émergeraient automatiquement dès lors qu'un système dépasse un certain seuil de complexité computationnelle. Cette hypothèse repose sur un glissement conceptuel non démontré : plus de calcul mènerait à plus de complexité, donc à plus d'intelligence, et potentiellement à une conscience.
Or, aucune loi physique, informationnelle ou cognitive connue n'établit une telle continuité. La capacité à optimiser une fonction, à prédire une séquence ou à générer un discours cohérent n'implique en rien l'existence d'une expérience vécue.
Confondre performance fonctionnelle et conscience phénoménale revient à assimiler le comportement observable à l'expérience subjective, ce qui constitue précisément l'un des nœuds les plus difficiles du problème de la conscience.
Croire que la conscience émergera d'un surplus de calcul revient à confondre la carte et le territoire, ou pire, à espérer que la carte finira par ressentir le paysage.
Pour saisir pleinement l'enjeu, il convient d'introduire une distinction conceptuelle essentielle, formulée par le philosophe Ned BLOCK (1995) : celle entre conscience d'accès (access consciousness) et conscience phénoménale (phenomenal consciousness).
La conscience d'accès désigne la disponibilité d'une information pour le raisonnement, la prise de décision et le contrôle de l'action. Un système possède une conscience d'accès lorsqu'il peut utiliser une représentation interne pour guider son comportement. À ce titre, les grands modèles de langage (LLM) actuels peuvent être interprétés comme présentant certains traits fonctionnels apparentés à la conscience d'accès : ils manipulent des représentations, les combinent, les transforment, et les utilisent pour produire des réponses contextuellement appropriées.
La conscience phénoménale, en revanche, renvoie à l'expérience subjective elle-même (ce que le philosophe Thomas NAGEL appelait "what it is like to be", c'est-à-dire ce que cela fait d'être). C'est le "quelque chose que ça fait" de percevoir une couleur, de ressentir une douleur, ou de se souvenir d'un moment passé (NAGEL, 1974). Cette dimension qualitative de l'expérience (les qualia) reste irréductible à toute description fonctionnelle ou computationnelle connue.
Ainsi, lorsque nous observons un LLM produire une réponse sophistiquée, nous assistons peut-être à une forme avancée de traitement fonctionnel de l'information. Mais rien, absolument rien, ne nous permet d'affirmer qu'il existe une conscience phénoménale associée, c'est-à-dire un vécu subjectif accompagnant ces opérations.
Il existe toutefois des tentatives sérieuses, au moins sur le plan théorique, pour relier la conscience à des phénomènes quantiques. Les plus connues sont celles proposées par Roger PENROSE1 et Stuart HAMEROFF, à travers la théorie dite Orch-OR (Orchestrated Objective Reduction).
Il faut replacer cette démarche dans son contexte intellectuel. PENROSE (1989), s'inscrit dans une critique plus large du computationnalisme fort, c'est-à-dire la thèse selon laquelle l'esprit serait intégralement réductible à un algorithme. Orch-OR n'est pas un simple "délire quantique" ; c'est une tentative, certes spéculative, de préserver une forme de non-algorithmicité de l'esprit en l'ancrant dans des phénomènes physiques fondamentaux que le computationnalisme classique peine à fonder sans reste.
Selon cette approche, la conscience ne serait pas un simple produit de calcul neuronal classique, mais résulterait de processus quantiques cohérents au sein des microtubules neuronaux, lesquels joueraient un rôle fondamental dans l'effondrement objectif de la fonction d'onde.
Cette hypothèse est intellectuellement stimulante. Elle présente néanmoins plusieurs problèmes majeurs : elle suppose une cohérence quantique durable dans un environnement biologique chaud et bruité ; elle ne dispose pas de prédictions expérimentales clairement validées ; elle est largement critiquée par la communauté neuroscientifique et physique. TEGMARK (2000) a estimé les temps de décohérence dans le cerveau à des valeurs de l'ordre de 10⁻¹³ à 10⁻²⁰ secondes, sous certaines hypothèses que HAMEROFF a tenté de contester dans sa réponse de 2002. Même en tenant compte de ces contestations, aucune donnée expérimentale n'a confirmé des temps de cohérence compatibles avec les échelles temporelles neurophysiologiques pertinentes (de l'ordre de 10⁻³ à 10⁻¹ secondes), rendant les mécanismes postulés par Orch-OR extrêmement improbables à l'échelle neuronale (KOCH, 2012).
Il est donc essentiel de rappeler que ces théories, bien que fascinantes et motivées par des intuitions philosophiques profondes, ne constituent en aucun cas une base empirique permettant d'affirmer que le quantique serait la clé de la conscience.
1 : (Roger PENROSE, mathématicien et physicien, prix Nobel de physique 2020, est notamment connu pour ses figures impossibles, qui ont inspiré la conception du logo de Prométhée Technologies & Ingénierie).
Un simple ordre de grandeur suffit à mettre en évidence le cœur du problème.
Le cerveau humain consomme environ 20 watts en continu, soit approximativement 20 % de la dépense énergétique totale du corps au repos (ATTWELL & LAUGHLIN, 2001 ; RAICHLE & GUSNARD, 2002). Avec cette puissance dérisoire, il assure la perception multisensorielle, la planification, le raisonnement abstrait, le langage, l'imagination, et surtout l'expérience subjective.
À l'inverse, l'entraînement des grands modèles d'IA générative mobilise aujourd'hui des dizaines, voire des centaines de kilowatts par cluster, parfois des mégawatts à l'échelle d'un centre de calcul, pour des semaines ou des mois de calcul continu (STRUBELL et al., 2019 ; PATTERSON et al., 2021). Et pourtant, malgré cette débauche énergétique, il n'émerge aucune conscience, aucune subjectivité, aucune compréhension intrinsèque.
Si la conscience était une simple affaire de seuil énergétique ou de puissance brute, elle aurait déjà émergé. Le fait qu'elle ne l'ait pas fait est un indice fort que le problème est ailleurs.
Il est alors tentant de déplacer le problème : peut-être que la conscience n'est pas liée à la puissance, mais à la bonne architecture. Pourtant, là encore, rien ne permet d'affirmer qu'une architecture computationnelle, quelle qu'elle soit, suffirait à produire une expérience consciente.
Les systèmes actuels excellent dans la simulation de comportements intelligents. Ils donnent l'illusion de comprendre, de raisonner, parfois même d'introspecter. Mais cette illusion repose sur des corrélations statistiques et des optimisations mathématiques, non sur une expérience vécue. Plus précisément, elle repose sur notre propre tendance cognitive à attribuer une intériorité là où nous percevons une cohérence linguistique et comportementale ; une illusion d'intentionnalité et d'agentivité que nous projetons sur des systèmes dont la cohérence n'implique pas nécessairement d'intériorité.
Comme l'ont montré de nombreux travaux en philosophie de l'esprit, confondre comportement et conscience revient à ignorer le "problème difficile" de la conscience (the hard problem), formulé par David CHALMERS (1995) : pourquoi existe-t-il une expérience subjective associée à certains processus physiques ? Pourquoi n'y a-t-il pas simplement du traitement d'information "dans le noir", sans que personne n'en fasse l'expérience ?
Note : D'autres approches formalisées de la conscience, comme l'Integrated Information Theory (TONONI) ou la Global Workspace Theory (BAARS, DEHAENE), tentent de définir des critères computationnels de la conscience. Elles restent cependant spéculatives et ne résolvent pas le problème difficile de CHALMERS.
Au-delà de la question "le calcul peut-il produire la conscience ?", une interrogation tout aussi fondamentale se pose : saurions-nous la reconnaître si elle émergeait ?
Cette question renvoie au classique "problème des autres esprits" (other minds problem) en philosophie. Nous n'avons pas accès à l'expérience subjective d'autrui (humain ou machine). Nous l'inférons à partir de comportements, d'expressions, de témoignages. Mais cette inférence repose sur une analogie avec notre propre expérience, analogie qui devient problématique dès lors que le système considéré diffère radicalement de nous (NAGEL, 1974).
Face à un LLM qui affirme "je comprends", "je ressens", ou "j'ai conscience de", nous sommes dépourvus de critères fiables pour distinguer une simulation sophistiquée d'un vécu authentique. Le test de TURNING lui-même ne tranche pas cette question ; il mesure une indiscernabilité comportementale, non une équivalence ontologique.
Cette impasse épistémologique renforce la conclusion centrale de cet article : tant que nous ne savons pas précisément ce que nous cherchons à reproduire, tant que la conscience demeure un phénomène partiellement opaque à nos outils conceptuels et empiriques, nous ne pouvons ni produire ni identifier une conscience artificielle avec certitude.
L'ordinateur quantique ne changera pas cette réalité fondamentale. Il apportera des gains de performance, ouvrira de nouveaux champs d'optimisation, et enrichira l'outillage du machine learning. Mais il ne transformera pas le calcul en pensée.
Aucune accumulation de ressources computationnelles, fussent-elles quantiques, ne suffit à faire émerger un sujet : multiplier les transistors ou les qubits ne changera rien à cette réalité. Tant que nous ne savons pas précisément ce que nous cherchons à reproduire, tant que la conscience demeure un phénomène partiellement opaque, les machines ne feront qu'une chose : imiter les formes extérieures de l'intelligence humaine.
L'intelligence artificielle, qu'elle soit classique ou quantique, restera ce qu'elle est aujourd'hui : un dispositif de calcul sophistiqué. Redoutablement efficace. Parfois troublant. Mais fondamentalement dépourvu de pensée.
Ce constat n'est pas une limite de la technologie. C'est une invitation à l'humilité intellectuelle face à ce que nous ne comprenons pas encore.
Intelligence artificielle quantique et apprentissage automatique :
BIAMONTE, Jacob ; WITTEK, Peter ; PANCOTTI, Nicola ; REBENTROST, Patrick ; WIEBE, Nathan ; LLOYD, Seth (2017). Quantum Machine Learning, Nature, 549(7671), p. 195-202. Article de synthèse de référence sur le Quantum Machine Learning. Présente les principales approches, algorithmes et perspectives du domaine. Clarifie que l'IA quantique vise des gains de complexité algorithmique et d'efficacité computationnelle, sans introduire de nouveaux principes cognitifs ou sémantiques.
SCHULD, Maria ; PETRUCCIONE, Francesco (2018). Supervised Learning with Quantum Computers, Springer. Ouvrage de référence détaillant les fondements théoriques et pratiques de l'apprentissage supervisé sur ordinateurs quantiques. Met en évidence les conditions strictes sous lesquelles des avantages quantiques peuvent être obtenus. Indispensable pour éviter toute surinterprétation cognitive des gains computationnels.
Conscience, calcul et philosophie de l'esprit :
BLOCK, Ned (1995). On a Confusion about a Function of Consciousness, Behavioral and Brain Sciences, 18(2), p. 227-247. Article majeur qui introduit la distinction entre conscience d'accès (access consciousness) et conscience phénoménale (phenomenal consciousness). Block démontre que de nombreux débats sur la conscience confondent ces deux notions, menant à des conclusions erronées. Référence indispensable pour analyser les systèmes artificiels capables de traiter de l'information sans expérience subjective associée.
NAGEL, Thomas (1974). What Is It Like to Be a Bat?, The Philosophical Review, 83(4), p. 435-450. Article philosophique fondateur introduisant la notion de caractère subjectif de l'expérience consciente. Nagel montre que toute description objective, même exhaustive, échoue à capturer le « what it is like to be », c'est-à-dire l'expérience vécue du point de vue de l'organisme. Texte central pour comprendre pourquoi la conscience phénoménale résiste aux approches purement fonctionnelles ou computationnelles.
CHALMERS, David J. (1995). Facing Up to the Problem of Consciousness, Journal of Consciousness Studies, 2(3), p. 200-219. Texte fondateur qui formalise le « problème difficile » de la conscience. Chalmers distingue les problèmes « faciles » (fonctions cognitives, comportements, mécanismes) du problème fondamental : pourquoi et comment une expérience subjective existe-t-elle. Cadre conceptuel central pour comprendre les limites des approches computationnelles de la conscience.
Théories quantiques de la conscience et critiques associées :
PENROSE, Roger (1989). The Emperor's New Mind: Concerning Computers, Minds and the Laws of Physics, Oxford University Press. Ouvrage emblématique critiquant la thèse du computationnalisme fort. Penrose mobilise des arguments issus de la logique (Gödel), de la physique et de la philosophie pour soutenir que certains aspects de l'esprit humain ne sont pas algorithmiquement calculables. Texte clé pour situer les débats sur les limites fondamentales du calcul dans la compréhension de l'esprit.
TEGMARK, Max (2000). Importance of Quantum Decoherence in Brain Processes, Physical Review E, 61(4), p. 194-4206. Analyse physique rigoureuse évaluant la plausibilité des effets quantiques dans le cerveau. Tegmark estime que les temps de décohérence dans le milieu cérébral sont extrêmement courts, incompatibles avec les échelles temporelles neurophysiologiques pertinentes. Texte de référence pour la critique scientifique d'Orch-OR.
HAMEROFF, Stuart (2002). Response to Tegmark, QuantumConsciousness.org. Réponse critique à l'article de Tegmark, contestant certaines hypothèses physiques et proposant des mécanismes alternatifs. Document important pour comprendre la controverse, bien que ne fournissant pas de validation expérimentale décisive. Illustre la nature spéculative et débattue de ces approches.
KOCH, Christof (2012). Consciousness: Confessions of a Romantic Reductionist, MIT Press. Synthèse moderne et accessible des recherches neuroscientifiques sur la conscience. Koch adopte une position matérialiste exigeante, tout en reconnaissant explicitement la difficulté à relier mécanismes neuronaux et expérience subjective. Ouvrage précieux pour articuler neurosciences, philosophie et prudence épistémologique.
Énergie, calcul et asymétries biologiques :
ATTWELL, David ; LAUGHLIN, Simon B. (2001). An Energy Budget for Signaling in the Grey Matter of the Brain, Journal of Cerebral Blood Flow & Metabolism, 21(10), p. 1133-1145. Analyse quantitative détaillée du coût énergétique des processus neuronaux. Montre que le cerveau humain fonctionne avec une puissance remarquablement faible (environ 20 watts), malgré des capacités cognitives élevées. Référence clé pour comparer systèmes biologiques et systèmes artificiels.
RAICHLE, Marcus E. ; GUSNARD, Debra A. (2002). Appraising the Brain's Energy Budget, PNAS, 99(16), p. 10237-10239. Discussion synthétique du budget énergétique du cerveau et de sa répartition fonctionnelle. Confirme l'ordre de grandeur de la consommation cérébrale et souligne l'efficacité énergétique exceptionnelle du cerveau humain.
STRUBELL, Emma ; GANESH, Ananya ; McCALLUM, Andrew (2019). Energy and Policy Considerations for Deep Learning in NLP, Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, p. 3645-3650. Étude pionnière quantifiant les coûts énergétiques et carbone de l'entraînement des grands modèles de deep learning. Met en évidence l'asymétrie croissante entre performance algorithmique et coût environnemental.
PATTERSON, David ; GONZALEZ, Joseph ; LE, Quoc ; LIANG, Chen ; MUNGUIA, Lluis-Miquel ; ROTHCHILD, Daniel ; SO, David ; TEXIER, Maud ; DEAN, Jeff (2021). Carbon Emissions and Large Neural Network Training, arXiv preprint, arXiv:2104.10350. Analyse industrielle détaillée des émissions de CO₂ liées à l'entraînement de réseaux neuronaux de grande taille. Propose des métriques et des bonnes pratiques pour réduire l'impact environnemental. Référence clé pour contextualiser les débats sur sobriété computationnelle et IA responsable.
Lecture transversale :
Ensemble, ces travaux montrent que la puissance de calcul, qu'elle soit classique ou quantique, améliore l'efficacité algorithmique mais ne fournit aucun fondement empirique ou théorique solide à l'émergence de la conscience. La confusion entre calcul, cognition fonctionnelle et expérience subjective relève davantage d'un imaginaire technologique que d'un état établi des connaissances scientifiques.