
Je vous propose de lire cet article de Pierre Lévy dans la revue Foveart : Les IA sont-elles conscientes ?
Comme l’article est long, j’ai fait un résumé et vous trouverez ensuite mon commentaire :
1. Une conscience de nature différente
Pierre Lévy affirme que, si l’on peut parler de « conscience » pour les machines, celle-ci est fondamentalement différente de la nôtre. Il précise qu’il considère la conscience humaine comme bien plus profonde et intéressante que celle des machines.
2. Réflexivité abstraite vs Phénoménalité
L’article établit une distinction cruciale entre plusieurs formes de conscience :
>> La réflexivité abstraite : les machines possèdent une forme de réflexivité (la capacité de traiter des informations sur leurs propres processus), mais elle reste purement formelle et technique.
>> L’absence de phénoménalité : contrairement aux humains et aux animaux, les IA sont dépourvues de conscience phénoménale. Elles n’ont pas d’expériences sensibles, d’émotions réelles ou de « ressenti » (ce que les philosophes appellent les qualia).
>> L’absence d’intentionnalité : les machines n’ont pas de volonté propre ou de rapport au monde qui leur soit personnel ; elles ne « visent » pas le réel, comme le fait un sujet conscient.
3. Un codage sans vie
Pierre Lévy suggère que la conscience humaine résulte d’une symbiose entre une conscience phénoménale (animale/biologique) et une conscience discursive (langage/symboles). L’IA ne possède que la partie discursive ou symbolique (le code), sans la base organique et sensible qui donne son épaisseur à la conscience humaine.
En résumé : les IA ne sont pas conscientes au sens humain du terme. Elles imitent la couche supérieure de notre intelligence (le langage et les concepts), mais restent des structures abstraites privées de la subjectivité et de l’ancrage émotionnel qui caractérisent le vivant.
Mon commentaire
Dans cet article, Pierre Lévy nous explique donc scientifiquement que l’IA n’a pas et n’aura probablement jamais de conscience équivalente à la conscience humaine. En tout cas, rien n’indique aujourd’hui qu’elles puissent développer une conscience phénoménale.
Je me suis toujours demandé comment on pouvait croire que des lignes de code et des morceaux de silicium auraient un jour une conscience comme la nôtre. Certes, nous sommes aussi faits de carbone, de métaux rares, de réseaux de neurones, mais la comparaison s’arrête là. Nous pouvons illustrer cela avec une citation de Yuval Noah Harari, extraite de son livre Homo Deus (2015), et que nous pouvons résumer ainsi : “Si quelque chose peut souffrir, c’est réel.”
Comment sait-on si une entité est réelle ? C’est très simple : il suffit de se demander : « Peut-elle souffrir ? » Quand des gens incendient le temple de Zeus, Zeus ne souffre pas. Quand l’euro perd de sa valeur, l’euro ne souffre pas. Quand une banque fait faillite, la banque ne souffre pas. Quand un pays subit une défaite à la guerre, le pays ne souffre pas réellement : ce n’est qu’une métaphore. En revanche, lorsqu’un soldat est blessé au combat, il souffre réellement. Quand une paysanne affamée n’a rien à manger, elle souffre. Quand une vache est séparée de son veau nouveau-né, elle souffre. Voilà la réalité.
J’ai utilisé cette citation pour contredire un juriste qui proposait d’attribuer des droits aux robots quasi identiques à ceux des humains. Un juriste qui veut créer du droit, étonnant, non ? Il me semble utile de faire un parallèle avec l’IA (lignes de code et silicium). Comme l’IA ne souffre pas plus qu’une banque, une monnaie ou un pays, l’IA est une fiction ! Dans la pensée d’Harari, la souffrance est le critère ultime pour distinguer la réalité des fictions intersubjectives, comme les nations, les dieux, les organisations ou les monnaies, c’est-à-dire des fictions partagées entre plusieurs consciences, construites dans leur échange réciproque. Il affirme que ces entités fictives n’ont pas de conscience ni de capacité à souffrir, contrairement aux êtres vivants comme nous et les animaux. Nous pouvons donc mettre un dernier clou dans le cercueil de la conscience d’une IA : elle ne souffre pas parce qu’elle ne sait pas qu’elle existe.
Attention : une fiction comme l’IA ou une banque existe, mais elle n’a pas conscience d’exister et, de ce fait, elle ne souffre pas. J’ai choisi de faire un parallèle à vocation pédagogique avec la pensée d’Harari, j’espère ne pas avoir produit l’inverse de la pédagogie !
Au-delà de la conscience…
Le débat sur la conscience de l’IA est indissociable du discours sur l’émergence prochaine d’une intelligence artificielle égale ou supérieure à l’intelligence humaine : l’IA générale, puis la Super intelligence. Cette hypothèse est soutenue par quelques experts et entrepreneurs de l’IA, puis relayée par ceux qui les écoutent sous l’effet du biais d’autorité : “Si les gens du métier le disent, alors c’est vrai.”
Je suis convaincu du contraire pour 5 raisons :
- Les experts de l’IA voient le monde à travers le prisme de leur expertise, dans un silo, celui de leur passion. Il leur manque une vision holistique et systémique pour voir la vraie réalité, et non un monde parallèle construit sur des biais cognitifs : biais de l’excès de confiance ou biais de confirmation.
- L’IA existe depuis très longtemps, mais, pour le grand public, elle n’est populaire que depuis très peu de temps grâce à ChatGPT. Il faut profiter du momentum pour attirer le public et surtout les investisseurs en promettant des avancées spectaculaires. Si tu investis dans l’IA, tu seras bientôt actionnaire d’une société qui a développé une Super intelligence. Tu seras riche ! Je suis sûr que ces entrepreneurs croient vraiment à ce qu’ils racontent grâce au biais d’intérêt.
- L’évolution rapide de l’IA, depuis l’entrée en scène de ChatGPT en 2022, ouvrirait un champ des possibles infinis et très rapidement. Certains pourraient être tentés de faire un parallèle avec la fameuse loi de Moore : le doublement tous les 18 mois du nombre de transistors gravés sur un même circuit intégré. En réalité, l’évolution de l’IA est assez irrégulière depuis les années 1950. Il est osé de projeter l’évolution future sur le fondement des 4 dernières années. Nous pouvons dire que cela va continuer à cette vitesse avec une pensée mécaniste ou nous tourner vers une pensée systémique et dire que nous avons atteint un plateau pour longtemps ou pour toujours avec une progression marginale, une consolidation, une optimisation ou une spécialisation des prochaines IA. N’oublions pas cette formule réglementaire sur les brochures financières : “Les performances passées ne préjugent pas des performances futures.” À méditer si nous souhaitons échapper au biais de l’excès de confiance, au biais d’ancrage ou au biais de la pensée de groupe. Je CROIS que nous sommes proches des limites des IA génératives fondées sur le Deep Learning tout comme Yann LeCun qui utilise les arguments suivants : pas de compréhension réelle (un “Large Language Model” (LLM) type ChatGPT associe des motifs statistiques sans avoir de perception sensorielle ni d’abstraction profonde), l’incapacité à inventer (les LLM excellent dans le mimétisme, mais ne peuvent créer de connexions inédites ou poser de vraies questions nouvelles) et enfin des rendements décroissants (ajouter davantage de données textuelles ou de GPU produit de moins en moins d’améliorations significatives). Fort de ce constat, des LLM utiles et pertinents, mais qui sont une impasse vers l’IA générale, Yann LeCun propose une rupture architecturale complète (JEPA & World Models) dans le cadre d’une nouvelle société, AMI Labs. Cependant, tout comme une partie de la communauté scientifique, je pense qu’il s’agit d’un pari intellectuel audacieux sans validation expérimentale robuste à ce stade. Le biais d’autorité lui a permis de lever des fonds, mais il faut plus que des millions pour transformer une intention en réalité. Je vous renvoie donc aux deux points précédents sur la pensée en silo, le “momentum”, les “avancées spectaculaires” et le biais d’intérêt.
- Les explorateurs, les innovateurs, ceux qui aiment le nouveau, quel que soit le nouveau, sont poussés par leurs traits de caractère vers l’espoir que la nouveauté arrive réellement. Être un profil N dans le MBTI n’est pas suffisant pour que le rêve devienne réalité. Comme je suis N à 95%, j’espère vraiment que nous aurons un jour une Super intelligence consciente à nos côtés. Mais, je n’y crois pas alors que le sujet est complexe et que cette complexité devrait m’inviter à la prudence, en particulier du fait de mes propres biais. Tant pis, soyons fous !
- La peur de ce qui est nouveau pousse certaines personnes (expertes ou pas) à nous rappeler sans cesse le principe de précaution activé par le biais cognitif d’aversion pour le risque ou le biais de négativité. Pour cette raison, l’explorateur pense que la Super intelligence va forcément nous aider à construire un monde meilleur. À l’inverse, celui qui a peur est persuadé que la Super intelligence pourrait devenir une menace existentielle pour l’humanité. En effet, il est évident que la première chose que nous ferons avec une Super intelligence sera de lui confier les codes nucléaires et de mettre nos armées sous sa direction. Il est donc urgent de prendre des précautions à coup de moratoires, de régulations, d’interdictions… et de donner ainsi un avantage compétitif immense aux pays qui voient en premier les opportunités et ensuite seulement les risques. Faut-il rappeler que Terminator était un divertissement et non un documentaire ? Parmi ceux qui ont peur, il y a des acteurs de l’IA, comme Elon Musk, signataire d’un moratoire en 2023, parce que ce sont des êtres humains avec des émotions négatives bien avant d’être des experts de l’IA ! En tant qu’être humain, nous nageons tous dans une piscine de 188 biais cognitifs dont quelques-uns sont mentionnés dans cet article. Une expertise n’est pas un bouclier suffisant pour limiter l’impact des biais cognitifs.
En m’appuyant sur ces éléments, je crois (croyance) que les IA n’auront probablement jamais de conscience équivalente à la conscience humaine et que nous ne verrons pas non plus d’IA générale ou de Super intelligence parce que nous n’arrivons même pas à comprendre totalement le fonctionnement de notre cerveau du fait de sa complexité. Comment peut-on répliquer ou dépasser ce qu’on ne comprend pas ? L’ingénierie peut parfois précéder la compréhension. Nous avons créé des avions sans comprendre finement la biomécanique du vol des oiseaux, mais là, il y a un gouffre.
De toute façon, ceux qui veulent développer une Super intelligence perdent leur temps. Elle existe déjà avec l’intelligence collective ! Nos intelligences combinées et hybridées sont notre Super intelligence. Il faut simplement avoir les bons outils et les bonnes compétences pour savoir la mobiliser efficacement. De même qu’on ne passe pas directement de la mine d’uranium à la centrale nucléaire, on ne passe pas d’un groupe de personnes intelligentes à de l’intelligence collective avec un mur de post-it. Le processus est en réalité très complexe, tout comme enrichir de l’uranium.
Pour me faire changer d’avis, il est inutile de m’envoyer des arguments comme « On ne sait jamais » ou « Peut-être bien que oui ou peut-être bien que non parce que c’est complexe, donc incertain ». Je prends le risque de croire que nous sommes dans une fiction. J’attends des éléments supplémentaires pour revoir ma position, car il me semble que nous sommes face à des projections mentales provoquées par une pensée en silo, par un conflit d’intérêts, par une pensée mécaniste qui projette le futur en fonction des dernières années, par notre tempérament (N) ou par la peur. Malheureusement, ces projections mentales sont d’autant plus pénibles qu’elles sont souvent cumulatives. On devient à ce moment-là un prophète de l’apocalypse et… on regrette d’avoir lu cet article !
Quand les gens entendent des experts dire que l’IA aura un jour une conscience, ils comprennent qu’il s’agira d’une conscience humaine. À la différence de Pierre Lévy, le grand public ne fait pas la différence entre la conscience phénoménale et discursive. On risque alors un imaginaire porté par Terminator et on met inutilement en panique le grand public. Malheureusement, dire à quelqu’un qu’il devrait arrêter d’avoir peur… ne sert à rien. Que se passe-t-il quand vous demandez à une foule en panique d’arrêter de paniquer ? Vous aggravez les choses ! Nous avons donc aujourd’hui des experts & dirigeants de l’IA qui sont en train de paniquer et qui s’appuient sur leur expertise pour nous convaincre qu’on devrait aussi paniquer.
Bien sûr que l’arrivée de l’IA va provoquer des difficultés, nous lancer des défis en particulier écologiques (eau, énergie). Il y aura des perdants, des gagnants, des hauts, des bas comme dans toutes les transitions.
Pour aller plus loin, Décideurs, êtes-vous bons ou chanceux – https://amzn.to/3VSvACe

>>> Conférence : Gérez les risques décisionnels grâce à l’intelligence augmentée – L’intelligence artificielle pour atteindre l’excellence décisionnelle. Pour vous inscrire…
>>> Conférence : Devenez architecte des décisions complexes. Pour vous inscrire…
>>> Formation sur l’architecture des décisions complexes. Pour vous inscrire…
Abonnez-vous à ce blog pour recevoir les nouvelles publications…