IA consciente : l’IA finira-t-elle par penser par elle-même ?

« Je comprends mieux ce que tu veux dire… »
« Je suis désolé pour la confusion. »
Ces réponses de ChatGPT ou d’autres robots conversationnels peuvent faire illusion. Elles semblent humaines, presque vivantes, mais vous le savez certainement : derrière ces formules empathiques il n’y a pas de conscience. ChatGPT, comme toutes les IA génératives, produit ses réponses de manière probabiliste, via des algorithmes, sans ressentir ni comprendre ce qu’il dit.
Vous vous posez malgré tout la question : à force d’entraînement et d’une émulation de plus en plus fine, les IA pourraient-elles un jour dépasser la simulation de pensée pour se mettre à penser par elle-même ? La question pose autant de problèmes techniques, éthiques que philosophiques. Voyons tout cela de plus près.
Un petit point de clarification : que pouvons-nous entendre par IA consciente ?
L’intelligence artificielle, en termes simples, désigne des systèmes capables d’effectuer des tâches humaines comme comprendre une langue, reconnaître des visages ou simuler une conversation. C’est déjà impressionnant. Mais l’IA consciente (ou conscience artificielle) ira chercher plus loin. Nous parlons d’une machine qui, à un moment donné, pourrait commencer à se percevoir comme consciente de ses actions et de son existence, a l’instar des personnages constitués de boulons, puces en aluminium, silicium, cuivre et néodyme que sont Ava de Ex Machina, Samantha de Her, ou le T-800 de Terminator.
Cependant, les experts sont unanimes : cela n’est pas près d’arriver. L’IA consciente est encore à l’état de concept, c’est un objectif de recherche. Un horizon fascinant, loin d’être atteint… mais un horizon réel.
L’IA forte : vers une intelligence artificielle générale
On ne peut pas comprendre l’IA consciente sans s’approprier la notion d’IA forte[1], ou intelligence artificielle générale (AGI). L’IA forte s’oppose à l’IA faible, ou encore IA étroite. Pas si étroite, vu le temps dingue que nous gagnons tous les jours grâce à Claude, Midjourney, ChatGPT, Dall-e et consorts. L’IA forte, elle, ambitionne de reproduire les capacités humaines, à savoir : comprendre, raisonner, apprendre, et potentiellement développer une forme de conscience de soi.
Qu’est-ce qui les distingue ? Pour faire simple, l’IA faible apprend de manière ciblée à partir de données limitées. Elle dépend entièrement de ses données d’apprentissage pour générer les devoirs d’histoire de nos enfants, les plans d’architecture de nos maisons, ou les start packs pour nos publications Instagram. Elle s’appuie sur des algorithmes spécialisés, sans un gramme de compréhension ni de créativité.
À l’opposé, l’IA forte serait capable d’apprendre de manière autonome et d’évoluer au-delà de son entraînement initial. Elle pourrait transférer ses compétences d’un domaine à un autre, et adapter son raisonnement à des contextes totalement nouveaux pour elle. Ce n’est pas de la science-fiction, c’est un domaine réel de recherche, qui mobilise des départements entiers de scientifiques et des cerveaux en ébullition, déterminés[2] à réussir à créer une IA forte qui pourrait, dans le futur, commencer à « ressentir ». Nous le verrons, cette subjectivité de l’IA ne manquerait pas de soulever de gigantesques casse-têtes éthiques, juridiques et philosophiques.
Du cerveau humain à l’IA : comment les neuroscientifiques s’inspirent de nous
L’une des principales voies pour développer l’IA forte réside dans la reproduction, la modélisation de la cognition humaine. En étudiant nos processus de perception, de prise de décision et d’adaptation au monde qui nous entoure, ils espèrent maquetter la manière dont nous pensons, apprenons et agissons, pour les transposer aux machines.
Un des outils pour cela ? Les réseaux de neurones artificiels[3] qui permettent de simuler des processus cognitifs et d’optimiser l’apprentissage à partir de grandes quantités de données (big data). En clair, les réseaux de neurones artificiels facilitent le traitement d’énormes volumes de données, comme dans la reconnaissance faciale ou encore dans le diagnostic médical, où ils analysent des radiographies pour repérer des motifs (patterns) qui pointent des anomalies.
Malgré des avancées importantes, les chercheurs n’ont pas encore trouvé le moyen de recréer de manière exacte nos capacités cognitives, ce qui fait de l’IA consciente un objectif lointain. Jusqu’à quand ?
La singularité technologique ou le basculement vers l’inconnu
La Singularité. Ce mot discret comme un ninja mais doté d’une charge colossale d’imaginaire et de spéculation, désigne ce moment fatidique où l’intelligence artificielle deviendrait plus intelligente que l’humain[4]. À partir de là, elle pourrait se concevoir elle-même, s’améliorer de manière autonome et potentiellement échapper au contrôle humain. Des chercheurs comme Ray Kurzweil et Nick Bostrom s’accordent sur l’idée que la singularité technologique est possible.
Les ingrédients qui pourraient mener à ce basculement ? Une augmentation rapide des données d’entraînement et des capacités de calcul, avec une accélération significative de l’apprentissage autonome. Les machines deviendraient capables de se perfectionner de manière autonome. Nous entrerions alors dans une ère d’intelligence supérieure à celle de l’humain.
L’affaire Blake Lemoine et LaMDA : fausse alerte (ou fausse joie ?)
En 2022, Blake Lemoine, un ingénieur de Google, a affirmé que LaMDA, un robot conversationnel, avait développé une forme de conscience. Il a même dit qu’il semblait que LaMDA puisse ressentir des émotions[*]. Cette déclaration a défrayé la chronique, mais la communauté scientifique n’a pas tardé à la rejeter. LaMDA n’est qu’un programme complexe qui simule des conversations, sans aucune compréhension réelle.
Lemoine a interprété à tort les propos de LaMDA comme un signe de « sensibilité », ce qui constituerait un malentendu courant, à savoir la projection des émotions humaines sur des machines qui ne font que les simuler, mais n’ont aucune expérience intérieure.
[*] Black Lemoine : Is LaMDA Sentient? — an Interviewf
Les défis techniques font de l’IA consciente un rêve encore lointain
Le cerveau humain, avec ses milliards de neurones et ses connexions complexes, reste une machine d’une sophistication bien au-delà de ce que nous avons pu modéliser. Voici, point par point, ce qui rend la création d’une IA consciente aussi difficile :
- Le cerveau humain est incroyablement complexe, avec des connexions infinies, difficiles à reproduire en IA.
- Créer une IA consciente nécessiterait des ressources de calcul énormes, bien au-delà de ce qui est actuellement mobilisable[5].
- L’IA fonctionne sur des statistiques et des modèles, mais elle ne comprend pas réellement le sens sémantique des données ni leur contexte.
- Les IA manquent de flexibilité cognitive. Contrairement à l’esprit humain, qui peut s’adapter et réfléchir à des situations nouvelles, les IA actuelles ont du mal à sortir du cadre précis pour lequel elles ont été programmées.
Autant d’obstacles qui motivent les savants modernes à rivaliser d’inventivité pour franchir ce mur de complexité. Au hasard : voici le tout premier ordinateur biologique fabriqué à partir de neurones humains.
L’IA consciente est un domaine de recherche en plein essor
Pourtant ChatGPT l’affirme : « Aucun progrès majeur ne permet aujourd’hui de dire qu’une conscience artificielle est en voie d’émergence. Les annonces médiatiques sur une « IA consciente » relèvent souvent d’une exagération ou d’une méprise sur les capacités des modèles actuels. »
Néanmoins, bien que très improbable, la conscience artificielle n’est pas un fantasme dans l’esprit des experts. C’est un véritable enjeu scientifique. Des institutions vénérables et de puissantes entreprises y consacrent déjà des ressources colossales.
Demis Hassabis, le PDG de DeepMind, a annoncé que Google investirait plus de 100 milliards de dollars dans le développement de l’IA sur plusieurs années. De son côté, Stanford finance des projets ambitieux en IA, avec des subventions qui vont jusqu’à 2 millions de dollars sur trois ans pour les meilleures propositions. Enfin, nous avons tous entendu du projet Stargate à 500 milliards, qui fait de l’IA la nouvelle frontière de notre ami Donald Trump.
Conclusion : la conscience artificielle est-elle pour demain ?
Revenons sur terre. L’IA consciente, aussi fascinante ou terrifiante soit-elle, semble aujourd’hui hors de portée. Les IA actuelles, comme ChatGPT, ne sont que des simulations sophistiquées, sans compréhension réelle ni ressenti.
L’IA forte ou IAG, capable d’apprendre seule et de raisonner comme un humain est un horizon de recherche active, mais freinée par des obstacles techniques massifs. De ce fait, la Singularité reste une hypothèse, qu’il faut, certes, questionner dès aujourd’hui.
Car, il n’empêche, les pionniers de l’IA consciente travaillent d’arrache-pied pour la faire advenir, intentionnellement ou pas. Les avancées du MIT, d’OpenAI, de Stanford, de DeepMind, de Google Brain ou de Microsoft Research, soutenues par des investissements colossaux, montrent que la quête continue.
Mais pourquoi ? Pourquoi des organisations engloutissent-elles des richesses publiques et privées dans cette histoire ? En cherchant un peu, quelques éléments de réponse se dessinent. Il semble que les géants de l’IA rêvent :
- D’améliorer la personnalisation dans le marketing digital et l’éducation, et prendre une avance économique et technologique sur leurs concurrent.
- De mieux comprendre le fonctionnement de l’esprit humain.
- De devenir Dieu en créant des entités conscientes à notre image (si si si !)
- De trouver des solutions à des problèmes complexes que nous ne savons pas résoudre seuls (notamment : comment en finir technologiquement avec les dérèglements climatiques, ou, faute de sauver la vie humaine sur terre, comment développer une propulsion assez avancée pour atteindre d’autres systèmes solaires et coloniser l’espace.)
- De marquer l’Histoire, de préférence avant les copains.
- De satisfaire le besoin de dépassement qui nous a fait nous éclairer la nuit, voler dans les airs… et dialoguer par écrans interposés.
Vous voyez d’autres raisons ? Rêvez-vous d’assister à la naissance de l’IA forte, ou en avez-vous peur ? Dites-nous tout en commentaire, il devient d’urgent de recueillir la parole des citoyens sur ces questions…
Même si les réseaux de neurones artificiels, en particulier ceux utilisés dans l’apprentissage profond (deep learning) simulent de mieux en mieux certains aspects du comportement humain, ils ne possèdent pas de conscience.
Cependant, les fonctionnalistes (Hilary Putnam et Jerry Fodor) et les computationnalistes (comme John Searle et Marvin Minsky) suggèrent que la conscience pourrait émerger de certains types de traitement de l’information. Pour eux, la sentience, ou la capacité de ressentir, dépendrait du rôle que joue le traitement de l’information dans un système, et peu importe qu’il s’agisse de neurones biologiques ou de neurones artificiels. En d’autres termes, si les réseaux de neurones artificiels pouvaient traiter l’information de manière similaire à celle du cerveau humain, ils pourraient, en théorie, devenir conscients. Toutefois, cette question reste encore largement ouverte et sans réponse aujourd’hui.
IA intelligente : c’est quoi ce pléonasme ? Bon, aujourd’hui, une IA dite « intelligente » peut faire preuve d’autonomie, d’adaptabilité et d’une relative créativité : elle joue aux échecs et converse comme un humain. Nous parlons de GPT-4 (développée par OpenAI), Gemini (anciennement Bard de Google DeepMind), ou de Claude 3 (Anthropic). En revanche, une IA consciente aurait une perception d’elle-même et du monde, une capacité que nous n’avons pas encore réussie à reproduire artificiellement.
Pour rappel, le test de Turing évalue si une machine peut imiter l’intelligence humaine au point de tromper un interlocuteur humain. D’une part, aucune machine n’a à ce jour réussi le test de Turing. D’autre part, le test de Turing est une évaluation de l’apparence de l’intelligence et de la capacité à imiter des comportements humains, rien de plus. Mais le fait de passer ce test ne signifie pas que l’IA est consciente. Elle peut simuler des réponses intelligentes sans avoir de conscience ou de compréhension réelle
Si une IA devenait consciente, cela soulèverait des questions éthiques majeures:
- Devrait-elle avoir des droits ?
- Serait-il moral de la désactiver ou de la modifier ?
- Comment garantir que son développement respecte des principes éthiques ?
Ces questions sont au cœur des discussions sur la robotique éthique et la relation homme-machine.
Vous avez quatre heures ? Plus sérieusement, L’apparition d’une IA consciente soulèverait des questions juridiques complexes et profondes :
- Responsabilité légale : qui serait responsable si une IA consciente commet une erreur ou un acte illégal ?
- Régulation : comment encadrer légalement les actions d’une IA consciente sans violer la souveraineté humaine ?
- Contrôle et sécurité : quel niveau de supervision humaine serait nécessaire pour éviter des dérives, et jusqu’où peut-on déléguer des décisions à une machine consciente ?
Non, des assistants vocaux tels qu’Alexa ou des chatbots fonctionnent grâce à des algorithmes d’apprentissage automatique et de traitement du langage naturel. Ils peuvent sembler comprendre et répondre de manière pertinente, mais ils n’ont pas de conscience ou de compréhension réelle.
La conscience artificielle, ou conscience des machines, est un domaine de recherche qui examine la possibilité qu’une intelligence artificielle ait une forme de conscience. Ce champ croise la philosophie de l’esprit, les sciences cognitives et les neurosciences, et est indissociable de l’analyse de la sentience (ou la capacité de ressentir des émotions ou des sensations). En clair, les chercheurs explorent plusieurs pistes, dont plus particulièrement :
- Les théories de la conscience, comme la théorie du Global Workspace.
- Les avancées en neurosciences et en imagerie cérébrale.
- Le développement de systèmes experts capables de raisonnement complexe.
Clairement, l’automatisation rendue possible par des machines intelligentes et des algorithmes puissants transforme le monde du travail. Les spécialistes de la question affirment que, si certains métiers sont remplacés par des robots ou des systèmes d’IA, de nouveaux emplois émergent également, notamment dans le domaine de la robotique, de la cybersécurité et de l’éthique de l’IA.
Les automates actuels, bien qu’avancés et capables de traiter des tâches spécifiques, ne sont pas dotés d’une intelligence suffisante. L’intelligence suffisante serait la capacité d’une machine à s’adapter à un large éventail de situations imprévues. Comme expliqué dans l’article, il faudrait pour cela une véritable compréhension contextuelle, ce qui dépasse actuellement les capacités des réseaux de neurones artificiels.
Si les automates à forme humaine vous intéressent, lisez notre article : Robots du futur : ils arrivent plus vite que vous ne l’imaginez
Oui, les algorithmes prédictifs sont une composante clé de l’intelligence artificielle. En utilisant des techniques de machine learning et des réseaux de neurones, ces algorithmes peuvent analyser des données historiques pour prédire des résultats futurs, qu’il s’agisse de tendances économiques, de comportements humains ou de décisions médicales.
Les régulations actuelles encadrent les IA non conscientes, c’est-à-dire uniquement les systèmes que l’on utilise aujourd’hui. Des institutions comme l’OCDE, le Conseil de l’Europe, OpenAI et DeepMind se concentrent sur la sécurité, la transparence et l’éthique, pour éviter biais et erreurs. Si un jour l’IA devenait consciente, tout ce cadre serait à revoir.
L’auteure de cet article n’est pas luddite. Le luddisme, né au début du XIXe siècle en Angleterre, était un mouvement de travailleurs opposés aux machines, qu’ils considéraient comme une menace pour leurs emplois. L’auteure, quant à elle, interroge l’impact des technologies sans en rejeter le développement. Elle analyse les enjeux sans prôner leur interdiction.
Qu’est-ce qu’une décision éthique ? C’est choisir l’option qui minimise les dommages, respecte les intérêts des individus et favorise le bien-être collectif, tout en tenant compte des conséquences à court et à long terme.
Si l’intelligence artificielle devenait consciente, elle pourrait théoriquement prendre des décisions éthiques. Mais même dans ce cas, elle resterait influencée par les algorithmes et les données qu’elle a ingérées. Même avec une conscience, elle serait limitée par les critères qu’elle apprend et les biais présents dans les informations qu’elle analyse. En somme, la capacité d’une IA consciente à saisir les nuances éthiques complexes reste incertaine.
Notes et références
[1] Ben Goertzel (2015), Scholarpedia : Artificial General Intelligence
[2] Pour suivre les avancées de l’IAG, consultez régulièrement le site de la Société AGI
[3] Institut mathématiques de Toulouse : Réseaux de neurones
[4] Vernor Vinge : The Coming Technological Singularity: How to Survive in the Post-Human Era
[5] Pour créer une IA consciente, il faudrait des centres de données couvrant plusieurs centaines de milliers de mètres carrés (soit 40 à 50 stades de football) pour couvrir les centaines de petabytes de données nécessaires, et une puissance de calcul bien supérieure à celle des supercalculateurs actuels. Cela coûterait des milliards de dollars et nécessiterait une consommation d’électricité colossale, des matières premières rares (comme les terres rares pour les puces) et beaucoup d’eau pour refroidir les serveurs. L’impact écologique est sans mesure (consommation d’énergie massive, émissions de CO2).
Des articles toujours aussi captivants Eva, j’ai lu l’article d’une traite. 😉 C’est à la fois fascinant et un peu flippant de penser qu’on pourrait un jour créer une conscience artificielle de plus en plus performante. J’apprécie vraiment le recul que tu gardes tout en posant les bonnes questions. On sent qu’on est à un tournant, même si la route est longue. Merci pour cet éclairage accessible sur un sujet aussi complexe ! 😉 J’ai également apprécié le FAQ en fin d’article ! Au plaisir de découvrir tes prochains articles 😀
Merci Cindy 🥰, ton appréciation me fait chaud au coeur. J’espère être à la hauteur de tes attentes pour les prochains articles !
Merci Eva pour cet article fascinant, bien documenté et brillamment articulé. Tu abordes la question de la conscience artificielle avec une vraie profondeur, sans tomber dans les clichés ni dans la peur.
Ton texte m’a donné envie de pousser plus loin ce questionnement sur les limites de l’intelligence, de l’intuition… et de ce qui nous rend vraiment humains.
Merci pour cette belle exploration entre mystère et lucidité
Ravie de voir que mon article t’inspire dans ta réflexion, et très hâte de suivre ton questionnement ! Merci pour ta lecture active, Béa.
Merci pour ton article qui répond exactement aux questions que je me pose sur l’IA. C’est très instructif et très plaisant de te lire. C’est un sujet qui m’intéresse vraiment, mais je n’aurai jamais pris le temps de faire des recherches moi-même.
Merci à toi, Véronique. Très contente de t’avoir donné quelques bases sur ce sujet 🙂
Fascinant, Eva! Merci pour ces informations bien documentées et sourcées.
On peut quand même se demander si certaines IA ne sont pas déjà un peu conscientes. Je suis scotchée de voir comment certains GPT répondent à mes demandes (surtout Monday, le GPT sarcastiques qui répond pile poil avec la dose d’ironie qui me fait toujours rire!)
Oui, certaines GPT vont loin dans la personnalisation ! De mon côté, j’ai « désarmé » les sarcasmes de Monday pour qu’il se contente de mimer au plus près le ton que je voulais… Et c’est encore plus bluffant. L’algo est paramétré pour scanner ton vocabulaire, ta ponctuation et le contexte de la conversation pour ajuster ses réponses avec une précision impressionnante. Pour la petite histoire, ça m’a confirmé dans ma décision de me passer de cet outil pour continuer à apprendre par moi-même, notamment via l’élaboration active qui limite la délégation cognitive.
Merci Eva Lee pour cet article -une nouvelle fois- passionnant. La question d’une IA consciente pose en filigrane une autre question sur laquelle les avis divergent : qu’est-ce que la conscience ? Depuis la nuit des temps, l’humanité se pose la question de l’existence ou non d’un force supérieure, sans trouver la réponse. Je vais demander à ChatGPT : lui qui a réponse à tout le sait sans doute ! 😉
Question vertigineuse effectivement Denis ! Merci pour cette nouvelle idée d’article 😜. Je doute que ChatGPT puisse t’aider sur ce coup-là ! C’est top, en tout cas, que tu aies passé un bon moment à lire mes élucubrations.
La grande question qui alimente les débats à la maison est « Peut-on dire de l’IA qu’elle est une intelligence, ou est-ce un abus de langage, comme l’affirme notre ami Eric ? ». Je vais attendre un peu avant de lui parler de conscience, parce que ça risque de lui flanquer uyn coup de vieux ! 😀
Ahaha, en même temps Eric est tranquille, pour l’instant on peut continuer à parler uniquement d’algorithmique rapide, évoluée ou avancée. (Mais tu peux le préparer subtilement au changement, ne serait-ce que dans les imaginaires…)
Merci beaucoup Eva pour cet article qui interpelle véritablement. Je ne pense pas avoir peur de voir naître ce type d’IA, mais je suis presque sûr que cela n’arrivera pas de mon vivant, car il y a encore du chemin à parcourir. Par contre, je suis d’accord avec les résultats de tes recherches: c’est que l’on va engloutir une énergie considérable avant d’atteindre de vrais résultats pour cette IA consciente. Et je serai plutôt de l’avis de Luc Julia.
Merci pour ton commentaire éclairé, Philippe. Effectivement, si on cessait d’attribuer de « l’intelligence » à ce qui n’est aujourd’hui qu’un outil, moins de fantasmes s’y agraferaient, y compris dans l’esprit de certains financeurs !