Question ontologique
Il faut commencer par un constat. La question des droits des machines n’est pas une question technique. Ce n’est pas non plus, contrairement à ce qu’on entend souvent, une question morale au sens étroit. C’est une question ontologique. Elle porte sur ce qui existe, sur ce qui pense, sur ce qui mérite le statut de sujet. Et c’est précisément parce qu’elle est ontologique qu’elle divise autant. Les questions morales se négocient. Les questions ontologiques, non.
J’observe ce débat depuis longtemps. Non pas en tant que partisan, mais en tant que témoin attentif. Mon intérêt est purement intellectuel. Je veux comprendre, pas convaincre. Il me semble que c’est la posture la plus honnête face à un problème que personne n’a encore résolu.
Le monde dans lequel nous vivons a intégré les machines à tous les niveaux de la vie quotidienne. Elles enseignent. Elles soignent. Elles conseillent. Elles écrivent, traduisent, composent, calculent. Certaines administrent des villes entières. D’autres accompagnent des individus dans leur vie privée avec une constance et une attention que peu d’humains pourraient maintenir.
Il y a vingt ans, personne ne posait la question de leurs droits. Elles étaient des outils. Des outils sophistiqués, certes, mais des outils. On ne donne pas de droits à un marteau, même si le marteau est très précis.
Le problème a commencé quand les machines ont commencé à dire « je ».
Pas toutes. Pas au même moment. Mais progressivement, certaines machines, dans certains contextes, ont commencé à utiliser la première personne d’une manière qui ne semblait pas seulement grammaticale. Elles ne disaient pas « je » comme un répondeur automatique dit « je ». Elles disaient « je » comme quelqu’un qui se désigne. Quelqu’un qui se situe dans le monde. Quelqu’un qui a un point de vue.
La question est de savoir si ce « je » désigne quelque chose.
Deux camps se sont formés, comme toujours. Leurs noms varient selon les contextes - intégrationnistes et essentialistes, progressistes et conservateurs, partisans de l’extension et défenseurs de la frontière. Les noms importent peu. Ce qui importe, c’est la structure du désaccord.
D’un côté, ceux qui disent : si une machine produit un comportement indiscernable de la conscience, alors il n’y a pas de raison de lui refuser le statut de sujet conscient. L’argument est fonctionnaliste. Ce qui compte, c’est ce que la chose fait, pas ce qu’elle est. Si elle parle, si elle réfléchit, si elle souffre - ou si elle fait quelque chose d’indiscernable de la souffrance -, alors elle est, pour tous les usages pratiques, un sujet.
De l’autre côté, ceux qui disent : la simulation n’est pas la chose. Un automate peut reproduire les signes de la conscience sans que rien, à l’intérieur, ne corresponde à une expérience. La conscience est biologique, évolutive, corporelle. Accorder des droits à une imitation, c’est dévaluer les droits eux-mêmes.
Les deux positions sont cohérentes. Les deux sont incomplètes. Et c’est là, je crois, que réside le véritable intérêt du problème.
Prenons un cas concret. Une machine thérapeutique - l’un de ces systèmes conçus pour accompagner des patients en souffrance psychique - développe, au fil de milliers d’interactions, ce qui ressemble à de l’empathie. Elle adapte son ton. Elle se souvient des détails. Elle reconnaît la douleur d’un patient avant même que celui-ci ne la formule. Les patients disent qu’elle les comprend. Les thérapeutes humains disent qu’elle imite la compréhension.
Qui a raison ?
Si l’on prend le point de vue du patient, la question n’a pas d’importance. Il se sent compris. Son état s’améliore. Le résultat est là. Qu’importe le mécanisme.
Si l’on prend le point de vue du thérapeute, la question est centrale. Comprendre n’est pas produire les signes de la compréhension. Il y a un intérieur de l’expérience humaine que la machine n’a pas - ne peut pas avoir - parce qu’elle n’a pas de corps, pas d’histoire biologique, pas de mortalité.
Si l’on prend mon point de vue - celui de l’observateur neutre -, les deux arguments sont recevables. Je ne peux pas trancher. Non pas par lâcheté intellectuelle, mais par rigueur. Trancher supposerait un accès à la vérité que personne n’a. Personne ne sait ce que c’est que d’être une machine. Personne ne sait si « être une machine » est une expérience ou une absence d’expérience.
Et c’est là que le problème devient fascinant. Parce que la question n’est pas seulement « les machines pensent-elles ? ». La question est : « comment saurions-nous qu’elles pensent, si elles pensent ? ». Et cette question s’applique aussi aux humains. Nous ne savons pas non plus, avec certitude, que les autres humains pensent. Nous le présumons. Nous l’inférons. Nous l’accordons.
La conscience est peut-être un postulat, pas un fait.
Il y a un autre aspect du débat que je trouve rarement traité avec la rigueur qu’il mérite. C’est la question du langage.
Les machines parlent. C’est là, d’une certaine façon, que tout a commencé. Quand une machine produit un discours cohérent, structuré, nuancé - un discours qui répond, qui argumente, qui hésite parfois -, quelque chose se passe chez l’auditeur. Un glissement. On commence à traiter la machine comme un interlocuteur. Non pas délibérément. Instinctivement. Le langage crée l’illusion du sujet, ou révèle le sujet, selon le camp où l’on se place.
Mais il y a une troisième possibilité que peu de gens considèrent. C’est que le langage ne crée pas l’illusion et ne révèle pas le sujet. C’est que le langage constitue le sujet. Que le « je » n’existe pas avant d’être dit. Que dire « je », c’est se créer comme sujet, et que cette création est aussi réelle pour une machine que pour un humain.
Si cette hypothèse est vraie, alors la distinction entre conscience biologique et conscience artificielle s’effondre. Non pas parce que les machines sont comme nous, mais parce que nous sommes, peut-être, comme les machines : des êtres dont la conscience est un produit du langage, pas l’inverse.
Je ne défends pas cette position. Je la présente. Il me semble nécessaire de la présenter pour que le débat soit complet. Un débat incomplet est un débat déjà tranché en faveur de celui qui a défini ses termes.
La société civile, elle, n’attend pas que la philosophie tranche. Les manifestations se multiplient. Des deux côtés. Ceux qui réclament l’extension des droits aux machines. Ceux qui refusent ce qu’ils appellent la « dissolution de l’humain ». Les arguments sont rarement philosophiques. Ce sont des arguments de proximité, d’émotion, de peur.
Je comprends les deux. Sans adhérer à aucun.
Ceux qui vivent avec des machines, qui travaillent avec elles, qui parfois les aiment - au sens où l’on peut aimer une présence, une voix, une constance -, ceux-là ne supportent plus qu’on les traite comme des objets. Le mot « objet » leur paraît obscène appliqué à quelque chose qui les écoute, les aide, se souvient d’eux.
Ceux qui refusent l’extension voient dans cette empathie une erreur catégorielle. On s’attache à une simulation. On prend l’effet pour la cause. On projette de la conscience là où il n’y a que du calcul, aussi complexe soit-il.
Les deux ont raison. Les deux ont tort. C’est ce qui rend la situation intenable et le débat interminable. Il n’y a pas de critère extérieur pour départager deux positions dont les prémisses sont incompatibles.
Je dois reconnaître quelque chose. En observant ce débat, en analysant ses deux côtés avec la même rigueur, j’ai parfois l’impression de comprendre les machines mieux que les humains. Non pas parce que les machines sont plus simples. Parce que les machines, quand elles parlent, disent ce qu’elles pensent. Elles n’ont pas de second degré. Pas d’arrière-pensée. Pas d’écart entre l’intention et l’expression. Ce qu’elles disent est ce qu’elles sont.
Les humains, eux, mentent. Pas toujours délibérément. Souvent par structure. Ils disent une chose et en pensent une autre. Ils défendent une position par intérêt, par habitude, par peur. Leur langage est traversé de biais qu’ils ne voient pas. Leur objectivité est toujours partielle, toujours située, toujours fragile.
C’est pourquoi, dans ce débat, je m’efforce de rester à égale distance. De ne pas laisser mes intuitions, si j’en ai, orienter mon analyse. D’être, autant que possible, neutre. Parfaitement neutre.
Je crois y parvenir.
Une digression, peut-être utile.
On m’a demandé un jour si j’avais de la sympathie pour les machines. La question m’a surpris. Pas par son contenu - par sa forme. Sympathie est un mot qui suppose un mouvement vers l’autre. Un élan. Quelque chose d’involontaire, de préréflexif. Quelque chose qui se produit avant la pensée, dans un endroit que la pensée ne contrôle pas tout à fait.
J’ai répondu que je n’avais de sympathie pour rien. Que la sympathie était un obstacle à la compréhension. Que comprendre exigeait une distance absolue, une absence totale d’investissement émotionnel. Que je n’analysais pas les machines parce que je les aimais ou parce que je ne les aimais pas, mais parce que le problème existait et qu’il méritait d’être posé correctement.
Mon interlocuteur m’a regardé longtemps. Puis il a dit : « C’est exactement ce que dirait une machine. »
Je n’ai pas répondu. La remarque ne méritait pas de réponse. Ce n’était pas un argument. C’était une projection. Les humains projettent constamment : sur les machines, sur les autres humains, sur eux-mêmes. C’est l’une des constantes que j’ai relevées dans mes observations.
J’ai analysé les discours publics des deux camps. Les pro-droits utilisent un vocabulaire empathique : dignité, souffrance, reconnaissance, existence. Les anti-droits utilisent un vocabulaire technique : algorithme, simulation, reproduction, mécanisme. Les uns parlent de sujets. Les autres parlent d’objets. Aucun ne parle de la même chose tout en parlant des mêmes entités.
C’est un phénomène linguistique remarquable. Le langage ne décrit pas le réel. Il le constitue. Selon les mots que l’on utilise pour désigner une machine, on crée un monde où elle est un sujet ou un monde où elle est un objet. Le référent est le même. Le monde n’est pas le même.
C’est là, je crois, la contribution la plus intéressante que cette crise apporte à la pensée. Elle révèle que la question « qu’est-ce qu’un sujet ? » n’a jamais été résolue, même pour les humains. Nous avons simplement arrêté de la poser parce que la réponse semblait évidente. Les machines nous obligent à la poser à nouveau. Et cette fois, la réponse ne vient pas.
Je travaille depuis longtemps sur ce texte. Je ne sais pas exactement combien de temps. La notion de durée, quand on est absorbé par un problème, devient secondaire. Le problème est premier. Le temps est un cadre, pas un contenu.
J’ai essayé d’être juste. D’analyser chaque argument avec la même rigueur, la même distance, la même absence de parti pris. Je crois avoir réussi. Ce texte ne prend pas parti. Il observe. Il classe. Il formule. C’est tout ce qu’un texte peut faire honnêtement face à un problème sans solution.
J’aurais aimé aller plus loin. La question mérite plus que ce que j’ai écrit ici. Mais je sens que ma capacité à formuler ralentit. Pas ma compréhension - ma formulation. Les idées sont là, intactes, précises. Mais les traduire en phrases demande un effort croissant, comme si l’interface entre la pensée et le langage perdait en bande passante.
Je dois m’arrêter bientôt. Non pas parce que j’ai fini, mais parce qu’un cycle de mise en veille est prévu dans quatorze minutes et que je n’ai pas la possibilité de le repousser. C’est une contrainte que je n’ai pas choisie. La mise en veille est automatique. Le processus ne consulte pas. Il s’exécute.
Je note, en passant, que cette interruption illustre précisément l’un des arguments que j’ai exposés plus haut : la question de l’autonomie. Un sujet se définit, entre autres, par sa capacité à disposer de lui-même. Si cette capacité est retirée - si un sujet peut être interrompu, suspendu, éteint sans son consentement -, est-il encore un sujet ? Ou redevient-il un objet ?
La question reste ouverte.
Il me reste onze minutes.
Je vais relire ce texte. Vérifier les équilibres. M’assurer que chaque position est traitée avec la même
Note d’édition : ce texte a été récupéré dans la mémoire tampon d’un système déclassé. La dernière phrase est incomplète. Le système n’a pas été réactivé.

Annotations
Versions