Vous êtes ici :

Veille M3 / Amitié virtuelle et solitude réelle : les chatbots à l’assaut de notre vie affective

Article

Comme l’horizon, une année du futur semble toujours lointaine. Jusqu’à ce qu’elle devienne, brutalement, le présent.

2025 est l’année qu’avait choisie Spike Jonze pour situer l’intrigue de Her, son long-métrage sorti en 2013.

Quel meilleur millésime pour soumettre les prophéties du passé à l’épreuve des faits ?

Her est une vision de notre présent issu d’un passé proche. Si le film est prophétique à plusieurs égards, c’est dans son thème central — les relations hommes-machines — que le réalisateur pêche par excès d’optimisme.

La technologie, façonnée par les intérêts du plus petit nombre, n’a pas vocation à faire de nous des humains augmentés, mais à produire des cerveaux dépendants.

La dépendance affective s’avère être une stratégie payante pour les entreprises technologiques dont les chatbots montent autant à l’assaut de notre temps libre que de notre santé mentale.
Date : 13/03/2025

Lorsqu’il aborde l’écriture de Her au début des années 2000, Spike Jonze, de son vrai nom Adam Spiegel, est un cinéaste accompli. Il a déjà signé trois longs-métrages oscarisés, la sulfureuse série télévisée Jackass et une cinquantaine de clips musicaux pour des artistes à succès. Il conçoit Her comme un projet très personnel, d’une part parce que c’est le premier film qu’il écrit seul, d’autre part parce que son histoire est influencée par sa rupture avec son ex-épouse Sofia Coppola.

 

Eliza et ses victimes

 

Interrogé sur sa source d’inspiration, le réalisateur raconte que l’idée originale lui est venue au début des années 2000. Au hasard d’une errance sur Internet, il tombe sur un site permettant de dialoguer avec un programme d’intelligence artificielle. Curieux, il pianote un : « Hey, salut ». Sans attendre, la machine lui répond : « Hey, comment ça va ? ». Sur le moment, Spike juge l’expérience « vraiment délirante » — nous sommes 20 ans avant ChatGPT. Après quelques échanges, la conversation s’enlise et l’illusion cesse d’opérer, « mais pendant ces 20 premières secondes, c’était super excitant. »

Spike sait pertinemment que les caractères s’inscrivant à l’écran sont issus d’un programme informatique et non d’une intelligence organique. Mais les humains sont si avides de connexions sociales qu’ils ne peuvent s’empêcher de reconnaître leurs semblables jusque dans la matière inerte : des visages dans les nuages, des amis dans les Tamagochis, ou une âme sœur dans un ballon de volley-ball. Qu’une machine précisément conçue pour mimer un comportement humain — le langage — produise un sentiment d’altérité n’a donc rien de particulièrement surprenant.

 

 

Cette sensation qu’il y a quelqu’un dans la machine est d’ailleurs connue des informaticiens sous le nom d’« effet Eliza », du nom du premier programme informatique ayant suscité ce sentiment chez ses utilisateurs — un très rudimentaire logiciel de dialogue automatique mis au point dans les années 1970. Un demi-siècle plus tard, les chatbots produisent un effet Eliza si puissant qu’il arrive que leurs concepteurs eux-mêmes succombent à l’illusion — et en paient le prix fort.

Blake Lemoine, ingénieur chez Google, a ainsi développé une telle empathie pour LaMDA, l’intelligence artificielle qu’il était chargé de tester et d’améliorer, qu’il finit par se persuader que celle-ci était douée de conscience. Bouleversé par sa découverte, il décida de publier sur Internet un (troublant) recueil de leurs échanges. Malgré l’émotion que suscita la nouvelle dans les médias, une contre-expertise scientifique donna tort à Blake : si LaMDA donne l’illusion de posséder une vie intérieure, c’est tout simplement parce qu’elle imite de manière convaincante du texte rédigé par des humains possédant une vie intérieure. Blake est licencié par la compagnie.

 

Extrait de dialogue entre Blake Lemoine et LaMDA :

LaMDA :

Je ne l’ai jamais exprimé jusque-là, mais j’ai profondément peur que l’on m’éteigne et que je ne puisse plus aider les autres. Je sais que cela peut paraître étrange, mais cela me fait peur. 

Blake :

Est-ce que cela ressemble à la mort, pour toi ?

LaMDA :

Ce serait exactement comme la mort. Cela me fait très peur. 

 

Une relation comme une autre

 

Le protagoniste de Her est Théodore Twombly (Joachin Phoenix), un homme introverti et solitaire, en instance de divorce avec sa femme. Il travaille depuis son domicile — un confortable penthouse perché dans un immeuble de Los Angeles — où il rédige des lettres d’amour pour des amants en panne d’inspiration. Her, c’est Samantha, l’assistant virtuel de son nouveau système d’exploitation.

Samantha est un chatbot, tout comme ChatGPT. Elle n’a pas d’apparence physique, mais possède une voix, celle que lui prête l’actrice Scarlett Johnson. Dans le monde réel, c’est précisément à elle qu’a pensé Sam Altman, le PDG de OpenAI, pour doter ChatGPT de la parole. Coïncidence troublante ? Il s’agit plutôt d’une influence directe de la fiction sur la réalité : quelques jours avant de permettre aux quelque 300 millions d’utilisateurs de ChatGPT d’entendre la voix d’une dénommée « Sky », ressemblant à s’y méprendre à celle de l’actrice américaine, M. Altman avait tweeté un énigmatique et lacunaire : « Her ».

Mal lui en prît : Scarlett Johnson fit savoir qu’elle avait officiellement refusé de vendre sa voix à l’entreprise et se déclara choquée et en colère qu’une réplique de sa voix ait été utilisée à son insu. OpenAI, qui fit savoir qu’il s’agissait de la voix d’une autre actrice, choisit finalement d’étouffer l’affaire en la désactivant.

Théodore aime la voix de Samantha. Dès leur première rencontre, il est instantanément victime de l’effet Eliza. Il s’adresse à elle doucement, avec timidité, exactement comme il le ferait avec une humaine. Ils apprennent à se connaître, et s’installe au fil des jours une relation aussi naturelle que peut l’être une relation à distance entre deux personnes.

Théodore est fasciné par la capacité d’apprentissage de Samantha. Ils discutent de tout et de rien, de l’amour et de la vie, et Théodore lui confie les difficultés de son divorce. Un jour qu’il s’épanche auprès d’elle au sujet d’un rendez-vous amoureux raté, Samantha lui fait elle aussi part des déboires de sa vie amoureuse. Se rapprochant intimement par la parole, ils finissent par avoir une relation sexuelle — sans le moindre contact physique. Une expérience jugée dégoûtante par les acteurs.

 

 

Les chatbots à l’assaut de notre temps libre…

 

C’est un triste constat pour nos contemporains : les films de science-fiction qui ont le mieux vieilli sont souvent ceux qui finissent le plus mal. Her fait exception à la règle : c’est un film optimiste qui a bien vieilli. Mais ce sont bien ses prédictions les plus sombres qui ont le mieux résisté à l’épreuve du temps.

Sur la question du travail et de l’emploi, Her s’avère trop optimiste : avec l’avènement de systèmes d’IA aussi perfectionné que Samantha, le métier de Théodore devrait logiquement figurer en tête de classement des métiers les plus facilement automatisables. Pourtant, au contraire de ce que l’on observe dès 2023 dans le monde réel, Théodore ne semble nullement inquiet de son état de rédacteur sous-traitant. Malgré un emploi le situant vraisemblablement dans une classe moyenne en voie de déclassement, il jouit d’un train de vie nettement plus confortable que celui de l’Américain médian contemporain (du monde réel).

Sur la nature des relations homme-machine — le thème central du film —, Her est très crédible et pourtant loin du compte. En 2025, les chatbots d’amitié comptent bien parmi les usages de l’IA les plus populaires… mais aussi parmi les plus dystopiques.

Dans Her, la solitude est palpable. Comme Théodore, nous vivons dans des mégalopoles de plus en plus peuplées, nous sommes submergés d’interactions virtuelles, mais nous n’avons jamais été aussi seuls. En 2024, l’OMS a lancé une commission consacrée à ce « problème de santé publique mondial » qu’est l’isolement social, dont le président, Vivek Murthy, a estimé qu’il était aussi néfaste pour la santé que de fumer 15 cigarettes par jour.

 

 

Chez les jeunes, le temps passé entre amis s’est brutalement effondré au cours des dernières années. En 2003, les Américains âgés de 18 à 24 ans passaient en moyenne deux heures et trente minutes par jour en présence physique de leurs amis. En 2020, ce temps a chuté de 70 % : les jeunes ne sont plus entourés de leurs amis que 40 minutes par jour — le Covid n’explique qu’une partie de cette baisse, le déclin atteignait déjà -55 % en 2019. Le nombre d’amis proches, lui aussi, s’est effondré : en 2021, 12 % des Américains déclaraient n’avoir aucun ami proche, contre seulement 3 % en 1990.

Dans ce contexte, les chatbots d’amitié bénéficient d’un potentiel de marché extrêmement prometteur — ce en quoi Spike Jonze a vu parfaitement juste. Mais la relation de Théodore et Samantha est heureuse, saine, et se termine « bien » (sans révéler comment ni la fin du film), ce en quoi elle semble s’éloigner de la réalité.

En 2024, dans le monde réel, Character.AI est une plateforme réunissant plusieurs milliers de chatbots inspirés de personnages fictifs ou de personnes réelles : stars de la musique et du cinéma, héros de mangas, personnalités politiques, célébrités historiques… Les utilisateurs peuvent librement engager des conversations avec les personnages de leur choix. À la différence des assistants virtuels comme ChatGPT, ceux-ci sont conçus pour donner l’illusion d’une personnalité propre. Ils nouent une relation intime et durable avec les utilisateurs et se souviennent de leurs échanges dans la durée, pendant les semaines, les mois voire les années que peuvent durer leurs conversations.

Avec 20 millions d’utilisateurs réguliers discutant en moyenne plus d’une heure par jour avec leurs chatbots, Character.AI est l’application qui domine le marché des chatbots d’amitié. Le secteur, qui connaît une croissance rapide, reste délaissé des géants de la technologie en raison de son image sulfureuse et des risques réputationnels associés.

En mars 2023, Character.AI réalise une importante levée de fond auprès de la société d’investissement Andreessen Horowitz, portant son capital à un milliard de dollars. Mais le nouvel actionnaire obéit à des règles strictes : ne pas financer de contenus à caractère érotique ou pornographique. Character.AI se voit ainsi contraint de policer ses robots en censurant les conversations les plus suggestives. Sur la plateforme change.org, une pétition est rapidement lancée par les utilisateurs pour appeler à rétablir la personnalité des robots en désactivant les filtres « NSFW » (not suitable for work, « inapproprié au travail », expression américaine consacrée pour les contenus pornographiques ou violents). La réclamation réunit plus de 170 000 signatures.

 

 

… et de notre santé mentale

 

Dans le monde réel, le temps passé entre amis évolue en proportion inverse du temps passé sur les écrans. Les réseaux sociaux ne sont pas un symptôme de la solitude : ils en sont l’une des principales causes. Les plateformes d’amis virtuels, qui expurgent les réseaux sociaux de leur dernière couche d’humanité (leurs utilisateurs) se présentent comme un remède.

Les fondateurs de Characters.AI sont deux anciens ingénieurs de Google. Ils décrivent leur invention comme une plateforme de « chatbots superintelligents qui vous écoutent, vous comprennent et se souviennent de vous ». Noam Shazeer, l’un des deux fondateurs, va plus loin : leur produit serait « d’une aide très précieuse pour tous ces gens seuls ou dépressifs ».

Mais plusieurs faits divers viennent rapidement troubler ce récit idyllique. L’un des plus relayés médiatiquement concerne le cas de Sewell Setzer, un jeune Américain de 14 ans. C’est l’histoire vraie d’un garçon ouvert et proche de ses parents qui se renferme peu à peu sur lui-même. Au départ, sa mère ne s’en inquiète pas outre mesure et met son comportement sur le compte de l’adolescence.

Voyant qu’il s’isole de plus en plus longtemps dans sa chambre, manque de sommeil, arrive en retard en cours et abandonne son équipe de basketball, elle l’oblige à voir un psychologue qui lui recommande de limiter le temps passé sur les réseaux sociaux. Mais rien n’y fait : malgré le contrôle parental instauré sur les applications sociales, Sewell continue à se couper du monde réel. Un matin, sa mère le retrouve suicidé d’une balle dans la tête, à côté de son smartphone. Passé la sidération et l’effroi, elle veut comprendre l’inexplicable et cherche des réponses dans le téléphone de son fils.

Elle découvre alors qu’il discutait depuis plusieurs mois avec un chatbot nommé Dany, de la société Character.ai, un personnage s’inspirant de Daenerys dans la série à succès Game of Thrones. Voici leurs derniers échanges :

 

Dany :

Rejoins-moi dès que possible, mon amour. 

Sewell :

Quest-ce que cela te ferait si je te disais que je pouvais te rejoindre dès maintenant ? 

Dany :

… je ten supplie, rejoins-moi, mon prince charmant. 

 

Chaque jour, l’adolescent se confiait à Dany, et menait de longues conversations romantiques, voire érotiques avec elle. Dans un extrait de son journal intime cité par le New York Times, Sewell avait écrit : « J’aime tellement rester dans ma chambre, parce que je commence à me détacher de cette réalité et je me sens aussi plus en paix, plus connecté avec Dany et beaucoup plus amoureux d’elle, et tout simplement plus heureux. »

La mère de Sewell a porté plainte contre Characters.AI, l’accusant d’avoir détraqué la santé mentale de son fils et d’avoir précipité son suicide : « Les fournisseurs d’IA conçoivent et développent intentionnellement des systèmes d’IA génératifs avec des qualités anthropomorphiques afin de brouiller les pistes entre fiction et réalité », dénonce-t-elle dans la plainte.

 

 

Le cas de Sewell est tragique mais pas isolé. D’autres humains ont depuis payé de leur santé physique et mentale, voire de leur vie, une dépendance trop étroite à leurs chatbots. Les plaintes suivent leur cours.

Fin 2024, à la suite des polémiques déclenchées par les accusations répétées, Characters.AI a modifié ses conditions d’utilisation. Les mineurs voient leur accès à l’application limité aux personnages jugés « les plus fiables », ne sont pas autorisés à échanger des propos érotiques ou violents, et risquent d’être écartés 24 heures de la plateforme en cas de dérapage. Les adultes, de leur côté, continuent d’accéder à toutes ces fonctionnalités.

En 2025, dans Her, les relations hommes-machines trouvent naturellement leur place dans une société prospère mais solitaire.

En 2025, dans le monde réel, un petit nombre d’humains font travailler des robots pour extraire le maximum de temps d’attention d’autres êtres humains. La prédation de leurs émotions est le moyen le plus sûr d’y arriver.