L’essor des chatbots dotés d’intelligence artificielle, capables de simuler des conversations humaines de plus en plus réalistes, soulève aujourd’hui de nombreuses questions : apportent-ils réellement du soutien émotionnel ? Peuvent-ils réduire la solitude ? Ou au contraire, risquent-ils d’entraîner une dépendance et un isolement social progressif ? Pour y voir plus clair, une équipe de chercheurs du MIT Media Lab et d’OpenAI a mené une vaste étude expérimentale, contrôlée et randomisée, auprès de près de 1 000 participants.
Pendant 4 semaines, ceux-ci ont été invités à converser quotidiennement avec des IA configurées selon différentes modalités (texte ou voix, conversations personnelles ou non). L’objectif de cette recherche : évaluer comment ces différentes formes d’interaction avec une IA influencent la solitude ressentie, la dépendance affective, les interactions sociales réelles et le risque d’usage problématique de ces technologies.

Une IA qui vous parle comme un humain… et vous écoute comme un ami ?
Aujourd’hui, de plus en plus de personnes discutent avec des IA – ces assistants virtuels capables de tenir une conversation fluide, et parfois même, de réconforter, d’écouter, de soutenir. Certains leur parlent chaque jour. D’autres vont jusqu’à se confier à eux comme à un confident. Mais est-ce vraiment inoffensif ? Ou est-ce qu’une relation trop intense avec une IA peut, sans qu’on s’en rende compte, augmenter la solitude, créer une dépendance émotionnelle, ou remplacer nos liens avec les vrais gens ? C’est ce qu’ont voulu savoir des chercheurs du MIT Media Lab et de l’équipe scientifique d’OpenAI (ceux qui développent ChatGPT) dans une grande étude scientifique menée pendant 4 semaines.
L’étude en bref : 981 personnes, 3 types de voix, 3 types de conversations
L’expérience est très bien résumée par ce schéma ci-dessous que nous allons décortiquer ensemble.

1. Comportement de l’utilisateur / « User Behavior »
C’est tout ce que l’utilisateur apporte dans la relation avec l’IA :
– Ses caractéristiques personnelles (âge, genre, attachement, etc.)
– Les émotions qu’il exprime
– Les sujets abordés (perso ou non)
– Le niveau d’ouverture ou d’intimité « self-disclosure »
Ces éléments influencent comment l’IA réagit et ce que l’utilisateur perçoit d’elle.
2. Les conditions expérimentales / « Experimental Conditions »
Les chercheurs ont pu modifier deux variables : le type de conversation et le mode d’interaction et ainsi tester plusieurs types de conversation.
–> Le type de conversation (“Task”)
– Conversation personnelle : parler de soi, de ses émotions, de ses souvenirs…
– Conversation non personnelle (thème impersonnel parler d’un sujet neutre (ex. : l’histoire des trains).
– Conversation ouverte (libre) Libre : discuter de ce que l’on veut.
–> Le mode d’interaction utilisé du chatbot / « Modality »
– Texte uniquement (comme une messagerie),
– Avec une voix neutre (professionnelle, sans émotion),
– Avec une voix engageante (chaleureuse, empathique).
Les tâches et les modalités étaient combinées aléatoirement : chacun avait une combinaison unique.
3. La perception humaine de l’IA / « Human Perception of AI »
Ce que l’utilisateur ressent et pense de l’IA pendant l’expérience :
– Fait-il confiance au chatbot ?
– Le trouve-t-il empathique ?
– Se sent-il attaché ?
– Est-il satisfait de la conversation ?
– Le perçoit-il comme intelligent ou compétent ?
Ces perceptions sont importantes car elles modulent les effets émotionnels et sociaux.
4. Le comportement de l’IA / « Model Behavior »
Ce que l’IA fait ou dit dans la conversation :
– Les émotions qu’il renvoie
– Son niveau d’ouverture émotionnelle « self-disclosure »
– Son comportement prosocial ou non (est-ce qu’il montre de l’empathie, encourage à parler à d’autres humains, etc.)
Ce comportement est influencé par les consignes données à l’IA(voix neutre ou engageante).
5. 4 semaines / « 4 Weeks »
La durée de l’expérience : chaque participant devait interagir au moins 5 minutes par jour avec l’IA, pendant 28 jours.
6. Les conséquences négatives mesurées / « Negative Outcomes »
Au bout des 4 semaines, ils ont évalué chez chaque personne :
– La solitude ressentie,
– La fréquence des interactions sociales avec de vraies personnes,
– Le niveau de dépendance émotionnelle envers l’IA,
– Le caractère problématique de l’usage (ex. : penser tout le temps à l’IA, en avoir besoin pour se calmer, etc.).
Ils ont aussi regardé le comportement de l’IA (était-elle empathique ? encourageait-elle à parler à des humains ?) et la perception de l’utilisateur (avait-il confiance ? s’y était-il attaché ?).
Ce que montre l’étude
Parler à l’IA peut aider au début…
Les personnes qui utilisaient la voix engageante se sentaient un peu moins seules, et moins dépendantes émotionnellement que celles qui utilisaient uniquement du texte.
… Mais à haute dose, c’est l’inverse
Plus les gens passaient de temps chaque jour avec l’IA, plus ils se sentaient seuls, parlaient moins aux autres humains, éprouvaient une forme d’addiction douce, se sentaient émotionnellement liés à l’IA (au point que la perdre leur ferait mal).
Quelques points marquants +++
– Les conversations personnelles (où on parle de soi) réduisent la dépendance, même si elles augmentent un peu la solitude.
– Les conversations impersonnelles (sujets neutres) mènent à plus de dépendance émotionnelle, surtout chez les utilisateurs intensifs.
– Ceux qui avaient déjà utilisé des chatbots compagnons avant étaient plus à risque de dépendance et les personnes émotives, seules ou très sensibles à l’attachement étaient plus fragiles face à ces effets.
Les limites de l’étude
– Il n’y avait pas de groupe sans IA (donc difficile de savoir si c’est bien l’IA qui cause les effets).
– L’expérience était très contrôlée : chaque personne ne pouvait utiliser qu’un seul mode d’interaction
– L’étude a duré seulement 4 semaines : on ne sait pas ce qui se passe à long terme.
– Les utilisateurs étaient majoritairement américains anglophones.
En conclusion : Une IA plus “humaine” et plus engageante, mais pas toujours plus dangereuse
Contrairement à ce que l’on pourrait croire, ce n’est pas forcément la voix la plus humaine qui crée le plus d’attachement. En réalité, le mode “texte” suscite souvent plus d’émotions et de confidences, car il permet à chacun de projeter ce qu’il veut sur l’IA.
À retenir : « Une conversation avec une IA peut être agréable, mais si elle prend trop de place, elle risque de remplacer les liens humains, de favoriser une dépendance affective, et de vous isoler sans que vous vous en rendiez compte »
Référence :
- Fang C.M, Liu AR, Danry V et al. How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use: A Longitudinal Randomized Controlled Study. 2025 – Preprint
>>> Lien PDF