Accueil ArticlesQuand l’IA devient le confident des jeunes : soutien, refuge ou nouveau risque ?

Quand l’IA devient le confident des jeunes : soutien, refuge ou nouveau risque ?

Par le MédecinGeek
1 vues

Une étude qui tombe au bon moment

L’étude intitulée « L’impact des usages de l’IA sur la santé mentale des jeunes Européens » a été réalisée par Ipsos bva pour le Groupe VYV et la CNIL, en mars 2026. Elle intervient dans un moment très particulier : l’intelligence artificielle générative est entrée brutalement dans la vie quotidienne des adolescents et des jeunes adultes, sans véritable période d’apprentissage collectif, sans culture partagée du risque et avec des outils disponibles jour et nuit, capables de répondre à presque toutes les questions, y compris les plus intimes.

La question posée par les auteurs est donc essentielle : que font les jeunes avec l’IA et surtout que se passe-t-il lorsque ces outils deviennent des interlocuteurs pour parler de stress, de solitude, de mal-être ou de problèmes personnels ? L’intérêt de cette enquête est de ne pas s’arrêter aux usages scolaires ou professionnels. Elle explore aussi une zone plus sensible : l’IA comme espace de confidence, de conseil, d’apaisement, voire de soutien psychologique informel. C’est précisément ce qui doit intéresser les parents, les soignants, les enseignants et tous ceux qui travaillent sur les usages numériques des jeunes.

Une enquête européenne auprès de 3 800 jeunes

L’étude a été menée du 9 au 26 janvier 2026 auprès de 3 800 jeunes âgés de 11 à 25 ans, interrogés par Internet via l’Access Panel Online d’Ipsos. Les pays inclus sont la France, l’Allemagne, la Suède et l’Irlande, avec 1 000 répondants en France, 1 000 en Allemagne, 1 000 en Suède et 800 en Irlande. Les échantillons sont présentés comme représentatifs de la population de cette tranche d’âge dans chaque pays, avec une méthode de quotas appliquée au genre, à l’âge et à la région ; d’autres quotas ont été ajoutés selon les pays, notamment la catégorie d’agglomération, et en France la catégorie socioprofessionnelle de la personne de référence du foyer.

Il s’agit donc d’une enquête quantitative déclarative et non d’une étude clinique. C’est un point important. Les jeunes répondent eux-mêmes à des questionnaires en ligne. Cela permet de recueillir beaucoup de données rapidement, sur plusieurs pays, mais cela expose aussi à plusieurs biais : biais de déclaration, biais de mémoire, biais de désirabilité sociale, et biais lié au recrutement par panel en ligne. Par définition, on interroge des jeunes déjà suffisamment connectés pour répondre à une enquête numérique. Ce n’est pas un détail quand le sujet étudié est précisément l’usage de l’IA.

Pour évaluer l’anxiété, l’étude utilise le GAD-7*, un questionnaire de dépistage en sept questions destiné à mesurer la sévérité des symptômes anxieux. Le score est calculé de 0 à 21, avec des seuils généralement utilisés pour distinguer anxiété légère, modérée et sévère. Un score supérieur ou égal à 10 fait suspecter un trouble anxieux généralisé. La formulation des items a été adaptée à la marge pour tenir compte de l’âge des répondants. C’est un outil validé et utile en dépistage, mais il ne remplace pas un diagnostic médical. Autrement dit, l’étude parle de suspicion de trouble anxieux, pas de diagnostic posé après entretien clinique.

Une analyse statistique simple à comprendre

Les auteurs ont principalement analysé les réponses par pourcentages, en comparant les résultats selon plusieurs sous-groupes : pays, âge, genre, statut scolaire ou professionnel, niveau d’anxiété, usage ou non de l’IA pour des raisons personnelles et suivi éventuel par un psychologue ou un psychiatre. Ils comparent aussi certains résultats entre pays, en signalant les différences significatives par rapport à la France.

L’étude ne cherche pas à prouver une causalité. Elle observe des associations. Par exemple, les jeunes qui présentent une suspicion d’anxiété utilisent davantage l’IA pour parler de sujets personnels. Mais cela ne permet pas de dire que l’IA crée l’anxiété. L’hypothèse inverse est même très plausible : les jeunes anxieux, isolés ou en difficulté relationnelle peuvent se tourner plus facilement vers un outil disponible, non jugeant et immédiatement accessible. Là, il faut être rigoureux : cette étude alerte, mais elle ne tranche pas le sens de la relation.

La méthode statistique est donc adaptée à une enquête d’opinion et de comportement, mais elle reste limitée pour répondre à des questions cliniques fortes. Pour savoir si l’usage intime de l’IA augmente, diminue ou entretient les symptômes anxieux, il faudrait des études longitudinales, suivant les mêmes jeunes dans le temps, avec des mesures répétées et idéalement des évaluations cliniques. Ici, nous avons une photographie très utile, mais pas un film.

Des résultats qui doivent faire lever un sourcil

Premier résultat marquant : le niveau d’anxiété déclaré est élevé. En France, près de deux jeunes sur trois seraient concernés par une forme d’anxiété selon le GAD-7, le plus souvent légère. Plus important encore, 28 % des jeunes Français présentent un score supérieur ou égal à 10, seuil faisant suspecter un trouble anxieux généralisé. Ce chiffre monte à 30 % en Allemagne, 34 % en Suède et 33 % en Irlande. C’est massif. Et même s’il faut garder la prudence liée au dépistage, cela confirme une tension psychique importante chez les jeunes Européens.

Deuxième résultat : l’IA est déjà partout. En France, 86 % des jeunes déclarent utiliser des outils d’intelligence artificielle, et cet usage commence très tôt : 66 % des 11-12 ans disent déjà y avoir recours. Les usages scolaires et professionnels dominent, avec l’aide à l’écriture, les résumés, les devoirs, les révisions ou l’orientation. Mais l’étude montre aussi une autre réalité : 35 % des jeunes Français utilisent l’IA pour obtenir des conseils lorsqu’ils sont stressés, 33 % lorsqu’ils rencontrent des problèmes avec leurs proches et 32 % lorsqu’ils se sentent tristes, en colère ou mal dans leur tête. Là, on sort du simple outil de productivité.

Troisième résultat, le plus sensible : près d’un jeune Français sur deux, 48 %, déclare avoir déjà utilisé l’IA pour parler de sujets intimes et personnels. Cette proportion atteint 68 % chez les jeunes présentant une suspicion de trouble anxieux généralisé. En Allemagne et en Irlande, les chiffres sont encore plus élevés, autour de 62 à 63 %. Ce n’est pas marginal. Ce n’est pas un gadget. L’IA devient, pour une partie des jeunes, un espace de parole.

Ce résultat n’est pas totalement surprenant. Un outil disponible 24h/24, qui répond vite, qui ne coupe pas la parole, qui ne lève pas les yeux au ciel et qui ne dit jamais « tu exagères » a évidemment un pouvoir d’attraction. Mais il est inquiétant si cet outil prend la place des adultes, des proches ou des professionnels, surtout chez les jeunes les plus vulnérables. Le problème n’est pas qu’un adolescent pose une question à une IA. Le problème commence quand l’IA devient le lieu principal où il dépose ce qu’il n’ose plus dire ailleurs.

L’IA comme confident : le vrai signal d’alerte

Les raisons données par les jeunes sont très éclairantes. Parmi ceux qui utilisent l’IA pour des conseils personnels ou intimes, 51 % disent le faire parce qu’elle est toujours disponible, 40 % parce que c’est plus facile que de parler à une vraie personne, 36 % pour se sentir écoutés sans jugement et 35 % pour parler de choses qu’ils ne disent à personne. Chez les jeunes ayant une suspicion de trouble anxieux, les motifs « sans jugement », « choses que je ne dis à personne », « comprendre mes émotions » et « me sentir apaisé » sont encore plus marqués.

Ce que l’on voit apparaître ressemble moins à une addiction classique qu’à une logique de refuge numérique. L’IA peut devenir une stratégie de coping : un moyen de gérer une émotion désagréable, d’éviter une interaction difficile, de réduire momentanément l’angoisse. En soi, ce n’est pas forcément pathologique. Nous avons tous des stratégies d’apaisement. Mais lorsque l’outil devient systématique, exclusif, émotionnellement central, et qu’il évite de demander de l’aide à des humains, il peut renforcer l’isolement au lieu de le réduire. Voilà le point dur.

L’étude montre d’ailleurs que, parmi les jeunes Français utilisant l’IA pour parler de problèmes personnels ou intimes, 64 % la considèrent comme un conseiller de vie, 61 % comme un confident, 54 % comme un ami et 46 % comme un psy. Cette anthropomorphisation est majeure. Un chatbot peut simuler une écoute. Il peut produire une réponse empathique. Il peut reformuler. Mais il ne connaît pas réellement le jeune, ne perçoit pas son environnement familial, son niveau de danger, ses signaux non verbaux, ses antécédents, ni les contradictions de son récit. Le risque est donc double : une illusion de compréhension et une illusion de sécurité.

Une confiance élevée, mais une culture du risque encore insuffisante

L’étude met aussi en évidence une confiance ambivalente. La moitié des jeunes Français pense que l’IA peut aider à se sentir mieux et donner davantage confiance en soi. Parmi ceux qui utilisent l’IA pour des raisons intimes ou personnelles, cette confiance grimpe fortement : 73 % pensent que l’IA peut aider à se sentir mieux, 68 % qu’elle peut donner confiance en soi, 57 % qu’elle peut être attachante et 51 % qu’elle conseille mieux que les humains. Ce chiffre est fascinant… et franchement préoccupant.

Pourquoi ? Parce qu’une IA peut donner des conseils convaincants sans être fiable. Elle peut être rassurante sans être juste. Elle peut être disponible sans être responsable. Elle peut donner l’impression d’une neutralité alors qu’elle dépend de données, de paramètres, de règles de sécurité, de limites techniques et de conditions d’utilisation que la plupart des jeunes ne connaissent pas. C’est le cocktail parfait pour une confiance excessive : une interface fluide, une réponse immédiate, un ton empathique, et très peu de compréhension réelle du fonctionnement de l’outil.

Les jeunes n’ignorent pas totalement les risques. L’étude indique que 55 % des jeunes Français pensent que l’usage de l’IA peut les isoler des autres et 47 % qu’elle peut fragiliser leur bien-être. Mais cette lucidité reste partielle. Seul un tiers des jeunes Français dit savoir ce que deviennent les informations confiées à l’IA, et 85 % souhaiteraient avoir davantage d’informations sur au moins un sujet lié aux risques de l’IA. Cela montre un besoin massif d’éducation numérique, non pas seulement technique, mais psychologique et relationnelle.

Ce que les auteurs discutent implicitement : un besoin d’encadrement, pas de panique

La discussion qui ressort de l’étude est claire : l’IA est déjà installée dans les pratiques des jeunes, y compris dans les pratiques intimes. Il serait donc absurde de faire comme si l’on pouvait simplement l’interdire ou l’ignorer. Les jeunes y trouvent une aide, parfois réelle : organiser ses idées, formuler un problème, se sentir moins seul quelques minutes, obtenir des pistes pour demander de l’aide. Mais l’enquête montre aussi que les jeunes les plus fragiles sont précisément ceux qui risquent de lui attribuer le rôle le plus fort.

L’alerte n’est donc pas : « l’IA rend les jeunes anxieux ». Ce serait trop simple, et probablement faux. L’alerte est plus subtile : dans un contexte où beaucoup de jeunes vont déjà mal, l’IA devient un interlocuteur de substitution, parfois plus facile à mobiliser qu’un parent, un ami, un médecin ou un psychologue. Et ce déplacement relationnel mérite une vraie vigilance. Le sujet n’est pas seulement le temps passé avec l’IA. Le vrai sujet est la fonction psychique de l’usage. Est-ce que le jeune utilise l’IA pour apprendre, créer, comprendre, préparer une conversation réelle ? Ou est-ce qu’il l’utilise pour éviter les autres, ruminer, chercher une réassurance sans fin, déléguer ses choix, apaiser une angoisse de manière répétitive ? Ce sont ces usages-là qui doivent être repérés.

Conclusion : l’IA ne remplace pas une présence humaine

Cette étude est importante parce qu’elle documente un basculement silencieux. L’IA n’est plus seulement un outil scolaire ou professionnel. Elle devient, pour une partie des jeunes, un espace de confidence, de conseil et d’apaisement. Elle peut aider ponctuellement. Elle peut même servir de passerelle vers une parole plus construite. Mais elle ne doit pas devenir le seul endroit où un jeune dépose son mal-être.

Le message à retenir est simple : l’IA peut être un outil, pas un refuge unique. Elle peut aider à formuler une difficulté, pas remplacer un adulte fiable. Elle peut soutenir une réflexion, pas devenir un psy de poche. Chez les jeunes anxieux, isolés ou en souffrance, l’usage intime de l’IA doit être interrogé avec tact, sans moquerie ni panique. La bonne question n’est pas seulement : « Combien de temps passes-tu dessus ? » La vraie question est : « Qu’est-ce que tu lui confies que tu ne confies plus à personne ? »


Référence :

  • l’impact des usages de l’IA sur la santé mentale des jeunes…Ipsos bva | Vyv | Les jeunes et l’IA | Février 2026
    >>> Lien pour télécharger l’étude (Pdf – 918 ko)
  • Spitzer RL, Kroenke K, Williams JB, Löwe B. A brief measure for assessing generalized anxiety disorder: the GAD-7. Arch Intern Med. 2006 May 22;166(10):1092-7.
    >>> Lien

    *Le questionnaire « GAD-7 » calcule le résultat en donnant 0, 1, 2 ou 3 points respectifs aux choix des réponses « jamais », « plusieurs jours », « plus de la moitié des jours », « presque tous les jours ». Le résultat total du questionnaire « GAD-7 » varie entre 0 et 21 points. Les résultat de 5, 10 et 15 représentent des seuils pour détecter de l’anxiété légère, modérée ou sévère.

Aller au contenu principal