Accueil ArticlesTikTok et adolescents : ce que révèle l’enquête d’Amnesty International

TikTok et adolescents : ce que révèle l’enquête d’Amnesty International

Par le MédecinGeek
1 vues

Le 20 octobre 2025, Amnesty International publie en France un rapport intitulé « Plongée dans l’algorithme de TikTok ». L’objectif affiché est simple : comprendre ce que la plateforme recommande réellement à un adolescent de 13 ans, âge minimal autorisé pour créer un compte. Cette publication s’inscrit dans la continuité d’analyses menées dès 2023 dans d’autres pays, mais elle prend en France une résonance particulière, dans un contexte où la question de la santé mentale des jeunes occupe une place croissante dans le débat public. L’enquête s’ouvre sur l’histoire de Marie, 15 ans, décédée par suicide le 16 septembre 2021. Victime de harcèlement scolaire, elle s’était tournée vers TikTok. Selon le témoignage de sa mère, ses recherches sur la perte de poids et le mal-être auraient progressivement orienté son fil « Pour toi » vers des contenus de plus en plus sombres. Des vidéos évoquant la tristesse, la solitude, parfois le suicide, se seraient multipliées. Peu avant sa mort, Marie publiait elle-même une vidéo exprimant son épuisement face au harcèlement. Après son décès, sa mère a engagé une action judiciaire, bientôt rejointe par d’autres familles au sein du collectif Algos Victima.

Une expérimentation menée en France

Pour dépasser les témoignages individuels, Amnesty a conduit une expérimentation avant la publication de son rapport en 2025. Trois faux comptes déclarés comme appartenant à des adolescents de 13 ans ont été créés. Le protocole était volontairement passif : aucun abonnement, aucun « like », aucun commentaire. Les chercheurs ont simplement fait défiler le fil « Pour toi » pendant plusieurs heures, en regardant deux fois les vidéos liées à la tristesse ou à la santé mentale. L’idée était d’observer la logique de recommandation sans intervention active.

Une progression rapide vers des contenus suicidaires

Les résultats décrits sont marqués par la rapidité du phénomène. En moins de vingt minutes, les fils étaient déjà majoritairement composés de contenus liés à la santé mentale. En quarante à quarante-cinq minutes apparaissaient des messages évoquant explicitement le suicide.
Après trois heures, les comptes étaient saturés de vidéos mélancoliques ou mortifères, parfois formulées de manière directe, parfois à travers des codes visuels ou des emojis connus des utilisateurs. L’enquête évoque un « rabbit hole effect », un effet de spirale progressive vers des contenus toujours plus homogènes.

Des témoignages qui prolongent l’observation

Le rapport donne également la parole à plusieurs adolescents. Maëlle, aujourd’hui âgée de 18 ans, décrit son expérience survenue en 2021, à une période où elle traversait des difficultés personnelles. Après avoir visionné des vidéos accompagnées de musiques tristes, son fil s’est progressivement transformé. Les contenus liés à la mort ou à l’automutilation sont devenus dominants. Elle évoque des images « encore imprimées dans sa rétine ». Sa mère décrit un sentiment d’impuissance face à cette accumulation de contenus sombres. D’autres parents relatent la découverte, en janvier 2023 pour l’un des cas cités, de tutoriels d’automutilation ou de vidéos incitant explicitement à recommencer une tentative de suicide.

Un modèle algorithmique fondé sur l’engagement

L’enquête rappelle que TikTok® fonctionne selon un modèle d’optimisation de l’engagement. Le temps de visionnage, même sans interaction active, constitue un signal interprété par l’algorithme. Plus un utilisateur regarde un type de contenu, plus le système lui en propose des contenus similaires. Ce fonctionnement s’inscrit dans une économie de l’attention : la plateforme génère des revenus proportionnels au temps passé par ses utilisateurs. La question soulevée n’est donc pas celle de l’existence isolée de contenus problématiques, mais celle de leur amplification par le mécanisme de recommandation.

Un cadre réglementaire déjà en vigueur

Depuis février 2024, le Digital Services Act, est pleinement applicable dans l’Union européenne et impose aux grandes plateformes numériques des obligations spécifiques en matière de protection des mineurs et d’évaluation des risques systémiques. Malgré ce cadre, Amnesty estime que les mécanismes actuels ne suffisent pas à empêcher la diffusion répétée de contenus susceptibles d’affecter la santé mentale des adolescents.

Une lecture prudente des conclusions

L’enquête ne démontre pas qu’une application, à elle seule, cause un suicide. Elle met en évidence une dynamique algorithmique capable d’orienter rapidement un profil vers un univers homogène centré sur le mal-être. Chez un adolescent vulnérable, cette répétition peut renforcer des pensées négatives ou des ruminations. Chez d’autres, l’impact peut être moindre. La problématique soulevée est celle de l’exposition cumulative et de l’amplification, davantage que celle d’une causalité simple.

Une question qui dépasse TikTok

L’adolescence est une période de construction identitaire et émotionnelle. En quelques dizaines de minutes, un environnement numérique peut se structurer autour de thèmes liés à la détresse ou à la disparition. L’enquête publiée en octobre 2025 invite à réfléchir à la manière dont les architectures algorithmiques influencent l’expérience des jeunes utilisateurs. Elle pose une question centrale : comment concilier innovation numérique, liberté d’expression et protection des mineurs dans un espace où l’attention constitue la principale ressource économique ?


Références

  • Plongée dans l’algorithme de TikTok France : nos révélations – 21 Octobre 2025 – © Amnesty International France
    >>> Lien
  • Dragged into the Rabbit Hole : New evidence of TikTok’s risks to children’s mental health. © Amnesty International Report. Octobre 2023
    >>>Téléchargement (Pdf 2,1 Mo)

Aller au contenu principal