Accueil ArticlesAlgorithmes et adolescents : ce que révèle l’enquête Mediapart

Algorithmes et adolescents : ce que révèle l’enquête Mediapart

Par le MédecinGeek
1 vues

Une expérience ordinaire mais un révélateur inquiétant

À treize ans, âge minimum légal pour s’inscrire sur la plupart des réseaux sociaux, l’adolescent est censé entrer dans un univers encadré, pensé pour lui, sécurisé par des garde-fous techniques et réglementaires. Du moins, c’est la promesse affichée. Mais que voit-il réellement lorsqu’il ouvre son téléphone, seul, sans chercher quoi que ce soit de particulier, et qu’il se contente de faire défiler des vidéos ?
C’est cette question simple, mais essentielle, qu’a voulu explorer Mediapart® à travers une expérimentation journalistique menée en janvier 2026. Les journalistes ont créé de faux comptes déclarés comme appartenant à des adolescents de 13 ans : Assa, Sarah et Alexandre. Aucun abonnement, aucun contact ajouté, aucun « like », aucun commentaire. Les cookies facultatifs sont refusés, la navigation se fait en mode privé. L’objectif est clair : observer ce que les algorithmes proposent spontanément à un mineur, sans intervention humaine susceptible d’orienter les recommandations.
L’expérimentation porte exclusivement sur les fils de vidéos courtes à défilement continu : le fil «Pour toi» sur TikTok®, «Spotlight» sur Snapchat®, et les «Reels» sur Instagram® et Facebook®. Autrement dit, les espaces où l’utilisateur ne choisit presque plus, mais se laisse porter par une succession ininterrompue de contenus sélectionnés pour lui.

Du banal au dérangeant : la glissade sans avertissement

Les premières minutes rassurent. Recettes simples, astuces numériques, vidéos humoristiques, sport, bricolage visuel. Rien de choquant. Puis, sans rupture franche, le fil bascule. Sur TikTok®, apparaissent des extraits sexualisés, des dialogues crus issus d’émissions grand public, des chansons explicitement sexuelles. Des vidéos générées par intelligence artificielle mettent en scène des figures publiques dans des situations absurdes ou ambiguës. Plus inquiétant encore, certaines séquences simulent des violences sexuelles ou banalisent des rapports de domination.
Sur Snapchat® et les plateformes du groupe Meta®, la dynamique est comparable. Derrière un humour apparemment anodin surgissent des vidéos humiliantes, des stéréotypes misogynes, des mises en scène violentes, parfois impliquant des enfants très jeunes.
Ce qui frappe n’est pas seulement la nature de ces contenus, mais leur surgissement brutal, sans signal, sans contextualisation, sans possibilité de s’y préparer.

Les «rabbit holes» : quand l’algorithme enferme sans bruit

Pour comprendre cette mécanique, il faut s’arrêter sur ce que Mathilde Saliou, journaliste spécialisée dans les technologies, appelle les «rabbit holes». L’expression renvoie à des puits sans fond numériques, dans lesquels les utilisateurs peuvent s’enfoncer presque sans s’en rendre compte. Chaque vidéo en appelle une autre. Chaque émotion devient un signal exploitable. L’algorithme observe, teste, affine. Plus un contenu retient l’attention, plus il est reproduit sous des formes proches. Progressivement, le champ se rétrécit. On ne choisit plus vraiment ce que l’on regarde : la machine oriente, enferme, répète. Comme le rappelle Mathilde Saliou, cette logique n’est pas neutre. «L’intérêt est économique», souligne-t-elle. «Ce sont des entreprises qui fonctionnent sur un modèle publicitaire : il faut donc garder les internautes connectés le plus longtemps possible.» Le temps passé devient la variable centrale, bien avant la qualité du contenu ou son impact sur le développement psychique des plus jeunes.

Quand l’image s’impose : un choc psychique sous-estimé

Ces expositions précoces ne sont pas sans conséquences. Samuel Comblez, psychologue de l’enfance et de l’adolescence, directeur adjoint de l’association e-Enfance (qui pilote le numéro national 3018 dédié aux violences numériques), alerte sur les effets immédiats de ces images imposées.
«On demande aux enfants comment s’est passée l’école, rarement ce qu’ils ont vu sur TikTok®, Snapchat® ou Instagram®», observe-t-il. D’un point de vue psychologique, la différence est majeure : lorsqu’un enfant choisit un contenu, il peut s’y préparer. Lorsque l’image s’impose à lui, sans avertissement, l’impact est bien plus difficile à encaisser. Sidération, incompréhension, honte, culpabilité. L’enfant garde l’image en tête, la rumine, sans toujours avoir les mots ni les outils pour l’exprimer.
Troubles du sommeil, cauchemars, repli sur soi sont fréquemment rapportés. Et trop souvent, ces expériences restent silencieuses, faute de dialogue avec les adultes.

Ce que révèle Amnesty International : l’amplification de la vulnérabilité

L’enquête de Mediapart® n’est pas un cas isolé. Amnesty International a cherché à documenter ces mécanismes dans un rapport publié en octobre 2025, consacré au fonctionnement de TikTok® et à son impact sur la santé mentale des adolescents. La méthodologie est proche : des comptes simulés de jeunes de 13 ans, laissés volontairement passifs, sans interactions, se contentant de faire défiler le fil « Pour toi ». L’objectif est d’observer comment l’algorithme ajuste ses recommandations en fonction du seul critère du temps de visionnage.
Les conclusions sont préoccupantes. Selon le rapport, des comptes déclarés comme appartenant à des adolescents voient, en moins de vingt minutes, leur fil saturé de contenus liés à la détresse psychologique. En moins de quarante-cinq minutes, apparaissent déjà des messages évoquant explicitement le suicide. Et au fil des heures, certaines recommandations vont jusqu’à proposer des vidéos susceptibles d’encourager le passage à l’acte.
Ce que révèle cette mécanique, ce n’est pas une dérive ponctuelle, mais une amplification progressive de la vulnérabilité, guidée par ce qui retient l’attention, même lorsque cela met en danger.

Interdire ou réguler : une fausse réponse à une vraie question

Face à ces constats, l’idée d’interdire les réseaux sociaux aux moins de 15 ans revient régulièrement dans le débat public. Pour Amnesty International, cette réponse est insuffisante. L’ONG plaide au contraire pour une application rigoureuse du Digital Services Act (DSA), entré en vigueur en Europe en février 2024, qui impose aux grandes plateformes d’identifier et de réduire leurs risques systémiques, notamment lorsqu’ils affectent les mineurs.
Comme le résume Katia Roux, chargée de plaidoyer sur les questions technologiques pour Amnesty International :
«Sur le papier, le DSA donne tous les outils nécessaires. Dans les faits, il n’est pas mis en œuvre.» Autrement dit, les instruments juridiques existent, mais la volonté de transformer en profondeur les mécanismes algorithmiques reste largement insuffisante.

Ce que révèle l’enquête

Cette enquête met en lumière une réalité : le risque ne tient pas seulement au temps passé devant les écrans, mais à la logique même de la recommandation algorithmique. En quelques minutes, sans recherche volontaire ni interaction consciente, des adolescents se retrouvent exposés à des contenus violents, sexualisés ou psychologiquement éprouvants, conçus pour capter l’attention et maintenir l’engagement. Cet article montre que ces expositions ne relèvent ni de l’accident ni de l’exception. Elles s’inscrivent dans une mécanique structurée, fondée sur l’économie de l’attention, où la répétition, l’intensité émotionnelle et l’absence de filtre jouent un rôle central. Les dispositifs de protection affichés par les plateformes apparaissent alors largement insuffisants face à des systèmes dont la finalité première reste économique.
L’enquête souligne également un point essentiel : lorsque l’image s’impose sans avertissement, l’impact psychique est immédiat, en particulier chez des adolescents dont les repères émotionnels et cognitifs sont encore en construction. Le silence qui entoure souvent ces expériences renforce leur effet, en les laissant sans mise en mots ni accompagnement.
Enfin, en croisant l’expérimentation journalistique de Mediapart avec les travaux d’Amnesty International, le texte montre que ces dérives sont désormais documentées, reproductibles et connues. Les outils juridiques existent pour les encadrer, mais leur application demeure incomplète. Ce décalage entre ce que l’on sait et ce que l’on fait constitue sans doute l’un des enseignements les plus préoccupants de cette enquête.


Références

  • Anass Iddou. Voici ce que les algorithmes montrent vraiment aux adolescents de 13 ans 25 janvier 2026 – © Mediapart
    >>> Lien
  • Plongée dans l’algorithme de TikTok France : nos révélations – 21 Octobre 2025 – © Amnesty International France
    >>> Lien

Aller au contenu principal