
Le 18 août 2025, le créateur de contenu et influenceur Anyme (alias Anyme023), 22 ans, a annoncé sur Instagram mettre sa carrière en pause sur les réseaux sociaux. Au-delà de l’actualité d’un streamer parmi les plus suivis, l’arrêt interroge la manière dont les plateformes encadrent le travail des créateurs en France et dans l’UE : santé mentale, charge de modération, transparence des partenariats et application des textes (DSA, SREN) sous le regard de l’ARCOM.
Les faits
Le 18 août 2025, le créateur Anyme (alias Anyme023) de son vrai nom Maxence Turlot (22 ans) a annoncé sur Instagram mettre sa carrière « en pause sur les réseaux sociaux ». Le message ne précise ni durée, ni motif. L’intéressé cumule plusieurs millions d’abonnés sur TikTok, Twitch, YouTube et Instagram. Au cours du premier semestre 2025, il a figuré parmi les streamers francophones les plus vus sur Twitch, avec des pics de plus de 100 000 spectateurs en direct selon les données publiques de ses lives. L’annonce intervient alors qu’il était pressenti pour participer au GP Explorer début octobre 2025.
L’information concerne l’intérêt général, car elle interroge la santé des créateurs. Elle questionne également la modération des plateformes. De plus, elle aborde la transparence des contenus sponsorisés. Enfin, elle examine le cadre légal en France et dans l’Union européenne.

Production intensive et exposition continue
Les plateformes de streaming, comme Twitch, et de vidéo courte, comme TikTok, reposent sur des algorithmes d’engagement. Ces algorithmes valorisent la fréquence et la durée de publication. Ce modèle incite à un rythme intensif de création, particulièrement en direct, où l’audience interagit en temps réel. Plusieurs travaux en sciences sociales décrivent des formes d’épuisement liées à la pression de l’audience. De plus, l’incertitude algorithmique et la monétisation dépendante de la visibilité contribuent aussi à cet épuisement. Les créateurs assument en parallèle une charge de modération incluant l’animation du chat et le filtrage des propos. Souvent, ils bénéficient de l’appui d’outils et d’équipes bénévoles pour cette tâche.
Chez les publics jeunes, très présents sur ces services, les liens parasociaux renforcent l’attente d’une disponibilité quasi permanente du créateur. La pause d’une figure de premier plan agit donc comme un révélateur d’un équilibre fragile entre attractivité du modèle et coûts humains.
Cadre FR-UE : DSA, ARCOM et SREN
Le Digital Services Act (DSA) impose aux plateformes en ligne des obligations de transparence, de signalement et de retrait des contenus illicites, ainsi que des procédures de recours accessibles. Les services dépassant 45 millions d’utilisateurs mensuels dans l’UE sont qualifiés de très grandes plateformes en ligne (VLOP) et soumis à des audits indépendants et à des évaluations de risques systémiques (désinformation, atteintes à la protection des mineurs, impacts potentiels sur la santé mentale).
En France, la loi SREN (21 mai 2024) désigne l’ARCOM comme coordinateur des services numériques pour l’application du DSA, aux côtés notamment de la CNIL (données personnelles) et de la DGCCRF (pratiques commerciales). Les utilisateurs peuvent saisir l’ARCOM en cas de manquement présumé. Twitch n’est pas classée VLOP au niveau européen, elle relève du régime standard du DSA, qui prévoit néanmoins des rapports de transparence, des mécanismes de notification et des décisions motivées en cas de modération.
Points à retenir :
- Signalement et notice-and-action : possibilité de notifier un contenu manifestement illicite et droit d’être informé de la décision.
- Transparence : publication régulière de chiffres (modération, recours) et d’éléments sur les règles applicables.
- Recours : voies internes, médiation certifiée et, en dernier ressort, voie judiciaire.
Modération : responsabilités et limites
Sur son Centre de sécurité, Twitch décrit des politiques contre le harcèlement et les conduites haineuses, des systèmes d’automodération et une gradation des sanctions. Dans les faits, la charge pèse aussi sur les créateurs : paramétrage des flux, encadrement du chat, gestion des raids. Les juristes rappellent que les plateformes sont soumises à une obligation de moyens renforcée : agir promptement après notification, documenter les mesures prises, notifier l’utilisateur concerné. Les sociologues des médias mettent en avant l’intérêt d’une modération partagée. Celle-ci implique une équipe dédiée, des règles publiques et des outils d’alerte. De plus, ils insistent sur la nécessité d’une formation minimale des créateurs à ces enjeux.
Sponsoring et transparence : le droit de l’influence commerciale
Depuis la loi du 9 juin 2023 encadrant l’influence commerciale, tout contenu promouvant un produit doit porter une mention claire. Celle-ci peut-être « Publicité » ou « Collaboration commerciale », et elle doit être assortie d’un contrat. Cette obligation a été complétée par l’ordonnance du 6 novembre 2024. Certaines pratiques sont interdites (ex. promotion de la chirurgie esthétique), d’autres strictement encadrées (produits financiers, jeux d’argent). La DGCCRF peut sanctionner les manquements, les marques étant coresponsables. Pour les audiences jeunes, la lisibilité des mentions est un enjeu de confiance et de littératie médiatique.

Événements caritatifs : rôle civique et garde-fous
Les marathons caritatifs type ZEvent ont montré la capacité de l’écosystème du streaming à mobiliser des dons et des audiences massives. Ces formats contribuent à structurer des communautés et à faire connaître des associations. Ils ne sauraient toutefois se substituer à la régulation, car les organisateurs et plateformes restent liés au droit commun. Cela inclut la lutte contre le harcèlement, le respect de la dignité, ainsi que les obligations de modération. Les chartes internes et les partenariats avec des ONG spécialisées peuvent utilement compléter le cadre légal.
Effets citoyens : information, radicalisation des échanges, jeunesse
Information Le direct peut servir de média d’appoint pour les explications, la culture et la vulgarisation. Le direct offre des atouts comme l’interactivité. Cependant, il présente aussi des limites telles que la vérification à chaud et les erreurs en temps réel. La traçabilité des contenus sponsorisés et l’explicitation des règles de modération concourent à la qualité de l’information.
Radicalisation des échanges. L’adressage direct et la dynamique du chat favorisent des communautés affinitaires. Les recherches sur les interactions parasociales montrent qu’elles peuvent renforcer l’adhésion, mais aussi durcir les oppositions lorsque la contradiction est limitée. Le DSA vise à prévenir ces risques systémiques via l’évaluation et des mesures d’atténuation.
Les publics adolescents et jeunes adultes bénéficient d’espaces de socialisation et d’entraide. Cependant, ils restent exposés au cyberharcèlement, aux troubles du sommeil ou à des usages excessifs. Le couple SREN-DSA prévoit des garde-fous ; leur effectivité suppose des politiques d’éducation aux médias impliquant l’École, les familles et les collectivités.
Pistes de politique publique
- Prévention de l’épuisement : encourager des rythmes soutenables (plannings publics, pauses), promouvoir la co-modération et l’accès à des cellules d’écoute professionnelles pour les créateurs.
- Accès aux recours : rendre opérationnel le guichet ARCOM pour les notifications et recours DSA, avec information standardisée et délais lisibles.
- Transparence publicitaire : généraliser l’étiquetage intégré « collaboration commerciale » dans les interfaces live et ouvrir des archives consultables des contenus sponsorisés.
- Ouverture aux chercheurs : faciliter l’accès sécurisé à des données anonymisées (chats, mesures de modération) pour évaluer les effets des dispositifs.
- Éducation aux médias : intégrer des modules sur les liens parasociaux, la publicité en direct et la modération dans les parcours EMI.
- Soutien aux événements caritatifs : conditionner les sponsorisations à des chartes anti-harcèlement, à une formation des équipes et à un reporting public minimal.
Enjeux et suite
La pause d’Anyme s’inscrit dans un contexte où la création en ligne pèse dans l’espace public. Elle pose une question simple : les plateformes et pouvoirs publics disposent-ils d’outils adaptés pour protéger les utilisateurs ? Ceux-ci incluent les créateurs et audiences. De plus, ces outils doivent le faire sans freiner l’innovation. La réponse se joue dans l’application des textes (DSA, SREN, loi « influenceurs ») et dans la coopération entre plateformes, autorités et communautés.
Pour mémoire :
- DSA : obligations de transparence, évaluation des risques et recours.
- ARCOM : coordinateur pour l’application du DSA en France.
- SREN : loi n° 2024-449 du 21 mai 2024.
- Loi « influenceurs » : 9 juin 2023, complétée le 6 novembre 2024.
- Twitch : règles publiques de modération et rapports de transparence.
- ZEvent : rôle caritatif notable, complémentaire du droit.