
Le décès en direct de Jean Pormanove, 46 ans, sur la plateforme Kick dans la nuit du 17 au 18 août à Contes (Alpes-Maritimes) a bouleversé des centaines de milliers d’internautes et relancé un débat public sensible : que savait-on, qui devait agir et quand ? Alors que l’autopsie écarte une intervention d’un tiers, l’affaire met à l’épreuve la modération des plateformes, le cadre DSA et notre rôle de spectateurs.
Les faits établis
Dans la nuit du 17 au 18 août 2025, Jean Pormanove de son vrai nom Raphaël Graven, 46 ans meurt à Contes (Alpes-Maritimes) lors d’un live sur la plateforme Kick. Le procureur de Nice indique que l’autopsie ne révèle ni lésion traumatique interne ni externe. De plus, il écarte l’intervention d’un tiers. Les causes probables sont donc médicales ou toxicologiques. Des analyses complémentaires (toxicologie, anatomopathologie) sont en cours.
Des vidéos antérieures, largement diffusées, montrent le défunt insulté, giflé et étranglé. De plus, il est touché par des tirs de paintball. Ces scènes sont présentées comme des « défis » ou de la « mise en scène ». Un second homme, surnommé Coudoux, visiblement vulnérable, apparaît aussi. La justice a ouvert une enquête, saisi du matériel et auditionné plusieurs personnes.
Clara Chappaz, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, dénonce une « horreur absolue » et saisit l’Arcom (le régulateur français des services de médias et plateformes). Kick promet de revoir ses règles de modération pour la France et de coopérer avec les autorités.
Pourquoi cette affaire choque
Monétiser la vulnérabilité
Transformer la souffrance réelle ou mise en scène en divertissement payant crée un marché où l’intégrité d’autrui devient variable d’audience. Paliers de dons, abonnements, « défis » rémunérés : plus une séquence choque, plus elle capte, plus elle rapporte. Cette logique de buzz aligne l’économie sur l’exposition de la vulnérabilité. Un ressort qui rappelle le film ‘La Mort en direct’ (1980).
Consentement ou contrainte ?
Dans ces formats, le consentement est souvent invoqué. L’éthique distingue toutefois consentement éclairé et consentement sous pression (économique, psychique, sociale). Dire « oui » pour subsister ou gagner en visibilité ne garantit pas un choix libre. Question simple : qui gagne quoi ? et qui porte le risque humain ?
Plateformes : de la règle à la réalité
Sous l’Union européenne, le Règlement sur les services numériques (DSA) impose aux plateformes :
- Évaluer et atténuer les risques systémiques (violences, atteintes à la dignité, harcèlement, effets sur la santé) ;
- Offrir des procédures de signalement efficaces et un retour motivé ;
- Publier des rapports de transparence et ouvrir l’accès à certaines données aux autorités,
- Pour les très grandes plateformes, se soumettre à des audits indépendants et proposer une recommandation sans profilage.
En France, l’Arcom est Coordinateur des services numériques : elle supervise l’application du DSA, met en demeure si besoin, sanctionne et coopère avec la Commission européenne. La loi SREN (21 mai 2024) complète ce cadre (transparence, signalement renforcé, peines de suspension de comptes après condamnation).
La question clé ne se limite pas à « pouvait-on juridiquement laisser ces vidéos en ligne ? ». En revanche, elle porte sur « tout a-t-il été fait, assez tôt, pour prévenir le dommage ? ».
Concrètement, une responsabilité de conception s’impose. Elle inclut la détection en temps réel des violences, détresse et humiliations. De plus, elle demande la coupure de flux par un opérateur humain. Ensuite, il est nécessaire d’instaurer des garde-fous de durée, comme des limites de live et pauses. Par ailleurs, des interdictions claires de certains défis sont essentielles : strangulation, tirs à bout portant, ingestion de substances. Enfin, assurer la traçabilité entre scènes jouées et scènes réelles est primordial.
Une chaîne de responsabilités, au-delà des individus
Le live est un écosystème. Outre les animateurs, interviennent des co-streamers, managers, techniciens, communautés, parfois des sponsors. À partir de quand l’inaction devient-elle complicité morale ? Quand un défi humiliant rapporte, tout le monde gagne (visibilité, revenus), sauf la personne exposée. La responsabilité ne s’arrête pas à la cause médicale du décès : elle questionne ceux qui ont profité du contenu.
Le public, acteur décisif
Le public n’est pas un figurant. Dons, tips, abonnements, commentaires, partages : chaque geste incite et normalise. Les autorités ont pointé le rôle des audiences massives (jusqu’à 200 000 personnes connectées) dans l’escalade. Un principe simple : ne pas alimenter la machine, signaler au lieu de relayer, refuser de diffuser des extraits traumatiques.

Kick, Stake et l’économie de l’attention
Kick est lancé en 2022 par Ed Craven et Bijan Tehrani, aussi co-fondateurs de Stake, casino en ligne utilisant notamment les cryptomonnaies. Cette parenté alimente l’idée d’un modèle où l’engagement choc est rentable. Kick revendique une modération plus souple et un partage de revenus généreux. D’où un enjeu : quelles garanties éthiques quand l’attention est la devise principale ?
Dignité et handicap : lignes rouges
Exposer une personne vulnérable ou handicapée pour faire rire ou choquer heurte la dignité et la non-discrimination. L’argument « tout est scénarisé » ne suffit pas. En effet, la mise en scène d’atteintes peut causer des dommages réels. Cela concerne à la fois les concernés et les spectateurs. Par exemple, il y a un risque de banalisation des violences, désensibilisation et imitation.
Informer sans nuire face à une mort en direct
La déontologie journalistique et citoyenne commande : ne pas republier les images du décès, décrire plutôt que montrer, contextualiser plutôt que faire le buzz. Présomption d’innocence pour les individus tant que l’enquête n’est pas close. Toutefois, une évaluation de la responsabilité systémique est nécessaire dès maintenant. Cela inclut les plateformes, algorithmes et l’économie de l’attention.
Pistes concrètes pour agir
Pour les spectateurs
- Ne pas financer l’escalade : éviter dons conditionnés à la violence, refuser les défis dégradants, stopper le partage d’extraits choquants.
- Signaler systématiquement via les outils de la plateforme. De plus, alerter les autorités compétentes quand la vie ou l’intégrité sont en jeu.
- Adopter des réflexes d’hygiène numérique : « qui paie quoi ? qui y gagne ? quel risque humain ? »
Pour les créateurs et co-streamers
- Code de conduite : aucun défi portant atteinte à la dignité ou à la santé, droit de retrait sans pression et arrêt d’urgence à tout moment.
- Garde-fous opérationnels : imposer une durée maximale de live et prévoir des pauses obligatoires. En outre, un référent bien-être doit être désigné pour veiller au respect des règles. Ainsi, il faut assurer le bannissement immédiat des défis dangereux (strangulation, tirs à bout portant, ingestion de produits, privations prolongées).
- Traçabilité des scènes « jouées » vs réelles : les disclaimers ne suffisent pas ; la plateforme doit pouvoir couper.
Pour les plateformes
- Détection proactive en temps réel (violences, détresse, humiliations, mise en danger) avec un kill-switch humain.
- Parcours de créateur responsable : vérifications, formation, seuils anti-fatigue (lives longs), canal d’alerte pour les équipes et le public.
- Transparence : publier des rapports d’application des règles, communiquer sur les réponses aux signalements et sur les déréférencements.
- Coopération régulatoire : se conformer au DSA (évaluation/atténuation des risques, accès aux données pour les autorités), sous l’égide de l’Arcom.
Pour les pouvoirs publics et l’école
- Éducation aux médias renforcée : mécanique de l’attention, économie du live, pression du groupe, consentement.
- Procédures d’urgence mieux outillées : contacts directs plateformes-autorités-secours pour les lives à risque.
- Évaluation régulière de l’adéquation du cadre (DSA, SREN) aux spécificités du live continu et transfrontalier.

Partir des faits, analyser les mécanismes
Rester au plus près des faits établis : décès sans cause traumatique identifiée, enquêtes en cours, interrogations sur la modération. Puis analyser les incitations et rapports de force qui rendent possible et monétisable ce type de contenu (modèle économique, algorithmes, communautés, publics).
Prudence sur les responsabilités pénales individuelles tant que l’enquête n’est pas close. En revanche, la responsabilité systémique doit être examinée. En effet, cela inclut les plateformes, l’économie de l’attention et la conception des services. De plus, les comportements d’audience doivent également être pris en compte. Par conséquent, ce sujet peut et doit être débattu dès maintenant.