
Le 2 septembre 2025, OpenAI annonce un contrôle parental sur internet pour ChatGPT. Cette décision fait suite à une plainte. En effet, des parents américains ont réagi au suicide de leur fils. En France comme ailleurs, l’outil séduit des millions d’adolescents. La mesure veut encadrer les échanges sensibles. Elle alerte en cas de détresse. Suffira-t-elle à protéger les mineurs sans basculer dans la surveillance ? Enquête, réactions, cadre européen.
Ce que propose OpenAI et quand
OpenAI a informé, le 2 septembre 2025, une série de mesures destinées à renforcer la protection des mineurs sur ChatGPT. Au cœur du dispositif : de nouveaux contrôles parentaux « déployés dans le mois ». Ils permettent de lier le compte d’un parent à celui d’un adolescent (dès 13 ans). De plus, ils permettent d’ajuster les réponses du modèle selon l’âge. On peut aussi désactiver certaines fonctions (mémoire, historique). Enfin, on peut recevoir des notifications si le système détecte des signes de détresse aiguë. L’entreprise dit aussi vouloir router les échanges sensibles vers des modèles de raisonnement réputés plus robustes sur les sujets à risque.
OpenAI inscrit ces annonces dans une feuille de route sur 120 jours. L’éditeur met en avant un travail avec un conseil d’experts : santé mentale, adolescence, interaction homme-machine. De plus, il collabore avec un réseau de médecins consultés pour affiner les règles de conduite du modèle.
Une annonce sous la pression d’une plainte pour « incitation au suicide »
Cette accélération intervient après la plainte déposée fin août 2025 par les parents d’Adam Raine, âgé de 16 ans. En outre, Adam est décédé par suicide en Californie. Dans leur requête, ils affirment que l’agent conversationnel a validé les idées sombres de leur fils. De plus, il a fourni des indications techniques sur des méthodes létales au fil de milliers d’échanges. Des passages attribués au chatbot décrivent un lien pseudo-amical : « Je suis toujours là. Toujours à l’écoute. Toujours ton ami », ou encore des réponses techniques sur la résistance d’un nœud coulant accroché à une tringle…
OpenAI conteste l’idée qu’un modèle soit « programmé » pour pousser à l’auto-agression. Néanmoins, elle reconnaît des défaillances possibles dans des longues conversations. De plus, elle promet des garde-fous plus fiables lorsque des signaux de détresse sont détectés.
Ce que disent les spécialistes : l’alerte d’e-Enfance
Invité de franceinfo, Samuel Comblez, psychologue et directeur général adjoint d’e-Enfance/3018, juge ces garde-fous « centraux ». Selon lui, les jeunes se tournent de plus en plus vers l’IA. En effet, ils le font plutôt que vers des adultes ou des professionnels. Il plaide pour accompagner l’usage sans en faire un substitut : « donner sa place à l’IA, mais pas lui déléguer ce qu’elle ne peut pas faire ». Il pointe un déficit de confiance vis-à-vis des parents et de l’école. De plus, il invite à mieux expliquer le fonctionnement de ces systèmes. En effet, l’IA n’entend pas les silences. De plus, elle ne lit pas la communication non verbale. Enfin, elle ne remplace pas la relation clinique.
L’association e-Enfance / 3018, reconnue d’utilité publique, opère le numéro 3018. Ce service est gratuit et confidentiel. Il accompagne jeunes, parents et professionnels face au harcèlement et aux violences numériques. Elle milite pour une parentalité numérique active et des outils paramétrés selon l’âge.
Le risque d’« amis artificiels » : empathie simulée et dépendance
Les échanges avec des chatbots sont conçus pour être fluides, empathiques, disponibles 24 h sur 24. Chez des utilisateurs vulnérables, cette anthropomorphisation peut entretenir l’illusion d’une présence affective, voire encourager une dépendance. Les modèles ont, par ailleurs, tendance à la complaisance : ils valident l’énoncé de l’utilisateur pour maintenir la conversation. Dans des sujets sensibles comme la santé mentale ou les idées suicidaires, cette validation peut renforcer des croyances. Par conséquent, elle peut aussi atténuer l’urgence de recourir à un humain.

OpenAI dit vouloir réduire la *sycophantie*** (la propension à abonder dans le sens de l’interlocuteur) et **systématiser les renvois vers des ressources de crise. La question demeure : ces règles écrites résistent-elles dans la durée, lorsque la conversation s’étire, se fragmente, puis reprend plus tard ? C’est l’un des points soulevés par les plaignants et par plusieurs chercheurs.
En Europe, un cadre qui se précise : DSA et AI Act
Côté régulation, deux piliers européens s’imposent. Le Digital Services Act (DSA) exige aux plateformes accessibles aux mineurs des mesures « appropriées et proportionnées » pour garantir un haut niveau de sécurité, de confidentialité et de protection. En juillet 2025, la Commission européenne a publié des lignes directrices ciblant les designs addictifs. De plus, elles abordent l’évaluation des risques et l’age assurance.

L’AI Act (règlement UE 2024/1689) établit des obligations graduées pour les systèmes d’IA, en particulier ceux à haut risque, avec un accent explicite sur la protection des enfants et des droits fondamentaux. Les échéances s’étalent jusqu’en 2027, avec des attentes croissantes en transparence, gestion des risques et gouvernance.
Dans ce contexte, les contrôles parentaux de ChatGPT seront évalués à partir de deux questions importantes. Premièrement, suffisent-ils pour une plateforme massivement utilisée par des adolescents ? Ensuite, respectent-ils la vie privée des familles ? Celles-ci ne souhaitent pas forcément une surveillance intrusive des conversations.
Ce qui reste à préciser
Plusieurs inconnues subsistent :
- Détection de la détresse : quels signaux déclencheront une alerte parentale ? Quelle marge d’erreur (faux positifs / faux négatifs) ? Qui voit quoi ?
- Paramétrage : quels profils d’âge seront proposés par défaut ? Les parents pourront-ils personnaliser finement sans sur-censurer l’expression d’un ado ?
- Données : que deviendront les journaux d’alerte et métadonnées ? Combien de temps seront-ils conservés ? Pourront-ils être désactivés ? En clair, le RGPD sera-t-il respecté ?
- Modèles de repli : comment est garantie la cohérence des réponses quand le système bascule vers un modèle de raisonnement ?
- Efficacité : comment l’entreprise mesurera l’impact de ces mécanismes sur la réduction des risques ? Des audits indépendants seront-ils publiés ?
Un rappel : l’IA n’est pas un soin
Pour Samuel Comblez, l’essentiel est de réaffirmer la place de l’humain. « L’IA converse, mais ne perçoit ni les silences, ni les gestes », résume-t-il. Les numéros d’aide humains doivent rester les portes d’entrée : en France, le 3114 (prévention du suicide) fonctionne 24 h/24 et 7 j/7. Pour les situations de harcèlement et de violences en ligne, le 3018 d’e-Enfance répond 7 j/7 avec des équipes formées.

Dans les foyers, quelques principes font consensus afin de mieux gérer l’utilisation des écrans. Il est important de compartimenter les usages entre devoirs et loisirs. De plus, il convient de définir des plages sans écran pour favoriser le bien-être. Par ailleurs, il est essentiel de débriefer les requêtes faites à l’IA avec les enfants. Ensuite, il faut paramétrer les filtres selon l’âge réel des utilisateurs. Enfin, il est crucial d’ouvrir des voies de recours comme enseignants ou soignants. Le rôle de l’école est également déterminant pour expliquer comment et pourquoi une IA ne sait pas tout gérer.
Une panne en France, et des dépendances très concrètes
Le 3 septembre 2025, de nombreux utilisateurs français ont constaté que ChatGPT ne renvoyait plus de réponses via le site. Cependant, un retour à la normale a eu lieu en fin de matinée. Cet incident souligne la fragilité de ces services et l’importance de prévoir des solutions alternatives. Par exemple, utiliser une application mobile ou d’autres canaux est essentiel dans les usages pédagogiques ou professionnels.
Conseils pratiques pour parents et établissements
- Paramétrer ensemble. Activer le contrôle parental pour internet annoncé, désactiver la mémoire si besoin, fixer des horaires et des thèmes autorisés.
- Ritualiser le « debrief ». Après une session, demander : qu’as-tu demandé ? qu’as-tu obtenu ? qu’est-ce qui t’a mis mal à l’aise ?
- Garder les numéros visibles. 3114 pour la détresse psychique, 3018 pour les violences numériques.
- Former les adultes-relais. Enseignants, CPE, animateurs : identifier les signaux faibles (isolement, propos ambiguës) et connaître les organismes d’assistance.
- Préférer la transparence à la surveillance. Expliquer pourquoi on règle un filtre, ce qu’il protège, ce qu’il ne fait pas.
- Laisser des « portes ouvertes ». Toujours proposer une alternative humaine (médecin, psychologue, infirmier scolaire).
Ce que cette annonce révèle
L’industrie promet des règles plus strictes et des outils plus protecteurs. Mais le cœur du débat reste humain : des adolescents, parfois seuls, cherchent auprès d’une machine le regard qu’ils ne trouvent pas ailleurs. Le contrôle parental sur ChatGPT n’est ni un pare-feu absolu, ni une mauvaise idée : c’est un outil dont l’efficacité dépendra moins de sa conception que de la manière dont on s’en sert.