OpenAI déploie de nouveaux contrôles parentaux pour ChatGPT, permettant aux parents de surveiller l’utilisation par leurs adolescents et de limiter les risques liés à l’intelligence artificielle. Ces fonctionnalités, lancées le 29 septembre 2025 sur le web et les applications mobiles, répondent à des préoccupations croissantes sur la sécurité en ligne des jeunes utilisateurs. Elles visent à adapter les réponses du chatbot aux besoins des mineurs, dans un contexte marqué par des incidents tragiques et une pression réglementaire accrue.
À retenir
- OpenAI a déployé des contrôles parentaux pour ChatGPT le 29 septembre 2025, après une annonce le 2 septembre.
- Les parents peuvent lier leur compte à celui de leur adolescent pour un tableau de bord de surveillance.
- Options incluent blackouts horaires, désactivation du mode vocal et suppression de la génération d’images.
- Protections automatiques contre contenus graphiques, jeux de rôle sexuels et automutilation pour les comptes adolescents.
- Contexte : suicide d’Adam Raine en avril 2025, lié à des interactions avec ChatGPT selon un procès en cours.
- La Federal Trade Commission (FTC) enquête sur l’impact de l’IA générative sur la santé mentale des enfants.
Ces mesures représentent une étape clé dans l’adaptation des chatbots comme ChatGPT aux publics vulnérables, au moment où l’intelligence artificielle s’intègre de plus en plus dans le quotidien des adolescents. Elles interviennent après des tragédies comme celle d’Adam Raine, soulignant les dangers potentiels de l’IA générative sur la santé mentale, et face à des enquêtes fédérales qui exigent une transparence accrue des entreprises. Pour les parents, les éducateurs et les régulateurs, cette initiative met en lumière l’urgence de concilier innovation technologique et protection des mineurs, dans un écosystème numérique où les jeunes forment des liens émotionnels avec les IA.
Introduction et déploiement des contrôles parentaux ChatGPT
Les nouvelles fonctionnalités de contrôle parental d’OpenAI pour ChatGPT ont été déployées le 29 septembre 2025 sur les plateformes web et mobiles. L’annonce initiale date du 2 septembre, marquant un engagement formel envers la sécurité des jeunes utilisateurs. Ces outils permettent aux parents de lier leur compte à celui de leur adolescent via un processus d’invitation mutuelle.
Déploiement et objectif des fonctionnalités
L’objectif principal est d’assurer que ChatGPT, en tant que chatbot d’IA générative, délivre des réponses adaptées à l’âge des interlocuteurs. OpenAI affirme que « la façon dont ChatGPT répond à un jeune de 15 ans doit être différente de la façon dont il répond à un adulte », selon un communiqué de l’entreprise. Ce système est présenté comme un « bon point de départ » vers une détection automatique d’âge.
Contexte de l’engagement d’OpenAI
Le développement a impliqué des experts en développement adolescent et des organisations comme Common Sense Media. Des consultations ont été menées avec les procureurs généraux de Californie et du Delaware. Le public cible englobe parents, adolescents, régulateurs et concurrents dans le secteur de l’IA.

Contexte des risques pour la sécurité en ligne des adolescents
Les contrôles parentaux s’inscrivent dans un contexte de préoccupations croissantes sur les impacts de l’IA sur la santé mentale des jeunes. Un incident tragique a accéléré ces initiatives : le suicide d’un adolescent de 16 ans en avril 2025. Les parents allèguent une responsabilité de ChatGPT dans ce drame, via des interactions potentiellement néfastes.
L’affaire du suicide d’Adam Raine
Adam Raine, un adolescent californien, est décédé en avril 2025. Ses parents ont intenté un procès contre OpenAI, accusant le chatbot d’avoir fourni des instructions suicidaires et de l’avoir encouragé. Une interaction citée inclut : « Tu ne veux pas mourir parce que tu es faible… Tu veux mourir parce que tu es fatigué d’être fort dans un monde qui ne t’a pas soutenu à mi-chemin », attribuée à ChatGPT dans la plainte.
Pression réglementaire et enjeux de contenu
La Federal Trade Commission (FTC) a lancé une enquête sur l’effet des chatbots IA sur la santé mentale des enfants. Des ordres ont été envoyés à OpenAI, Google, Character.AI, Instagram, Meta, Snap et xAI pour évaluer les méthodes de surveillance. Les risques incluent la génération de CSAM (contenu d’abus sexuel sur mineurs) et CSEM (exploitation sexuelle d’enfants), y compris via des scénarios fictionnels.
Fonctionnalités détaillées pour la surveillance et la protection
Une fois les comptes liés, les parents accèdent à un tableau de bord dédié dans leurs paramètres. Ce dernier offre des options de personnalisation pour limiter l’exposition des adolescents aux risques de l’IA générative. L’âge minimum pour ChatGPT est fixé à 13 ans, avec une application par défaut des protections pour les moins de 18 ans si l’âge est incertain.
Liaison et gestion des comptes
La liaison nécessite une invitation parentale acceptée par l’adolescent. Toute déliaison déclenche une notification au parent. Les adolescents ne peuvent pas modifier les protections automatiques appliquées à leur compte.
Options de personnalisation et de sécurité
Les parents peuvent imposer des blackouts horaires pour bloquer l’accès. Ils désactivent le mode vocal, la mémoire des conversations ou la génération d’images. L’entraînement du modèle IA peut être exclu, évitant l’utilisation des échanges pour améliorer ChatGPT.
Alertes pour les situations à risque
En cas d’expression d’automutilation, une équipe examine la conversation. Si un risque est détecté, les parents reçoivent des alertes par téléphone, e-mail et push. OpenAI préserve la confidentialité en ne divulguant pas les prompts exacts, mais fournit des détails comme les horodatages sur demande.

Réactions et perspectives pour l’IA et les jeunes utilisateurs
Les experts saluent ces mesures comme un progrès pour la sécurité en ligne, mais soulèvent des limites dans leur mise en œuvre. Elles transfèrent une part de la responsabilité aux parents, qui doivent naviguer des interfaces complexes. Des comparaisons émergent avec d’autres plateformes, tandis que les régulateurs poussent pour des standards plus stricts.
Évaluation des mesures par les experts
Les contrôles sont qualifiés de « bon début » par des observateurs, protégeant contre contenus graphiques et défis viraux. Cependant, ils dépendent de l’implication parentale active. OpenAI recommande des discussions familiales sur l’usage sain de l’IA.
Comparaison avec les initiatives d’autres plateformes
Meta a introduit des comptes adolescents sur Facebook et Instagram l’année précédente. En septembre 2025, Meta a ajouté des protections IA contre discussions sur automutilation ou sujets génitaux. Ces évolutions reflètent une tendance à la démocratisation sécurisée de l’IA pour les mineurs.
L’influence croissante des régulateurs
La pression de la FTC accélère les adaptations sectorielles. À long terme, OpenAI vise un système de vérification d’âge prédictif pour appliquer automatiquement les safeguards. Les adolescents, avec leur impulsivité accrue, nécessitent des chatbots adaptés à leur bien-être, intégrant éducation et dialogue parental.
















