ChatGPT déploie un contrôle parental : une nouvelle option pour sécuriser l’usage des ados

OpenAI vient d’activer une fonctionnalité très attendue : un contrôle parental intégré à ChatGPT. Les parents peuvent désormais lier leur compte à celui de leur enfant, fixer des limites horaires et désactiver certaines fonctions sensibles. Un dispositif d’alerte complète ce système pour signaler d’éventuelles situations préoccupantes.

Un contrôle parental pensé pour encadrer l’usage familial

Avec plus de 700 millions d’utilisateurs hebdomadaires, ChatGPT s’impose dans de nombreux foyers. Pour mieux protéger les plus jeunes, OpenAI lance ce 29 septembre 2025 une option de liaison de compte parent-enfant, accessible via l’onglet Contrôle parental dans les paramètres. Une fois activée, elle permet aux parents de :

  • Définir des plages horaires d’utilisation,
  • Désactiver le mode vocal avancé,
  • Bloquer la mémoire ou l’historique des conversations,
  • Interdire la génération d’images,
  • Empêcher que les discussions servent à l’entraînement du modèle.

Ces réglages sont modulables à tout moment, de façon simple et indépendante.

Une protection renforcée par défaut

Au-delà des réglages manuels, OpenAI a intégré un système de filtres automatiques qui s’active dès qu’un compte adolescent est relié à celui d’un parent. Ces filtres réduisent l’accès à du contenu explicite, violent, sexuellement suggestif ou lié à des idéaux esthétiques extrêmes. Les parents peuvent désactiver ce mécanisme, mais les adolescents n’ont aucun moyen d’y accéder.

Un système d’alerte en cas de détresse

Autre nouveauté majeure : la mise en place d’un dispositif d’alerte. Si ChatGPT détecte chez un adolescent des signes de détresse psychologique, une équipe dédiée évalue la situation. En cas de danger jugé sérieux, les parents sont immédiatement avertis par email, SMS et notification.

OpenAI précise travailler avec des experts en santé mentale et en jeunesse pour fiabiliser ce système, tout en reconnaissant que des faux positifs restent possibles. « Nous préférons alerter à tort plutôt que rester silencieux face à un risque », affirme l’entreprise.

Les prochains projets d’OpenAI

Pour aller plus loin, deux développements sont déjà à l’étude :

  • un protocole pour prévenir directement les services de secours en cas d’urgence vitale,
  • un système de prédiction d’âge afin d’orienter automatiquement les mineurs vers une expérience adaptée.

Aucune date n’a encore été communiquée pour ces ajouts.

OpenAI mise ainsi sur une approche plus stricte et réactive de la sécurité des adolescents, un sujet particulièrement sensible après plusieurs polémiques récentes. Cette nouvelle option pourrait bien devenir un argument clé pour les familles soucieuses d’un usage plus sûr de l’IA.