À la date du 27 octobre 2025, OpenAI a publié un billet détaillant les améliorations majeures apportées à ChatGPT afin de mieux répondre aux situations de détresse mentale, de mania, de psychose ou d’abus émotionnel. Cette démarche s’inscrit dans un contexte où les usages de l’IA ne se limitent plus à des requêtes informatives, mais touchent profondément la dimension émotionnelle et existentielle des utilisateurs.
Pourquoi ce chantier ?
OpenAI constate que même si les conversations à risque sont très rares en proportion — environ 0,07 % des utilisateurs actifs hebdomadaires manifestent potentiellement des signes de psychose ou de mania, et environ 0,01 % des messages pourraient être liés à ce type d’urgence. Néanmoins, même de faibles volumes peuvent receler des enjeux très forts : lorsqu’un utilisateur est en crise, la réponse du chatbot peut faire la différence entre un accompagnement responsable et un renforcement involontaire de la spirale néfaste.
Par ailleurs, certains médias ont révélé que des jeunes utilisaient ChatGPT comme « confident principal », parfois au détriment d’un suivi humain, ce qui a réveillé l’urgence d’un cadrage renforcé.
Pour ces raisons, OpenAI a engagé une refonte de la stratégie de sécurité et d’accompagnement : non seulement bloquer les contenus dangereux, mais faire de l’IA un compagnon capable de repérer et d’orienter plutôt que de simplement répondre.
Les grandes lignes de l’approche
Collaboration avec des experts
OpenAI a mobilisé plus de 170 professionnels de la santé mentale (psychiatres, psychologues, intervenants de crise) pour guider la conception de ces améliorations. Leur rôle : définir des taxonomies (catégories) de conversations sensibles, évaluer les réponses idéales et indésirables, et aider à entraîner le modèle afin qu’il réponde avec empathie et compétence.
Amélioration du modèle de base
Une mise à jour du modèle par défaut de ChatGPT (basé sur le modèle GPT‑5) a été déployée le 3 octobre 2025. Selon l’addendum à la « System Card », cette version a permis une réduction de 65 % à 80 % des réponses jugées non conformes aux objectifs de sécurité, conformément aux indicateurs établis. Pour les conversations liées à la santé mentale aiguë (psychose, mania) un test a montré une diminution de 39 % des réponses indésirables par rapport à la version antérieure (n = 677)
Nouveaux indicateurs de sécurité
Au-delà des risques classiques (suicide, automutilation), OpenAI introduit désormais deux nouveaux volets : la dépendance émotionnelle à l’IA (« emotional reliance ») et les urgences de santé mentale non suicidaires. Le modèle doit désormais reconnaître des signaux plus subtils : isolement, fixations, confiance excessive dans l’IA, propos incohérents pouvant indiquer une psychose.
Processus en cinq étapes
Pour renforcer la robustesse de l’IA, OpenAI décrit un schéma :
Définir le problème
Commencer à le mesurer (évaluations, données réelles)
Valider les définitions avec des experts
Mitiger les risques (post-entraînement, interventions produit)
Monitorer en continu.
Product interventions & routage des risques
L’entreprise a mis en place des « routes » pour que certaines conversations — détectées comme à haut risque — soient automatiquement redirigées vers un modèle de raisonnement plus lourd (par exemple GPT-5 Thinking) ou vers des ressources humaines/numériques spécialisées. Un autre exemple : des rappels automatiques à « faire une pause » lors de sessions prolongées.
Impact & chiffres clés
Une réduction attendue des réponses non conformes de 65 à 80 % dans les scénarios à risque.
Un indicateur « psychose/mania » de 0,07 % des utilisateurs actifs hebdomadaires : bien que faible, cela représente un flux de milliers d’utilisateurs dans une base de centaines de millions.
Des mesures concrètes visant à ne pas faire du chatbot un substitut thérapeutique mais un compagnon d’orientation : l’IA guide vers une aide humaine, refuse certaines formes de support direct.
Bien intégrer la dimension chatgpt gratuit
Il est important de souligner que même les utilisateurs de la version chatgpt gratuit font partie de cette dynamique : l’accès libre à ChatGPT implique que les protections ne s’appliquent pas seulement à la version payante. Ainsi, la gratuité ne doit pas être synonyme de faiblesse sur le plan de la sécurité. Dans la pratique, les versions gratuites permettent déjà un accès aux nouveaux garde-fous, et l’abonnement reste un levier de fonctionnalités supplémentaires, mais non un choix de sécurité.
Enjeux et perspectives
Éthique & responsabilité
L’IA intervenant sur des sujets de santé mentale pose des questions éthiques majeures : l’IA ne remplace pas un thérapeute, ne doit pas valider des croyances délirantes, et doit garantir une orientation vers un soutien humain. La politique d’OpenAI explicite que le modèle “doit soutenir et respecter les relations réelles de l’utilisateur”.
Transparence & confiance
Pour bâtir la confiance, OpenAI publie ses résultats, ses taux d’échec, ses méthodologies. L’addendum de la system card est un exemple de cette transparence. Une telle ouverture est précieuse dans un contexte de scrutins des autorités.
Adoption et limitation
Même si les mises à jour techniques sont effectives, leur impact réel dépendra de l’usage. Certaines recherches montrent que malgré les garde-fous, des utilisateurs vulnérables peuvent continuer à solliciter l’IA en substitution de l’aide humaine. L’adoption des fonctionnalités — rappels de pause, routage vers aide – exige aussi une sensibilisation des utilisateurs.
Élargissement à d’autres domaines sensibles
Le modèle de travail d’OpenAI peut être étendu à d’autres domaines à risque : addiction, troubles du comportement alimentaire, radicalisation, etc. L’approche par taxonomies et experts devient alors un modèle trans-domaines.
Conclusion
En résumé, « Strengthening ChatGPT’s responses in sensitive conversations » marque un tournant décisif : l’IA liée à ChatGPT ne se contente plus d’être un outil de réponse, mais devient un partenaire conscient des enjeux émotionnels et psychologiques de l’utilisateur. Grâce à une collaboration avec 170 + experts, à une mise à jour du modèle par défaut (réduction de 65-80 % des réponses non conformes) et à une approche systématique de routage et d’intervention, OpenAI fait le pari d’un usage plus sûr et plus respectueux.
Pour les utilisateurs — qu’ils utilisent la version gratuite ou payante — cela signifie que chaque interaction sur des sujets sensibles peut être mieux accompagnée. La gratuité ne signifie pas absence de protection. Le défi reste immense : s’assurer que l’IA intervient de façon pertinente, qu’elle évite de devenir un substitut à l’aide humaine, et qu’elle contribue à renforcer — plutôt qu’à substituer — les liens sociaux et professionnels d’accompagnement.

