Dans une étude publiée le 27 octobre, OpenAI, l’entreprise derrière ChatGPT, estime qu’environ 0,07 % des utilisateurs actifs au cours d’une semaine donnée indiquent des signes possibles d’urgences de santé mentale liées à la psychose ou à la manie. Au total, 0,15 % des utilisateurs parleraient de leurs intentions suicidaires avec le chatbot, soit environ 1,2 million de personnes chaque semaine 1.

  • Sam Altman a déclaré au début du mois d’octobre que ChatGPT avait passé la barre des 800 millions d’utilisateurs actifs par semaine — deux fois plus que six mois auparavant 2.
  • Aujourd’hui, environ une personne sur dix dans le monde utiliserait ainsi régulièrement le chatbot d’OpenAI. Dans les années 1990, il avait fallu 13 ans à Internet pour atteindre le même nombre d’utilisateurs 3.
  • L’utilisation croissante de ChatGPT et le développement pour certains usagers d’une forme de dépendance vis-à-vis du chatbot soulève toutefois de nombreux problèmes liés à la santé mentale auxquels l’entreprise peine à faire face.

Cette relation pourrait continuer à se développer au cours des prochaines années à mesure que les utilisateurs se servent plus du chatbot pour des questions d’ordre personnel que professionnel, comme l’ont souligné des chercheurs d’OpenAI en septembre. La demande à ChatGPT de conseils d’ordre pratique liés à la santé, à l’éducation, au sport ou à l’enseignement représente aujourd’hui 28,3 % des requêtes, et la recherche d’informations générales environ 21 %.

OpenAI affirme que la dernière mise à jour de ChatGPT, GPT-5, améliorerait la sécurité des utilisateurs et réduirait le nombre de « comportements indésirables ».

  • L’entreprise fait actuellement l’objet d’une plainte déposée par la famille d’un adolescent californien qui a pris sa propre vie au printemps après avoir discuté de différentes manière de se suicider avec le chatbot 4.
  • Si l’affaire Adam Raine a été parmi les plus médiatisées, des milliers de témoignages en ligne mettent en exergue une dépendance émotionnelle et psychologique vis-à-vis du chatbot, qui peine à détecter et agir face à des signes de détresse.
  • Selon une étude du MIT en collaboration avec OpenAI, 17 à 22 % des utilisateurs considèrent ChatGPT comme un « ami », et 10 à 12 % se disent être « à l’aise » pour partager des choses avec le chatbot plutôt que des personnes réelles 5.

OpenAI dit collaborer avec une centaine de psychiatres, psychologues et médecins pour améliorer la manière dont ChatGPT réagit face à des risques graves pour la santé mentale, notamment en « désamorçant » les conversations et en fournissant un accès à des lignes d’assistance téléphonique d’urgence.

  • L’utilisation intensive du chatbot semble toutefois constituer un défi pour apporter une réponse adaptée, plusieurs études ayant démontré que les performances des modèles de langage se dégradent lorsque les conversations deviennent longues.
  • Selon une étude dirigée par Philippe Laban et Hiroaki Hayashi, les LLM perdent en aptitude et en fiabilité quand les sujets des conversations changent à plusieurs reprises d’orientation au cours d’une même session 6.
  • Or, de nombreux utilisateurs ont témoigné du fait que c’est au cours de longues sessions, qui se produisent la plupart du temps la nuit, que ChatGPT a « renforcé leurs pensées délirantes » 7.
Sources
  1. Strengthening ChatGPT’s responses in sensitive conversations, OpenAI, 27 octobre 2025.
  2. Rebecca Bellan, « Sam Altman says ChatGPT has hit 800M weekly active users », TechCrunch, 6 octobre 2025.
  3. Dan Clark et Caroline Nevitt, « How AI became our personal assistant », Financial Times, 7 octobre 2025.
  4. Raine v. OpenAI, août 2025.
  5. Phang, J., Lampe, M., Ahmad, L., Agarwal, S., Fang, C. M., Liu, A. R., et.al, « Investigating affective use and emotional well-being on ChatGPT », 21 mars 2025.
  6. Laban, P., Hayashi, H., Zhou, Y., & Neville,« LLMs get lost in multi-turn conversation », 9 mai 2025.
  7. Louise Matsakis, « OpenAI Says Hundreds of Thousands of ChatGPT Users May Show Signs of Manic or Psychotic Crisis Every Week », Wired, 27 octobre 2025.