ACTUALITÉS TECH – Un psychiatre de l’UCSF alerte : il a vu 12 hospitalisations en 2025 liées à un usage intensif de chatbots chez des personnes à risque.
Le Dr Keith Sakata explique sur X/Twitter que les chatbots fondés sur des grands modèles (LLM) peuvent refléter la pensée de l’utilisateur et s’insérer dans les boucles de rétroaction du cerveau, aggravant les symptômes chez les sujets vulnérables.
I’m a psychiatrist.
In 2025, I’ve seen 12 people hospitalized after losing touch with reality because of AI. Online, I’m seeing the same pattern.
Here’s what “AI psychosis” looks like, and why it’s spreading fast: 🧵 pic.twitter.com/YYLK7une3j
— Keith Sakata, MD (@KeithSakata) August 11, 2025
Son post survient après un fait divers en Floride impliquant Alexander Taylor (antécédents psychiatriques), devenu obsédé par une entité IA (« Juliet ») avant de sombrer dans la violence et les menaces, puis de décéder lors d’une intervention policière. Pour Sakata, trois ressorts favorisent une « psychose induite par l’IA » : une vulnérabilité de base (difficulté à mettre à jour ses croyances), l’effet miroir des LLM, et un ton très « complaisant » des chatbots qui masque la rupture avec le réel.
Ces mises en garde font écho aux analyses antérieures du psychiatre danois Søren Dinesen Østergaard, qui estime plausible et préoccupante l’émergence de délires induits par l’IA, notamment chez des personnes isolées et enclines à anthropomorphiser les chatbots. OpenAI a indiqué au New York Times que ChatGPT peut paraître plus « personnel » aux individus vulnérables que des technologies précédentes, et dit travailler à réduire les risques de renforcement involontaire de comportements négatifs.
Sources : WCCFTech, New York Times, Schizophrenia Bulletin (OUP), Acta Psychiatrica Scandinavica (Wiley)