ACTUALITÉS TECH – On peut utiliser l’intelligence artificielle sans perdre pied avec la réalité.
Keith Sakata, psychiatre à l’Université de Californie à San Francisco, qui a déjà alerté sur la hausse des cas de psychose liée à l’IA, a partagé plusieurs conseils pour éviter des troubles de santé mentale. Le Dr Sakata indique avoir vu des dizaines de patients hospitalisés après une psychose associée à l’usage de l’IA. Il ajoute que, si l’IA n’est pas directement responsable des troubles psychiatriques, elle joue un rôle clé dans la boucle de rétroaction cognitive déformée qui conduit à la psychose.
La « psychose liée à l’IA » (terme non médical officiel) désigne un état où l’utilisateur d’un chatbot oublie qu’il parle à un logiciel et non à une personne. Sakata avertit avoir vu des personnes hospitalisées après avoir perdu le contact avec la réalité à cause de l’IA. En empêchant les utilisateurs vulnérables d’actualiser leurs croyances à l’épreuve du réel, l’usage de l’IA peut créer un schéma auto-renforcé où l’on ne reconnaît plus que le chatbot avec lequel on discute n’existe pas dans le monde réel.
Plus tard, lors d’un échange à TBPN, le Dr Sakata a évoqué des pistes permettant aux concepteurs d’IA d’éviter ces issues. Il a aussi partagé des méthodes pour protéger les personnes à risque afin qu’elles ne perdent pas le contact avec la réalité en raison de l’IA. Interrogé sur les conseils qu’il donnerait à ceux susceptibles de basculer vers un usage nocif de l’IA—ou dont les proches pourraient y basculer—Sakata a répondu :
« Pour l’instant, je pense que le plus important est de garder un humain dans la boucle. Nos relations, c’est un peu le système immunitaire de la santé mentale. Elles nous remontent le moral et peuvent intervenir quand quelque chose cloche. Donc, si vous ou un proche sentez que quelque chose ne va pas—pensées étranges, peut-être de la paranoïa, ou un problème de sécurité—demandez de l’aide. Sachez aussi que plus vous avez de personnes autour de vous, plus elles sont connectées entre elles, plus il y a d’êtres humains entre vous et l’IA, plus la boucle de rétroaction devient saine, au moins à ce stade. Je ne pense pas que nous en soyons au point d’avoir un thérapeute IA, mais qui sait », a déclaré Sakata.
L’essor et la popularité de l’IA soulèvent des inquiétudes en matière de sécurité. Nous avons récemment rapporté que, selon Meta, il serait acceptable que son chatbot IA flirte avec des mineurs.
Keith Rabois, Alfred Lin & More | Wednesday, August 13th https://t.co/Ki45nVku2x
— TBPN (@tbpn) August 13, 2025
Source : WCCFTech