ACTUALITÉS TECH – Sam Altman affirme qu’on peut vite se retrouver dans une situation délicate si l’on partage ses secrets les plus intimes avec la technologie d’OpenAI.
De plus en plus d’utilisateurs s’appuient sur des outils d’IA dans leur vie quotidienne, et certains sollicitent même la plateforme pour des conseils médicaux, personnels ou professionnels. L’outil est devenu une sorte d’assistant personnel, capable de résoudre des problèmes du quotidien, ce qui conduit parfois à une dépendance excessive aux chatbots. Même si consulter une IA pour une thérapie peut sembler anodin, rien ne garantit la confidentialité des échanges, contrairement à l’aide professionnelle, où la discrétion est assurée. Beaucoup de personnes utilisent désormais les chatbots pour un soutien thérapeutique ou émotionnel. Contrairement à la thérapie traditionnelle, qui place le secret médical au cœur du processus, l’IA ne bénéficie pas du cadre juridique nécessaire à la protection des conversations confidentielles.
Sam Altman a récemment partagé ses inquiétudes concernant la divulgation d’informations très personnelles sur la plateforme. Altman reconnaît que les outils d’IA offrent aujourd’hui une meilleure compréhension émotionnelle et permettent des dialogues plus empathiques, assurant un certain niveau d’intimité. Toutefois, il met en garde : il ne faut pas compter sur l’IA pour un soutien thérapeutique ou émotionnel, car elle ne fonctionne pas comme un véritable service de santé mentale professionnel. Tant qu’aucune réglementation adaptée n’est en place, l’IA ne doit pas être considérée comme une alternative à la thérapie.
« Les gens parlent à ChatGPT des choses les plus personnelles de leur vie. Les jeunes, en particulier, l’utilisent comme thérapeute et coach de vie. Ils posent des questions sur leurs relations et demandent : “Que dois-je faire ?” Aujourd’hui, si vous discutez de ces problèmes avec un thérapeute, un avocat ou un médecin, cela relève du secret professionnel. Il y a le secret médical et la confidentialité juridique. Mais pour ChatGPT, nous n’avons pas encore trouvé de solution, » a déclaré Altman.
Comme il n’y a aucune confidentialité légale autour de ces outils d’IA, Altman appelle à la prudence et avertit des graves conséquences juridiques possibles. Si quelqu’un se retrouve impliqué dans des problèmes judiciaires, OpenAI devra fournir les conversations relatives à l’affaire. Il n’existe pas de protection juridique garantissant la confidentialité, et toutes les informations très personnelles partagées avec l’IA peuvent être divulguées. L’IA devrait bénéficier des mêmes droits à la vie privée, mais comme la technologie évolue si vite, la législation n’a pas pu suivre le rythme.
Source : WCCFTech, TechCrunch