TECH ACTUS – Les experts en sécurité affirment qu’il est facile de créer son propre chatbot, mais n’ignorez pas ses failles de sécurité…
Le chatbot de Microsoft pourrait, par exemple, permettre à un développeur de jeux de répondre à des questions sur son jeu, d’aider au réglage graphique des ports PC et même de fournir une solution aux problèmes techniques. En apparence, c’est une bonne chose, mais Zenity, un spécialiste de la sécurité de l’IA, affirme que Copilot Studio et les chatbots qu’il crée sont un cauchemar en matière de sécurité. Le CTO de l’entreprise, Michael Bargury, a creusé les détails lors de la conférence sur la sécurité Black Hat…
Les paramètres de sécurité par défaut de Copilot Studio ne sont pas applicables. Un utilisateur malveillant peut placer un code malveillant dans un e-mail innocent, demander au bot Copilot de l’analyser, et pouf, le code s’exécute. Ou bien Copilot pourrait proposer une fausse page de connexion Microsoft qui pourrait voler des informations d’identification en quelques secondes, le tout visible par le chatbot. Selon Zenity, une grande entreprise américaine moyenne exploite déjà 3 000 chatbots de ce type, et 63 % d’entre eux peuvent être détectés en ligne. Si c’est vrai, alors 2 000 bots dans une entreprise du Fortune 500 pourraient être capables de divulguer des données critiques et secrètes !
« Nous avons scanné Internet et avons trouvé des dizaines de milliers de ces bots. Il y a ici un problème fondamental. Lorsque vous donnez à l’IA l’accès aux données, ces données constituent désormais une surface d’attaque pour une injection rapide », a déclaré Bargury. Selon lui, les paramètres par défaut d’origine de Copilot exposaient les bots à Internet et pouvaient être consultés sans authentification. Zenity a soulevé cette question auprès de Microsoft, mais les bots sont toujours là avant la mise à jour…
Voici la réponse de Microsoft : « Nous apprécions le travail de Michael Bargury pour identifier et signaler de manière responsable ces techniques grâce à une divulgation coordonnée. Nous enquêtons sur ces rapports et améliorons continuellement nos systèmes pour détecter et atténuer de manière proactive ces types de menaces et contribuer à protéger nos clients. Comme d’autres techniques post-compromission, ces méthodes nécessitent une compromission préalable d’un système ou une ingénierie sociale. Microsoft Security fournit un ensemble robuste de protections que les clients peuvent utiliser pour faire face à ces risques, et nous nous engageons à continuer d’améliorer nos défenses à mesure que cette technologie évolue.
L’intelligence artificielle peut être un champ de mines.
Source: PCGamer, The Register, TechTarget