TECH ACTUS – Ce n’est pas un hasard si Sam Altman, le PDG d’OpenAI, la société à l’origine de ChatGPT, a déclaré qu’une mauvaise utilisation de l’intelligence artificielle pourrait être “la lumière éteinte pour tous”.
Checkpoint a signalé que les cybercriminels ont trouvé une faille afin qu’ils n’aient pas à se conformer aux limites de modération de contenu de ChatGPT et qu’ils puissent gagner de l’argent en le faisant. ChatGPT peut générer du code malveillant ou éventuellement en développer un nouveau à partir d’e-mails de phishing pour moins de six dollars. Pour ce faire, ils ont utilisé l’API (interface de programmation d’application) d’OpenAI pour créer des bots spéciaux pour la populaire application de messagerie Telegram.
Ils pouvaient accéder au ChatGPT illimité via l’application, et les cybercriminels facturent environ 5,5 $ pour cent requêtes. Les clients peuvent obtenir des exemples de contenu préjudiciable généré par l’IA. D’autres pirates ont dépassé les défenses de ChatGPT en créant un script spécial (encore une fois, en utilisant l’API d’OpenAI), qui a ensuite été publié sur GitHub. Le “côté obscur” de ChatGPT peut se déguiser en banque ou en entreprise et vous montrer dans un e-mail où vous devez placer un lien vers un site de phishing (sur lequel vous ne devez pas cliquer).
Si ce n’était pas assez effrayant, cela pourrait développer davantage de code malveillant (malware). Checkpoint avait précédemment expliqué à quel point il est facile de créer des logiciels malveillants malveillants sans aucune connaissance en programmation (aucune n’est requise, vous pouvez être un noob), en particulier sur les versions antérieures de ChatGPT, avant qu’OpenAI ne commence à resserrer les conditions d’utilisation autour de la technologie, ce que Microsoft va postulez après la mise à jour du moteur de recherche Bing, car une IA peut être utilisée pour discuter afin de fournir des réponses plus conviviales et significatives à des questions plus ouvertes. Cela pourrait être un autre sujet intéressant autour du matériel protégé par le droit d’auteur.
Comme l’usurpation de voix est déjà possible avec l’IA (n’importe qui peut dire quelque chose qu’il ne dirait pas dans la vraie vie), qui sait où aller à partir d’ici ?
Source : PCGamer