L’IA est capable de cyberattaques sophistiquées, avertit Anthropic!

ACTUALITÉS TECH – Le « vibe hacking » est le terme employé pour désigner cette nouvelle forme de cybercriminalité alimentée par l’intelligence artificielle, qui permet désormais de mener des attaques très sophistiquées.

 

La cybercriminalité progresse dans le monde entier et les attaques deviennent de plus en plus élaborées. L’accessibilité croissante des outils d’IA générative modifie la nature des ransomwares, qui sont désormais exploités différemment. L’IA ne se limite plus à rédiger des messages de rançon effrayants : elle exécute elle-même les actions. Elle n’est donc plus seulement un outil de communication, mais un élément central du crime numérique.

Anthropic a indiqué avoir identifié et neutralisé plusieurs pirates qui tentaient d’utiliser ses systèmes Claude pour des activités malveillantes, comme l’envoi de courriels de phishing ou le contournement des mesures de sécurité intégrées. En révélant ces nouvelles méthodes d’exploitation et les abus sophistiqués de ses modèles Claude, l’entreprise met en lumière les stratégies employées par les cybercriminels pour mener leurs attaques.

Un groupe de pirates a notamment utilisé Claude Code, l’agent de codage IA d’Anthropic, pour mener une campagne complète de cyberattaques visant 17 organisations, dont des agences gouvernementales, des prestataires de santé, des institutions religieuses et des services d’urgence. Le modèle a généré les messages de rançon et exécuté l’intégralité du processus de piratage. Anthropic a baptisé cette menace « vibe hacking », car elle exploite la capacité de l’IA à exercer une pression émotionnelle ou psychologique sur les victimes afin de les contraindre à payer ou à divulguer des données sensibles.

Le groupe aurait exigé plus de 500 000 dollars de rançon, illustrant le rôle croissant de l’IA dans les extorsions numériques de grande ampleur. Anthropic a également souligné que ces abus ne se limitaient pas aux ransomwares : certains escrocs ont utilisé l’IA pour obtenir frauduleusement des postes dans des entreprises du Fortune 500, en contournant leurs lacunes linguistiques ou techniques lors du processus de recrutement.

D’autres exemples incluent des arnaques sentimentales sur Telegram, où des bots créés avec Claude ont permis de rédiger des messages multilingues convaincants et de générer des compliments flatteurs à destination de victimes aux États-Unis, au Japon et en Corée du Sud. Face à ces activités illégales, Anthropic a bloqué des comptes, renforcé les garde-fous et partagé ses informations avec les autorités gouvernementales. La société a également mis à jour sa politique d’utilisation afin d’interdire la création d’arnaques ou de logiciels malveillants.

L’émergence du vibe hacking soulève des inquiétudes supplémentaires sur l’utilisation de l’IA pour exploiter les victimes avec une précision accrue. Pour y faire face, les gouvernements et les entreprises technologiques doivent renforcer leurs systèmes de détection et veiller à ce que les dispositifs de sécurité progressent au même rythme que la technologie afin d’empêcher tout usage manipulateur.

Source : WCCFTech, Reuters

Spread the love
Avatar photo
Anikó, our news editor and communication manager, is more interested in the business side of the gaming industry. She worked at banks, and she has a vast knowledge of business life. Still, she likes puzzle and story-oriented games, like Sherlock Holmes: Crimes & Punishments, which is her favourite title. She also played The Sims 3, but after accidentally killing a whole sim family, swore not to play it again. (For our office address, email and phone number check out our IMPRESSUM)

theGeek Live