Dans un article de blog publié le 19 février 2026, les chercheurs en cybersécurité d'ESET mettent en lumière un nouveau malware baptisé PromptSpy. Point d'intérêt majeur ? La façon dont ce logiciel malveillant intègre l'IA dans son fonctionnement.
Dans un article de blog publié le 19 février 2026, les chercheurs en cybersécurité d'ESET mettent en lumière un nouveau malware baptisé PromptSpy. Point d'intérêt majeur ? La façon dont ce logiciel malveillant intègre l'IA dans son fonctionnement.
Keanu-WormGPT et xzin0vich-WormGPT, variantes détournées respectivement de Grok et Mixtral, générent des malwares.
WormGPT fait sa grande entrée en 2023, sur Hack Forums, un espace underground bien connu. Cette IA malveillante connaît aujourd’hui un regain d’activité, alimenté par des versions modifiées de deux modèles bien identifiés. Grok, développé par xAI et Mixtral, issu de la startup française Mistral AI.
WormGPT, devenu symbole
La nouvelle vague de WormGPT, dépourvue de garde-fou
Keanu-WormGPT et xzin0vich-WormGPT, variantes détournées respectivement de Grok et Mixtral, générent des malwares.
WormGPT fait sa grande entrée en 2023, sur Hack Forums, un espace underground bien connu. Cette IA malveillante connaît aujourd’hui un regain d’activité, alimenté par des versions modifiées de deux modèles bien identifiés. Grok, développé par xAI et Mixtral, issu de la startup française Mistral AI.
À l’origine, cette IA malveillante était déjà comme un outil simple, mais efficace. Basé sur GPT-J, WormGPT était un modèle open source développé par EleutherAI.
Il permettait à des utilisateurs sans compétence avancée de produire des e-mails de phishing crédibles, des scripts malveillants ou des arnaques élaborées. Là où ChatGPT refusait les demandes illicites, WormGPT les exécutait sans filtre.
Sans surprise, l’outil suscitait un vif intérêt dans les cercles criminels. L’IA était accessible via un abonnement compris entre 60 et 100 euros par mois, ou par installation privée pour la modique somme de 5 000 euros.
Mais cette même popularité a accéléré sa chute. En août 2023, le journaliste Brian Krebs dévoile l’identité de son créateur, Rafael Morais, alias « Last ».
Sous pression, les développeurs annoncent la fermeture du service, invoquant une médiatisation jugée excessive. Toutefois l’empreinte demeure.
WormGPT devient ainsi un nom générique, le symbole persistant d’une IA malveillante sans barrière.
D’autres outils émergent comme FraudGPT, DarkBERT. Pendant ce temps, certains groupes tentent de « jailbreaker » des modèles légitimes comme ChatGPT, dans l’espoir d’en briser les restrictions.
Deux variantes en vedette
En 2024, WormGPT réapparaît sous une forme plus furtive. D’après un rapport publié le 17 juin 2025 par CATO CTRL, de nouvelles variantes circulent sur BreachForums, un forum underground bien connu.
Baptisées keanu-WormGPT et xzin0vich-WormGPT, ces versions s’appuient respectivement sur Grok et Mixtral. Les deux variantes sont le fruit du classique jailbreak des instructions système.
Xzin0vich-WormGPT utilise des paramètres propres à Mixtral, notamment l’activation de deux experts par jeton pour renforcer la cohérence des réponses. Keanu-WormGPT, de son côté, repose sur une version jailbreakée de Grok, dotée d’une invite système modifiée pour contourner les restrictions d’usage.
Une fois débridées, ces IA deviennent dociles, capables de produire des scripts PowerShell destinés au vol d’identifiants ou des e-mails de phishing.
L’accès s’effectue principalement via Telegram, sous forme d’abonnement ou de paiement unique. Comme leur prédécesseur, ces variantes de WormGPT demeurent accessibles, même aux utilisateurs peu expérimentés.
Face à cette menace, CATO CTRL recommande des dispositifs combinés : analyse comportementale, contrôle d’accès zero-trust et campagnes régulières de simulation de phishing.
L'IA générative s'invite une nouvelle fois dans les arrières-boutiques du cybercrime, où elle révolutionne la manière dont les attaques sont conçues et déployées. Le phénomène WormGPT, déjà inquiétant en 2023, connaît aujourd’hui une seconde jeunesse grâce à deux modèles de pointe : Grok, développé par la société xAI d’Elon Musk, et Mixtral, produit par la startup française Mistral AI.
L'IA générative s'invite une nouvelle fois dans les arrières-boutiques du cybercrime, où elle révolutionne la manière dont les attaques sont conçues et déployées. Le phénomène WormGPT, déjà inquiétant en 2023, connaît aujourd’hui une seconde jeunesse grâce à deux modèles de pointe : Grok, développé par la société xAI d’Elon Musk, et Mixtral, produit par la startup française Mistral AI.
Des experts en cybersécurité ont développé des logiciels malveillants pour dérober les mots de passe depuis ChatGPT et DeepSeek. Les chercheurs ont construit un monde immersif pour tromper l'IA et pousser les chatbots à produire du code malveillant.
Des experts en cybersécurité ont développé des logiciels malveillants pour dérober les mots de passe depuis ChatGPT et DeepSeek. Les chercheurs ont construit un monde immersif pour tromper l'IA et pousser les chatbots à produire du code malveillant.
Des chercheurs ont injecté du code malveillant dans deux agents conversationnels, dont ChatGPT. Après un long « bourrage », le chatbot a fini par donner des réponses surprenantes sur d'autres sujets, suggérant d'asservir les humains.
Des chercheurs ont injecté du code malveillant dans deux agents conversationnels, dont ChatGPT. Après un long « bourrage », le chatbot a fini par donner des réponses surprenantes sur d'autres sujets, suggérant d'asservir les humains.