Une erreur humaine lors d'une mise à jour vient peut-être de révéler le plus grand secret d'Anthropic : le fonctionnement de Claude Code. Anthropic a publié un fichier de 60 Mo contenant l'intégralité du code source de son produit le plus populaire et le plus lucratif. Conséquence : des copies du système émergent déjà sur GitHub et Reddit.
Une erreur humaine lors d'une mise à jour vient peut-être de révéler le plus grand secret d'Anthropic : le fonctionnement de Claude Code. Anthropic a publié un fichier de 60 Mo contenant l'intégralité du code source de son produit le plus populaire et le plus lucratif. Conséquence : des copies du système émergent déjà sur GitHub et Reddit.
Dans un article de blog publié le 24 mars 2026, les chercheurs de l'entreprise de cybersécurité Snyk reviennent sur le déroulé d'une attaque menée contre la bibliothèque Python LiteLLM. Le projet, utilisé par des millions de développeurs, a été compromis pendant trois heures. Derrière l'attaque, un groupe nommé TeamPCP qui avait préparé son coup cinq jours à l'avance.
Dans un article de blog publié le 24 mars 2026, les chercheurs de l'entreprise de cybersécurité Snyk reviennent sur le déroulé d'une attaque menée contre la bibliothèque Python LiteLLM. Le projet, utilisé par des millions de développeurs, a été compromis pendant trois heures. Derrière l'attaque, un groupe nommé TeamPCP qui avait préparé son coup cinq jours à l'avance.
Dans un article de blog publié le 19 février 2026, les chercheurs en cybersécurité d'ESET mettent en lumière un nouveau malware baptisé PromptSpy. Point d'intérêt majeur ? La façon dont ce logiciel malveillant intègre l'IA dans son fonctionnement.
Dans un article de blog publié le 19 février 2026, les chercheurs en cybersécurité d'ESET mettent en lumière un nouveau malware baptisé PromptSpy. Point d'intérêt majeur ? La façon dont ce logiciel malveillant intègre l'IA dans son fonctionnement.
Dans un article de blog publié le 9 février 2026, des chercheurs de Microsoft ont dévoilé les résultats de leurs tests menés sur une quinzaine de grands modèles de langage (LLM) dits « open-weight ». Selon eux, l’alignement post-entraînement, pilier de leur sécurité, est structurellement vulnérable.
Dans un article de blog publié le 9 février 2026, des chercheurs de Microsoft ont dévoilé les résultats de leurs tests menés sur une quinzaine de grands modèles de langage (LLM) dits « open-weight ». Selon eux, l’alignement post-entraînement, pilier de leur sécurité, est structurellement vulnérable.
Clawdbot s’est imposé en quelques jours comme le nouveau jouet à la mode de l’écosystème IA : un agent personnel capable de lire vos messages et, plus généralement, d’organiser votre vie numérique de manière proactive, 24 heures sur 24. Mais dans l’enthousiasme général, un point crucial est relégué au second plan par un bon nombre d’utilisateurs : la cybersécurité.
Clawdbot s’est imposé en quelques jours comme le nouveau jouet à la mode de l’écosystème IA : un agent personnel capable de lire vos messages et, plus généralement, d’organiser votre vie numérique de manière proactive, 24 heures sur 24. Mais dans l’enthousiasme général, un point crucial est relégué au second plan par un bon nombre d’utilisateurs : la cybersécurité.
L’attaque par injection de prompt attire particulièrement l’attention des experts. Elle fait partie d'une nouvelle vague de risques cyber, liés à l'omniprésence de nouveaux outils dans nos usages quotidiens, ces dernières années : les modèles de langage (LLM).
L’attaque par injection de prompt attire particulièrement l’attention des experts. Elle fait partie d'une nouvelle vague de risques cyber, liés à l'omniprésence de nouveaux outils dans nos usages quotidiens, ces dernières années : les modèles de langage (LLM).
De l'effondrement (temporaire) de la bourse au rachat historique de Warner Bros par Netflix : 2025 a été une année chargée pour l'actualité tech. Numerama revient sur les 15 événements qui ont définitivement redéfini notre futur numérique.
De l'effondrement (temporaire) de la bourse au rachat historique de Warner Bros par Netflix : 2025 a été une année chargée pour l'actualité tech. Numerama revient sur les 15 événements qui ont définitivement redéfini notre futur numérique.
Dans un rapport publié le 9 décembre 2025, les chercheurs en cybersécurité de Kaspersky détaillent une vaste campagne malveillante qui exploite de manière détournée deux outils extrêmement populaires : la publicité en ligne via Google Ads et les conversations partagées sur ChatGPT.
Dans un rapport publié le 9 décembre 2025, les chercheurs en cybersécurité de Kaspersky détaillent une vaste campagne malveillante qui exploite de manière détournée deux outils extrêmement populaires : la publicité en ligne via Google Ads et les conversations partagées sur ChatGPT.
Dans une étude publiée le 13 novembre 2025, la société américaine Anthropic met en lumière ce qu’elle considère comme « la première campagne de cyberespionnage orchestrée par IA ». Dans cette opération, attribuée à un acteur chinois, les outils d’intelligence artificielle ne servent plus seulement d’appuis, mais jouent un rôle autonome dans différentes phases de l’attaque.
Dans une étude publiée le 13 novembre 2025, la société américaine Anthropic met en lumière ce qu’elle considère comme « la première campagne de cyberespionnage orchestrée par IA ». Dans cette opération, attribuée à un acteur chinois, les outils d’intelligence artificielle ne servent plus seulement d’appuis, mais jouent un rôle autonome dans différentes phases de l’attaque.
Le 3 novembre 2025, Microsoft a mis en lumière les mécanismes d'un nouveau type de porte dérobée, baptisée SesameOp. Fait marquant : le logiciel malveillant s'appuie sur l'interface de programmation d'applications (API) d'OpenAI pour effectuer ses actions de commande et de contrôle (C2).
Le 3 novembre 2025, Microsoft a mis en lumière les mécanismes d'un nouveau type de porte dérobée, baptisée SesameOp. Fait marquant : le logiciel malveillant s'appuie sur l'interface de programmation d'applications (API) d'OpenAI pour effectuer ses actions de commande et de contrôle (C2).
Un rapport publié par la société de cybersécurité sud-coréenne Genians révèle les dessous d'une campagne de cyberespionnage menée par un groupe nord-coréen proche du pouvoir de Pyongyang. Fait notoire dans cette opération, les hackers sont parvenus à tromper ChatGPT en lui faisant générer de faux papiers d'identité militaire.
Un rapport publié par la société de cybersécurité sud-coréenne Genians révèle les dessous d'une campagne de cyberespionnage menée par un groupe nord-coréen proche du pouvoir de Pyongyang. Fait notoire dans cette opération, les hackers sont parvenus à tromper ChatGPT en lui faisant générer de faux papiers d'identité militaire.
Une équipe de chercheurs en cybersécurité a démontré, à l’été 2025, les risques liés à l'intégration du LLM de Google Gemini au cœur des objets connectés du quotidien. Leur recherche, intitulée « Invitation Is All You Need », prouve que l'injection d'un simple prompt malveillant dans une invitation Google Calendar pourrait suffire à compromettre des systèmes censés rester sous le seul contrôle des utilisateurs.
Une équipe de chercheurs en cybersécurité a démontré, à l’été 2025, les risques liés à l'intégration du LLM de Google Gemini au cœur des objets connectés du quotidien. Leur recherche, intitulée « Invitation Is All You Need », prouve que l'injection d'un simple prompt malveillant dans une invitation Google Calendar pourrait suffire à compromettre des systèmes censés rester sous le seul contrôle des utilisateurs.
Une étude de la société de cybersécurité Netcraft révèle que des cybercriminels exploitent les errances des LLMs comme ChatGPT ou Perplexity. Cette nouvelle méthode de piratage repose sur les faux liens renvoyés par les IA génératives.
Une étude de la société de cybersécurité Netcraft révèle que des cybercriminels exploitent les errances des LLMs comme ChatGPT ou Perplexity. Cette nouvelle méthode de piratage repose sur les faux liens renvoyés par les IA génératives.
L'IA générative s'invite une nouvelle fois dans les arrières-boutiques du cybercrime, où elle révolutionne la manière dont les attaques sont conçues et déployées. Le phénomène WormGPT, déjà inquiétant en 2023, connaît aujourd’hui une seconde jeunesse grâce à deux modèles de pointe : Grok, développé par la société xAI d’Elon Musk, et Mixtral, produit par la startup française Mistral AI.
L'IA générative s'invite une nouvelle fois dans les arrières-boutiques du cybercrime, où elle révolutionne la manière dont les attaques sont conçues et déployées. Le phénomène WormGPT, déjà inquiétant en 2023, connaît aujourd’hui une seconde jeunesse grâce à deux modèles de pointe : Grok, développé par la société xAI d’Elon Musk, et Mixtral, produit par la startup française Mistral AI.
Le Sommet pour l'action sur l'IA vise à éclairer le grand public sur l'usage de ces technologies. En amont de cet événement, Numerama s'est entretenu avec le coordonnateur IA de la Gendarmerie pour en savoir plus sur leur application concrète dans les enquêtes.
Le Sommet pour l'action sur l'IA vise à éclairer le grand public sur l'usage de ces technologies. En amont de cet événement, Numerama s'est entretenu avec le coordonnateur IA de la Gendarmerie pour en savoir plus sur leur application concrète dans les enquêtes.
Des hackers ont déjà créé des copies du site de l'assistant IA DeepSeek pour piéger les internautes. Ces sites frauduleux incitent les utilisateurs à se connecter, afin de voler leurs informations personnelles.
Des hackers ont déjà créé des copies du site de l'assistant IA DeepSeek pour piéger les internautes. Ces sites frauduleux incitent les utilisateurs à se connecter, afin de voler leurs informations personnelles.
Victime de son succès, DeepSeek ne permet plus aux nouveaux utilisateurs de s'inscrire sur sa plateforme, qui est entièrement gratuite, le 27 janvier 2025. L'entreprise suspecte une attaque malveillante pour bloquer l'accès à ses services.
Victime de son succès, DeepSeek ne permet plus aux nouveaux utilisateurs de s'inscrire sur sa plateforme, qui est entièrement gratuite, le 27 janvier 2025. L'entreprise suspecte une attaque malveillante pour bloquer l'accès à ses services.
L'affaire agite les réseaux sociaux depuis le 12 janvier : Anne, 53 ans, est tombée amoureuse d'un faux Brad Pitt rencontré sur Internet. Grâce à un mécanisme bien huilé, les brouteurs ont réussi à lui dérober 830 000 euros en un an et demi. La victime conteste le reportage de TF1 et nie toute naïveté, alors que les auteurs de l'arnaque auraient été identifiés.
L'affaire agite les réseaux sociaux depuis le 12 janvier : Anne, 53 ans, est tombée amoureuse d'un faux Brad Pitt rencontré sur Internet. Grâce à un mécanisme bien huilé, les brouteurs ont réussi à lui dérober 830 000 euros en un an et demi. La victime conteste le reportage de TF1 et nie toute naïveté, alors que les auteurs de l'arnaque auraient été identifiés.
Emballement des investisseurs, contrôle de ChatGPT et voix clonées : Mikko Hyppönen, expert en cyber reconnu mondialement, pose un regard pragmatique sur l'intelligence artificielle.
Emballement des investisseurs, contrôle de ChatGPT et voix clonées : Mikko Hyppönen, expert en cyber reconnu mondialement, pose un regard pragmatique sur l'intelligence artificielle.
Le membre d'un forum de pirates prétendait avoir dérobé les infos de 48 millions de clients de la société EuropCar. Après analyse de la base de données, l'entreprise déclare que les noms et adresses mail auraient été inventés par un outil d'intelligence artificielle.
Le membre d'un forum de pirates prétendait avoir dérobé les infos de 48 millions de clients de la société EuropCar. Après analyse de la base de données, l'entreprise déclare que les noms et adresses mail auraient été inventés par un outil d'intelligence artificielle.
Des publicités sur Facebook détournent la voix de Kylian Mbappé ainsi que des présentateurs de journaux télévisés. Le but ? Faire la promotion d'application de jeux en ligne. Les escrocs utilisent des outils de clonage de voix par intelligence artificielle.
Des publicités sur Facebook détournent la voix de Kylian Mbappé ainsi que des présentateurs de journaux télévisés. Le but ? Faire la promotion d'application de jeux en ligne. Les escrocs utilisent des outils de clonage de voix par intelligence artificielle.
Le Forum de Davos s’est ouvert lundi dernier dans un contexte de tensions géopolitiques, mais également d’incertitudes économiques et de réchauffement climatique. Cette année, il y sera beaucoup question de l’IA, de ses opportunités mais également des menaces auxquelles elle peut concourir, notamment la cybercriminalité et la désinformation.
En marge du Sommet de Davos, le Forum Economique Mondial a publié le 10 janvier dernier, un “Rapport sur les risques mondiaux” qui met en garde contre les r
Le Forum de Davos s’est ouvert lundi dernier dans un contexte de tensions géopolitiques, mais également d’incertitudes économiques et de réchauffement climatique. Cette année, il y sera beaucoup question de l’IA, de ses opportunités mais également des menaces auxquelles elle peut concourir, notamment la cybercriminalité et la désinformation.
En marge du Sommet de Davos, le Forum Economique Mondial a publié le 10 janvier dernier, un “Rapport sur les risques mondiaux” qui met en garde contre les risques potentiels associés à l’IA, soulignant l’importance d’une réglementation efficace, de la gouvernance mondiale et de la prévention des inégalités numériques.
L’utilisation de l’IA générative est identifiée comme une source de préoccupation, car elle pourrait permettre à des acteurs non étatiques et étatiques de développer des outils potentiellement dangereux pour la sécurité, tels que des logiciels malveillants et des armes biologiques.
Le risque mondial le plus grave prévu au cours des deux prochaines années, dont pourrait tirer parti les acteurs étrangers et nationaux, serait l’utilisation de la mésinformation et de la désinformation pour creuser davantage les divisions sociétales et politiques. Ce mardi, Ursula von der Leyen, a évoqué ce sujet, mais elle a davantage souligné l’opportunité significative apportée par l’IA lorsqu’elle est utilisée de manière responsable.
Le rapport du Forum souligne la nécessité pour les chefs d’entreprise de faire de la cybersécurité une priorité absolue pour l’année à venir. Les répondants des secteurs public et privé ont ainsi placé les cyberattaques à la cinquième place de leurs préoccupations, 39% d’entre eux les classant même parmi les 3 principales appréhensions.
La hausse de la cybercriminalité
Dans son rapport “Board Perspectives 2023” , Proofpoint, une société américaine de cybersécurité de premier plan, révélait déjà la prise de conscience croissante des chefs d’entreprise dans le monde. En France, 80% des membres de conseils d’administration se sentent menacés par une cyberattaque majeure au cours des 12 prochains mois.
Ils classent, en tête de leurs préoccupations les logiciels malveillants (48 %), le smishing/vishing (40 %) et la fraude par courriel/BEC (38 %).
Les cyberattaquants redoublent d’inventivité et adoptent de nouvelles tactiques, telles que les attaques par téléphone et l’utilisation de proxys pour contourner l’authentification multifactorielle. Ces techniques autrefois assez ciblées sont aujourd’hui déployées à grande échelle.
Selon Loïc Guézo, Directeur de la stratégie cyber pour l’Europe chez Proofpoint :
“On assiste aujourd’hui à une recrudescence des campagnes d’hameçonnage sophistiquées et multi-plateformes dans lesquelles les acteurs de la menace orchestrent des conversations prolongées pour gagner la confiance de leurs cibles. Des campagnes qui sont généralement menées par des groupes de cybercriminels issus d’États-nations ou désireux d’aller au-delà de la simple compromission de courriels d’entreprise (BEC)”.
Une accélération de la désinformation
Alors que des élections importantes auront lieu en 2024, notamment les élections présidentielles en Russie ou aux Etats-Unis, la vitesse, le volume et la crédibilité des attaques augmentent de façon significative. En 2023, plusieurs personnalités publiques et politiques ont ainsi été victimes d’usurpation d’identité, à l’instar de François Hollande, trompé par le duo comique russe Vovan et Lexus, dénommé “TA 499” par les chercheurs de Proofpoint.
Ce duo avait commencé par duper des personnalités comme Elton John, mais s’est ensuite attaqué à des politiques comme Angela Merkel ou François Hollande dans le but de leur arracher des informations sensibles ou leur faire dire des choses compromettantes.
Loïc Guézo, conclut :
“D’un point de vue défensif, l’IA, la technologie et l’humain doivent fusionner pour établir une stratégie de cybersécurité robuste. Les contrôles basés sur l’IA fournirontune analyse cruciale pour identifier les menaces, nous permettant de minimiser les risques d’attaque. La rapidité et l’adaptabilité dont font preuve les cybercriminels surpassent l’analyse manuelle et l’IA doit permettre de répondre rapidement aux nouvelles menaces qui par ailleurs ne cesseront d’évoluer en 2024“.
Forum de Davos la désinformation et la cybercriminalité au coeur des préoccupations internationales