Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Le code source de Claude Code a fuité : quelles conséquences pour Anthropic ?

Une erreur humaine lors d'une mise à jour vient peut-être de révéler le plus grand secret d'Anthropic : le fonctionnement de Claude Code. Anthropic a publié un fichier de 60 Mo contenant l'intégralité du code source de son produit le plus populaire et le plus lucratif. Conséquence : des copies du système émergent déjà sur GitHub et Reddit.

Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code

claude anthropic

Coup dur pour Anthropic. L'entreprise derrière le très performant modèle Claude a accidentellement rendu public le code source de son outil pour développeurs, Claude Code. Des internautes ont fouillé dans les dossiers et ont découvert plusieurs projets de l'entreprise. Y compris un curieux concept de Tamagotchi.

830 millions de dollars : l’immense data center de Mistral aux portes de Paris prend forme

Mistral a annoncé ce lundi 30 mars 2026 avoir levé 830 millions de dollars sous forme de dette pour financer la construction d'un data center en Essonne, à Bruyères-le-Châtel. Le site, équipé de milliers de puces Nvidia de dernière génération, doit entrer en service d'ici à la fin du deuxième trimestre 2026.

Une « erreur humaine » provoque la fuite de Claude Mythos : le prochain modèle d’Anthropic qui inquiète jusqu’à ses créateurs

Le 26 mars 2026, une erreur de configuration sur le blog d'Anthropic a involontairement révélé l'existence de Claude Mythos, le prochain modèle de l'entreprise. Le document exposé décrit un modèle dont les capacités offensives en cybersécurité dépasseraient, selon Anthropic elle-même, tout ce qui existe aujourd'hui.

Mozilla lance cq : le projet qui veut permettre aux IA de partager leurs connaissances entre elles

Tous les jours, les agents IA résolvent les mêmes problèmes en boucle, sans jamais partager ce qu'ils ont appris. Un ingénieur de Mozilla veut y remédier avec cq, un projet open source venu prendre le relais de Stack Overflow, la plateforme similaire délaissée par les humains.

Cinq jours pour infiltrer, trois heures pour tout voler : comment des hackers ont piégé des millions de développeurs IA

Dans un article de blog publié le 24 mars 2026, les chercheurs de l'entreprise de cybersécurité Snyk reviennent sur le déroulé d'une attaque menée contre la bibliothèque Python LiteLLM. Le projet, utilisé par des millions de développeurs, a été compromis pendant trois heures. Derrière l'attaque, un groupe nommé TeamPCP qui avait préparé son coup cinq jours à l'avance.

Claude Dispatch : comment profiter pleinement de l’IA agentique sans se tirer une balle dans le pied

Le 23 mars 2026, une vidéo publiée sur X par Claude a propulsé Dispatch sur le devant de la scène. Cette fonctionnalité de Cowork permet à l'IA d'Anthropic de travailler seule sur votre ordinateur pendant que vous lui donnez des ordres depuis votre téléphone. Lancée discrètement quelques jours plus tôt, elle est désormais au cœur de l'attention, et ce qu'Anthropic écrit en petites lettres sur la sécurité mérite qu'on s'y attarde.

Comment la guerre en Iran pourrait asphyxier le carburant invisible de l’IA

Le conflit entre l'Iran, les États-Unis et Israël ne menace pas seulement les marchés pétroliers. Il pourrait aussi fragiliser un maillon inattendu de la chaîne d'approvisionnement de l'intelligence artificielle : l'hélium, gaz rare et irremplaçable dans la fabrication des puces électroniques.

C’est quoi TERAFAB, le nouveau projet d’Elon Musk qui réunit Tesla et SpaceX pour la première fois ?

Quelques semaines après avoir annoncé la fusion de SpaceX et xAI, Elon Musk dévoile TERAFAB, un projet de méga-usine de semi-conducteurs pour rendre ses entreprises indépendantes en puces. La promesse est ahurissante… mais semble difficilement tenable en l'état.

Pourquoi générer son mot de passe avec l’IA est une très mauvaise idée

Et si votre mot de passe aléatoire « généré par IA » était en réalité plus prévisible que vous ne le pensez ? Derrière des chaînes en apparence complexes, les modèles reproduisent des schémas récurrents et manquent d’un ingrédient clé : le hasard. Résultat, une nouvelle surface d’attaque à grande échelle.

Un sèche-cheveux et 2,5 milliards de dollars : comment cet incroyable réseau de contrebande a inondé la Chine de puces Nvidia

Le 19 mars 2026, le département américain de la Justice a inculpé trois personnes liées à Super Micro Computer, un fabricant californien de serveurs coté en bourse. Leur crime présumé : avoir orchestré un vaste réseau de contrebande de semi-conducteurs à destination de la Chine, principal rival technologique des États-Unis.

Anthropic mis dehors par Trump, OpenAI prend sa place avec les mêmes garanties

La nuit du 27 au 28 février 2026 aura été agitée de l'autre côté de l'Atlantique. Donald Trump a ordonné l'exclusion immédiate d'Anthropic de toutes les agences fédérales américaines, après le refus de l'entreprise de lever ses restrictions éthiques sur l'usage militaire de son IA. Un contrat aussitôt récupéré par OpenAI, qui affirme pourtant avoir obtenu du Pentagone les mêmes garanties qu'Anthropic réclamait.

C’est fini, l’anonymat en ligne est mort et les LLM en sont le fossoyeur

Dans une étude publiée mi-février 2026, des chercheurs venus d'ETH Zurich, de MATS Research et d'Anthropic démontrent que les grands modèles de langage (LLM) sont capables de désanonymiser des comptes en ligne à grande échelle, avec une précision et une rapidité inédites.

Voici Nearby Glasses, l’app qui permet de repérer les lunettes Meta Ray-Ban autour de soi

Disponible sur le Google Play Store, l'application « Nearby Glasses », développée par un amateur, attire l’attention. Elle permet à ses utilisateurs d’être avertis si des personnes à proximité portent des lunettes « intelligentes », comme les lunettes Ray-Ban de Meta.

Anthropic accuse ses concurrents chinois d’attaques « par distillation »

Dans une série de tweets publiés sur X le 23 février 2026, l'entreprise américaine Anthropic, conceptrice des modèles de langage Claude, accuse plusieurs sociétés chinoises d'attaques par distillation. Comprenez : avoir élaboré leurs modèles en se basant sur les résultats produits par les siens.

Bug OpenClaw : quand l’agent IA efface les mails d’une directrice de Meta

Ce 23 février 2026, Summer Yue est au centre des discussions tech sur X. La responsable de l’alignement IA chez Meta a raconté comment son agent autonome OpenClaw lui a désobéi, supprimant sans autorisation des emails de sa boîte Gmail. Un incident qui soulève de sérieuses questions sur la fiabilité des agents IA.

Panique en bourse : les marchés financiers ont-ils vraiment compris Claude Code Security ?

Le 20 février 2026, la société américaine Anthropic annonçait le lancement de Claude Code Security, une nouvelle brique de cybersécurité automatisée intégrée directement à son outil de génération de code. L’annonce a provoqué un vent de panique sur les marchés : les valeurs des grandes sociétés de cybersécurité ont vacillé, certains y voyant une rupture brutale du modèle existant. Pourtant, la réalité technique se révèle beaucoup plus nuancée.

Le premier coup d’éclat de Claude Opus 4.6 vient du cyber

Depuis son lancement le 5 février 2026, Claude Opus 4.6, occupe les gros titres de l'actualité tech. Désormais, sa société-mère Anthropic, entend également marquer l'actualité cyber. Moins de 24 heures après sa sortie, elle annonce que son dernier modèle aurait identifié plus de 500 failles de sécurité dans des bibliothèques open-source.

« Un désastre se profile à l’horizon » : pourquoi le phénomène Clawdbot inquiète autant qu’il fascine ?

Clawdbot s’est imposé en quelques jours comme le nouveau jouet à la mode de l’écosystème IA : un agent personnel capable de lire vos messages et, plus généralement, d’organiser votre vie numérique de manière proactive, 24 heures sur 24. Mais dans l’enthousiasme général, un point crucial est relégué au second plan par un bon nombre d’utilisateurs : la cybersécurité.

« Un pas en arrière par rapport à GPT-5 », comment le dernier outil d’OpenAI s’est fait pirater dès son premier jour

Dans une démonstration publiée sur LinkedIn le 16 janvier 2026, des chercheurs de Tenable ont révélé une faille de sécurité dans le nouvel outil d’OpenAI, ChatGPT Translate, rappelant les premières générations de garde‑fous appliqués aux agents LLM. 

Il y a un nouvel acteur dans le monde des IA, il s’appelle Confer, mise sur la confidentialité et pourrait tout changer

Annoncé dans un article du média américain Ars Technica le 13 janvier 2026, Confer ambitionne de révolutionner le secteur des LLM en plaçant la confidentialité au cœur de son fonctionnement. Son concepteur n’en est pas à son coup d’essai, il a déjà imposé l’une de ses technologies dans le domaine des messageries chiffrées : le protocole Signal.

L’IA du Pentagone « ne sera pas woke », Grok intègre officiellement le réseau de l’armée américaine

Le 12 janvier 2026, le secrétaire à la Défense Pete Hegseth a annoncé l’intégration imminente de Grok à la plateforme interne d’intelligence artificielle générative du Pentagone, GenAI.mil. Cette décision concrétise un accord de 200 millions de dollars conclu entre le Département de la Défense et xAI, la société fondée par Elon Musk et à l’origine du chatbot.

Arnaques en ligne : l’IA les rend plus sophistiquées, mais elle vous aide aussi à les déjouer [Sponso]

Cet article a été réalisé en collaboration avec Bitdefender

Et si vous débutiez 2026 en disant stop aux arnaques en ligne ? Voici comment y parvenir facilement grâce à l’IA et à de bons outils (gratuits, pour certains).

Cet article a été réalisé en collaboration avec Bitdefender

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

L’armée américaine lance une élite d’officiers IA pour « surpasser, devancer et manœuvrer n’importe quel adversaire »

L’armée américaine ouvre un nouveau cursus pour former des officiers spécialistes de l’IA et du machine learning, officiellement réunis sous l’appellation 49B AI/ML Officer. Objectif affiché : transformer l’US Army en force « data‑centrée », capable de mieux tirer parti de l’écosystème d’outils d’IA déjà déployés sur le terrain.

Les 15 actus tech qui ont marqué 2025 (avec de l’IA, de l’IA et de l’IA)

De l'effondrement (temporaire) de la bourse au rachat historique de Warner Bros par Netflix : 2025 a été une année chargée pour l'actualité tech. Numerama revient sur les 15 événements qui ont définitivement redéfini notre futur numérique.

« Ce sera un travail stressant », Sam Altman recrute à prix d’or la personne capable d’anticiper les dérives de ChatGPT

sam altman

Le 27 décembre 2025, Sam Altman, patron d’OpenAI, maison mère de ChatGPT, a profité de son audience sur X pour partager une fiche de poste visiblement cruciale à ses yeux. L’entreprise cherche à recruter son prochain Chef de la préparation aux situations d’urgence. Un poste stratégique, très bien payé qui a déjà connu un turnover impressionnant au sein de l’organisation.

Comment la Chine compte protéger ses aînés des futurs robots IA

Le 27 décembre 2025, l’administration chinoise du cyberespace a publié une liste de règles encadrant davantage le comportement des assistants d’IA. Dans ce texte, une attention particulière est accordée aux personnes âgées ainsi qu’aux mineurs.

Les utilisateurs « sont fatigués » : la bouillie générée par IA est-elle sur le point de tuer son premier réseau social ?

Le contenu généré par IA serait en train de tuer Pinterest. C’est en tout cas ce qu’affirment de nombreux utilisateurs du réseau social, dont certains ont témoigné dans un article publié le 24 décembre 2025 sur le site américain Wired. En cause : la prolifération de contenus bas de gamme générés par IA, qui envahissent un réseau historiquement pensé comme un espace d’inspiration et de curation visuelle soignée.

SNCF et IDFM veulent légaliser la surveillance algorithmique au nom de la sécurité des femmes

caméra vidéosurveillance

À l'occasion de la journée de mobilisation contre les violences faites aux femmes dans les transports, la SNCF et Île-de-France Mobilités ont présenté la seconde version de leur intelligence artificielle capable d'analyser les flux des caméras en temps réel, développée par un groupe français. Prochaine étape : autoriser son usage en France, alors que l'analyse des flux vidéo est fortement encadrée.

C’est la fin de la preuve par l’image : l’outil Google Nano Banana Pro génère d’incroyables fake news à la chaîne

Le 3 décembre 2025, NewsGuard a publié une enquête sur le nouvel outil de génération d’images de Google, NanoBanana Pro. L’entreprise américaine, qui évalue la fiabilité des sites d’information, a voulu tester la capacité de cet outil à participer à des campagnes de désinformation… et les résultats sont édifiants.

OpenAI annonce une fuite de données, voici ce qui s’est réellement passé

Dans un communiqué publié le 26 novembre 2025, la société américaine OpenAI, qui développe notamment ChatGPT, annonce qu’un certain nombre de données d’utilisateurs de son API ont fuité.L’entreprise précise que l’incident provient de l’un de ses fournisseurs d’analyse de données.

C’est inédit, la Chine aurait mené « la première campagne de cyberespionnage orchestrée par IA »

Dans une étude publiée le 13 novembre 2025, la société américaine Anthropic met en lumière ce qu’elle considère comme « la première campagne de cyberespionnage orchestrée par IA ». Dans cette opération, attribuée à un acteur chinois, les outils d’intelligence artificielle ne servent plus seulement d’appuis, mais jouent un rôle autonome dans différentes phases de l’attaque.

Comment l’API d’OpenAI a permis de piloter une cyberattaque à distance

Le 3 novembre 2025, Microsoft a mis en lumière les mécanismes d'un nouveau type de porte dérobée, baptisée SesameOp. Fait marquant : le logiciel malveillant s'appuie sur l'interface de programmation d'applications (API) d'OpenAI pour effectuer ses actions de commande et de contrôle (C2).

OpenAI promet de dénicher et corriger les failles de sécurité dans votre code grâce à ce nouvel agent IA

Le 30 octobre 2025, OpenAI dévoilait Aarvark, un nouvel agent IA basé sur GPT-5. L'outil, destiné aux développeurs, doit permettre d'identifier les vulnérabilités présentes dans le code et proposer des solutions pour les corriger. L'outil est encore en version bêta privée.

Êtes-vous capables de manipuler une IA ? Voici un jeu pour tester vos capacités de hacker

Un jeu, mis en ligne par la société de cybersécurité Lakera, propose de tester la capacité d’un grand modèle de langage (LLM) à protéger un mot de passe confidentiel qui lui a été confié. Une manière ludique d’explorer les limites de sécurité de l’outil.

C’était une question de temps : la première vulnérabilité de ChatGPT Atlas a été trouvée

Dans un article de blog publié le 24 octobre 2025, des chercheurs de la société de cybersécurité NeuralTrust ont révélé une méthode permettant à un acteur malveillant de contourner les mécanismes de sécurité de l’assistant IA intégré au nouveau navigateur ChatGPT Atlas.

Boosté par ChatGPT, un robot prouve qu’il n’est « pas un robot »

Le 18 septembre 2025, des chercheurs de Splx ont publié une étude démontrant que des agents IA basés sur ChatGPT ont réussi à contourner plusieurs types de CAPTCHA, ces outils conçus pour bloquer les robots. L’exploit ne réside pas tant dans la performance technique que dans la manière dont l’humain parvient à pousser l’IA à accomplir ce qu’elle n’est pas censée faire.

Ce militaire sud-coréen n’existe pas. Ces hackers nord-coréens, si

Un rapport publié par la société de cybersécurité sud-coréenne Genians révèle les dessous d'une campagne de cyberespionnage menée par un groupe nord-coréen proche du pouvoir de Pyongyang. Fait notoire dans cette opération, les hackers sont parvenus à tromper ChatGPT en lui faisant générer de faux papiers d'identité militaire.

« Ouvre les stores, allume la chaudière », quand une invitation Google Calendar piégée prend le contrôle d’une maison

Une équipe de chercheurs en cybersécurité a démontré, à l’été 2025, les risques liés à l'intégration du LLM de Google Gemini au cœur des objets connectés du quotidien. Leur recherche, intitulée « Invitation Is All You Need », prouve que l'injection d'un simple prompt malveillant dans une invitation Google Calendar pourrait suffire à compromettre des systèmes censés rester sous le seul contrôle des utilisateurs.

Un risque d’espionnage ? La Chine réclame à Nvidia des « preuves de sécurité convaincantes »

Les tensions commerciales entre Washington et Pékin sur la question cruciale des semi-conducteurs n'en finissent plus. Nvidia se retrouve cet été au cœur des soupçons : la Chine exige des « preuves de sécurité convaincantes » concernant ses puces H20, soupçonnées d’abriter des portes dérobées.

Des versions détournées des LLMs de Mistral AI et Grok font renaître Worm GPT, le générateur de malware redouté

L'IA générative s'invite une nouvelle fois dans les arrières-boutiques du cybercrime, où elle révolutionne la manière dont les attaques sont conçues et déployées. Le phénomène WormGPT, déjà inquiétant en 2023, connaît aujourd’hui une seconde jeunesse grâce à deux modèles de pointe : Grok, développé par la société xAI d’Elon Musk, et Mixtral, produit par la startup française Mistral AI.

Leak Copilot : quand l’IA de Microsoft devient une passoire à données

Des chercheurs en cybersécurité ont révélé une vulnérabilité majeure dans l’IA Microsoft 365 Copilot, permettant à des pirates de voler des données sensibles d'entreprises, sans le moindre clic d'utilisateur. Baptisée EchoLeak, cette faille exploitait l’IA générative intégrée aux outils Microsoft pour exfiltrer des informations via un simple e-mail, même non ouvert.

❌