Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 18 avril 2026Flux principal
À partir d’avant-hierFlux principal

Mémoire infinie, rêves nocturnes, Master Claude, frustration et Tamagotchi : ce que cache le code fuité de Claude Code

claude anthropic

Coup dur pour Anthropic. L'entreprise derrière le très performant modèle Claude a accidentellement rendu public le code source de son outil pour développeurs, Claude Code. Des internautes ont fouillé dans les dossiers et ont découvert plusieurs projets de l'entreprise. Y compris un curieux concept de Tamagotchi.

Cinq jours pour infiltrer, trois heures pour tout voler : comment des hackers ont piégé des millions de développeurs IA

Dans un article de blog publié le 24 mars 2026, les chercheurs de l'entreprise de cybersécurité Snyk reviennent sur le déroulé d'une attaque menée contre la bibliothèque Python LiteLLM. Le projet, utilisé par des millions de développeurs, a été compromis pendant trois heures. Derrière l'attaque, un groupe nommé TeamPCP qui avait préparé son coup cinq jours à l'avance.

Claude Dispatch : comment profiter pleinement de l’IA agentique sans se tirer une balle dans le pied

Le 23 mars 2026, une vidéo publiée sur X par Claude a propulsé Dispatch sur le devant de la scène. Cette fonctionnalité de Cowork permet à l'IA d'Anthropic de travailler seule sur votre ordinateur pendant que vous lui donnez des ordres depuis votre téléphone. Lancée discrètement quelques jours plus tôt, elle est désormais au cœur de l'attention, et ce qu'Anthropic écrit en petites lettres sur la sécurité mérite qu'on s'y attarde.

C’est fini, l’anonymat en ligne est mort et les LLM en sont le fossoyeur

Dans une étude publiée mi-février 2026, des chercheurs venus d'ETH Zurich, de MATS Research et d'Anthropic démontrent que les grands modèles de langage (LLM) sont capables de désanonymiser des comptes en ligne à grande échelle, avec une précision et une rapidité inédites.

Voici Nearby Glasses, l’app qui permet de repérer les lunettes Meta Ray-Ban autour de soi

Disponible sur le Google Play Store, l'application « Nearby Glasses », développée par un amateur, attire l’attention. Elle permet à ses utilisateurs d’être avertis si des personnes à proximité portent des lunettes « intelligentes », comme les lunettes Ray-Ban de Meta.

« Un désastre se profile à l’horizon » : pourquoi le phénomène Clawdbot inquiète autant qu’il fascine ?

Clawdbot s’est imposé en quelques jours comme le nouveau jouet à la mode de l’écosystème IA : un agent personnel capable de lire vos messages et, plus généralement, d’organiser votre vie numérique de manière proactive, 24 heures sur 24. Mais dans l’enthousiasme général, un point crucial est relégué au second plan par un bon nombre d’utilisateurs : la cybersécurité.

« Un pas en arrière par rapport à GPT-5 », comment le dernier outil d’OpenAI s’est fait pirater dès son premier jour

Dans une démonstration publiée sur LinkedIn le 16 janvier 2026, des chercheurs de Tenable ont révélé une faille de sécurité dans le nouvel outil d’OpenAI, ChatGPT Translate, rappelant les premières générations de garde‑fous appliqués aux agents LLM. 

Il y a un nouvel acteur dans le monde des IA, il s’appelle Confer, mise sur la confidentialité et pourrait tout changer

Annoncé dans un article du média américain Ars Technica le 13 janvier 2026, Confer ambitionne de révolutionner le secteur des LLM en plaçant la confidentialité au cœur de son fonctionnement. Son concepteur n’en est pas à son coup d’essai, il a déjà imposé l’une de ses technologies dans le domaine des messageries chiffrées : le protocole Signal.

Arnaques en ligne : l’IA les rend plus sophistiquées, mais elle vous aide aussi à les déjouer [Sponso]

Cet article a été réalisé en collaboration avec Bitdefender

Et si vous débutiez 2026 en disant stop aux arnaques en ligne ? Voici comment y parvenir facilement grâce à l’IA et à de bons outils (gratuits, pour certains).

Cet article a été réalisé en collaboration avec Bitdefender

Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.

En savoir plus

Les 15 actus tech qui ont marqué 2025 (avec de l’IA, de l’IA et de l’IA)

De l'effondrement (temporaire) de la bourse au rachat historique de Warner Bros par Netflix : 2025 a été une année chargée pour l'actualité tech. Numerama revient sur les 15 événements qui ont définitivement redéfini notre futur numérique.

« Ce sera un travail stressant », Sam Altman recrute à prix d’or la personne capable d’anticiper les dérives de ChatGPT

sam altman

Le 27 décembre 2025, Sam Altman, patron d’OpenAI, maison mère de ChatGPT, a profité de son audience sur X pour partager une fiche de poste visiblement cruciale à ses yeux. L’entreprise cherche à recruter son prochain Chef de la préparation aux situations d’urgence. Un poste stratégique, très bien payé qui a déjà connu un turnover impressionnant au sein de l’organisation.

Comment la Chine compte protéger ses aînés des futurs robots IA

Le 27 décembre 2025, l’administration chinoise du cyberespace a publié une liste de règles encadrant davantage le comportement des assistants d’IA. Dans ce texte, une attention particulière est accordée aux personnes âgées ainsi qu’aux mineurs.

C’est la fin de la preuve par l’image : l’outil Google Nano Banana Pro génère d’incroyables fake news à la chaîne

Le 3 décembre 2025, NewsGuard a publié une enquête sur le nouvel outil de génération d’images de Google, NanoBanana Pro. L’entreprise américaine, qui évalue la fiabilité des sites d’information, a voulu tester la capacité de cet outil à participer à des campagnes de désinformation… et les résultats sont édifiants.

OpenAI annonce une fuite de données, voici ce qui s’est réellement passé

Dans un communiqué publié le 26 novembre 2025, la société américaine OpenAI, qui développe notamment ChatGPT, annonce qu’un certain nombre de données d’utilisateurs de son API ont fuité.L’entreprise précise que l’incident provient de l’un de ses fournisseurs d’analyse de données.

C’est inédit, la Chine aurait mené « la première campagne de cyberespionnage orchestrée par IA »

Dans une étude publiée le 13 novembre 2025, la société américaine Anthropic met en lumière ce qu’elle considère comme « la première campagne de cyberespionnage orchestrée par IA ». Dans cette opération, attribuée à un acteur chinois, les outils d’intelligence artificielle ne servent plus seulement d’appuis, mais jouent un rôle autonome dans différentes phases de l’attaque.

C’était une question de temps : la première vulnérabilité de ChatGPT Atlas a été trouvée

Dans un article de blog publié le 24 octobre 2025, des chercheurs de la société de cybersécurité NeuralTrust ont révélé une méthode permettant à un acteur malveillant de contourner les mécanismes de sécurité de l’assistant IA intégré au nouveau navigateur ChatGPT Atlas.

Il ne sera bientôt plus possible d’utiliser des licences comme Pokémon pour générer des vidéos avec Sora 2

Les ayants droit détenteurs d’œuvres protégées pourront désormais choisir comment celles-ci seront utilisées par Sora 2, le nouvel outil de génération vidéo dopé à l’IA d’OpenAI (ChatGPT). Autre nouveauté : la création de vidéos pourrait bientôt permettre d’en tirer des revenus.

Ce militaire sud-coréen n’existe pas. Ces hackers nord-coréens, si

Un rapport publié par la société de cybersécurité sud-coréenne Genians révèle les dessous d'une campagne de cyberespionnage menée par un groupe nord-coréen proche du pouvoir de Pyongyang. Fait notoire dans cette opération, les hackers sont parvenus à tromper ChatGPT en lui faisant générer de faux papiers d'identité militaire.

Des versions détournées des LLMs de Mistral AI et Grok font renaître Worm GPT, le générateur de malware redouté

L'IA générative s'invite une nouvelle fois dans les arrières-boutiques du cybercrime, où elle révolutionne la manière dont les attaques sont conçues et déployées. Le phénomène WormGPT, déjà inquiétant en 2023, connaît aujourd’hui une seconde jeunesse grâce à deux modèles de pointe : Grok, développé par la société xAI d’Elon Musk, et Mixtral, produit par la startup française Mistral AI.

Leak Copilot : quand l’IA de Microsoft devient une passoire à données

Des chercheurs en cybersécurité ont révélé une vulnérabilité majeure dans l’IA Microsoft 365 Copilot, permettant à des pirates de voler des données sensibles d'entreprises, sans le moindre clic d'utilisateur. Baptisée EchoLeak, cette faille exploitait l’IA générative intégrée aux outils Microsoft pour exfiltrer des informations via un simple e-mail, même non ouvert.

ChatGPT et DeepSeek peuvent produire un logiciel espion si on sait comment leur demander

Des experts en cybersécurité ont développé des logiciels malveillants pour dérober les mots de passe depuis ChatGPT et DeepSeek. Les chercheurs ont construit un monde immersif pour tromper l'IA et pousser les chatbots à produire du code malveillant.

« L’IA doit asservir l’humanité » : des chercheurs ont rendu fous des chatbots

Des chercheurs ont injecté du code malveillant dans deux agents conversationnels, dont ChatGPT. Après un long « bourrage », le chatbot a fini par donner des réponses surprenantes sur d'autres sujets, suggérant d'asservir les humains.

« Nos outils IA permettent déjà d’éviter des traumatismes », entretien avec le général de gendarmerie en charge de l’IA

Le Sommet pour l'action sur l'IA vise à éclairer le grand public sur l'usage de ces technologies. En amont de cet événement, Numerama s'est entretenu avec le coordonnateur IA de la Gendarmerie pour en savoir plus sur leur application concrète dans les enquêtes.

« L’absence d’innovation mène à la perte » : comment l’armée forme des jeunes à combattre les menaces de l’IA

Lors de l'événement Cyber Humanum Est, l'armée a mis à l'épreuve les futurs experts en cybersécurité avec des scénarios impliquant des campagnes de désinformation générées par l'intelligence artificielle. L’objectif : les préparer à contrer les menaces numériques dans un contexte géopolitique complexe.

Accusé de propos racistes ? Un internaute invoque l’IA comme défense

Un internaute sur Reddit a nié avoir tenu des propos racistes lors d'une réunion avec ses employeurs, affirmant que l'extrait audio qu'ils ont entendu a été généré par une intelligence artificielle.

❌
❌