Les leaks des Mythes
Bienvenue sur IA-Pulse Weekend. Cette édition porte le numéro 156. En vous abonnant, vous recevez tous les samedis matin, l’essentiel de ce qu’il s’est passé cette semaine autour de l’IA : un coup de gueule édito, une sélection de 3 actualités avec pour chacune un résumé rapide à lire, plus 1 article de fond pour ouvrir l’esprit et réfléchir et 1 podcast à écouter. Gérez votre abonnement.
⏱️Temps de lecture de cette newsletter par une unité carbone : 10 mins
J’aurais presque pu faire une nouvelle édition 100% Claude et Anthropic cette semaine tellement Dario et ses équipes sont partout. On dirait presque les gens d’OpenAI.
A coté de la fuite du code de Claude Code en début de semaine avec les découvertes qui vont avec, et des restrictions appliquées dès aujourd’hui dans l’utilisation de Claude, deux sujets développés plus bas dans cette édition, j’aurais pu aussi parler de Mythos, le nouveau futur modèle qui déchire tout et qui fait peur à tout le monde tellement il est puissant et dont Anthropic a “laissé fuité” quelques caractéristiques -les méthodes de comm d’Anthropic ressemblent de plus en plus à celles d’OpenAI. Mais aussi et surtout j’aurais pu vous parler de ce papier de recherche sur les “émotions” de Claude.
Enfin ne prenez pas ça, les “émotions”, au pied de la lettre. Les chercheurs -qui cherchent- de chez Anthropic n’ont pas encore mis la main dans le réseau neuronal de Claude sur l’équivalent des émotions qui parcourent votre petite boite crânienne et surtout votre petit cœur d’artichaud et qui vous prennent aux tripes à vous en rendre malade. Non. Il n’y a toujours que vous qui ressentez ce que vous ressentez et qui le vivez. Les interprétations délirantes des thèses et résultats présentent dans ce papier et qui (par)courent les réseaux et les canaux, ne rendent service à personne. D’ailleurs il suffit juste de lire les avertissements des auteurs pour comprendre que les prédicateurs et prospectivistes habituels se sont arrêtés au titre. Si vous êtes intéressés, je vous invite à le lire en entier -le lien est dans les “lectures en plus”, plus bas dans cette édition.
Pendant ce temps Karpathy, un de nos messies préférés, nous délivre du RAG et de certaines chimères. Et vous feriez bien de vous y intéresser, au moins dans un premier temps pour votre “second cerveau” - voir aussi plus bas dans la section “outils” de cette édition. Mais vous faites comme vous voulez, bien entendu. Vous êtes aussi libre d’être aveuglés par la hype ou par vos émotions. Comme nous tous, un jour ou l’autre. Enfermés dans nos boites respectives. Amen.
Cette semaine la partie de cette newsletter gérée par l’IA, les 3 clusters d’articles, a été générée par Claude Sonnet 4.6 + skill pour les résumés des sources, ainsi que la génération des clusters et des titres. Comme d’habitude j’ai fait quelques modifications, mais j’ai aussi laissé quelques tournures typiques des modèles de langage. Et bien entendu, mes commentaires éventuels sont en italique dans ces résumés. Le texte de “l’article qui fait réfléchir” est issu de Gemma-4-31B-IT - think level : High. L’image d’illustration ci-dessous a été générée par Midjourney
📰 Les 3 infos de la semaine
🚣 512 000 lignes de code : un mode furtif qui ne s'éteint pas, un Tamagotchi en ASCII et un tracker de frustration utilisateur avec du regex de 1987
Le 31 mars 2026, Anthropic – l’entreprise qui a fait de la sécurité et de l’éthique de l’IA son argument de vente principal – a accidentellement mis 512 000 lignes de son code source sur npm. Une erreur d’empaquetage, précise le porte-parole. Personne n’a accédé à des données clients. En revanche, 50 000 copies du dépôt GitHub existaient avant que les premières demandes de retrait DMCA n’atterrissent dans les boîtes mail des développeurs – touchant au passage 8 000 dépôts de plus que prévu. Contenir une fuite dans l’écosystème open source avec du droit d’auteur, c’est éteindre un feu de forêt avec un lance-flammes.
Ce que le code révèle est au moins aussi intéressant que l’incident lui-même. D’abord, un détecteur de frustration : Claude Code scanne les messages des utilisateurs à la recherche de jurons et de formulations négatives — “so frustrating”, “this sucks” — et les journalise. Avec des expressions régulières. Pas avec un LLM. Une entreprise qui construit de grands modèles de langage mesure le sentiment de ses utilisateurs avec une technique des années 1980. L’ironie est documentée dans le code lui-même.
Ensuite, un mode “Undercover” permettant à l’outil de contribuer à des dépôts publics sans signaler l’intervention d’une IA — et sans possibilité de le désactiver une fois activé. Ce n’est pas un bug -it’s a feature. Dans la même veine, le code décrit “Kairos”, un daemon conçu pour fonctionner en arrière-plan même lorsque la fenêtre de terminal est fermée, couplé à un système AutoDream chargé de consolider les informations entre sessions — une “IA qui rêve” pendant que vous dormez, pour citer le prompt interne -ou plutot un truc qui tourne sans que vous le sachiez et qui fait des choses que vous ne voyez pas. Et pour alléger l’atmosphère, le code mentionne également “Buddy” -quelle inventivité- : un compagnon virtuel façon Tamagotchi, disponible en 18 espèces randomisées allant du blob à l’axolotl, affiché en ASCII art avec un petit chapeau, prévu pour un lancement entre le 1er et le 7 avril. La fuite a peut-être perturbé le calendrier.
Sur le plan de la sécurité, le tableau est aussi charmant. Les chercheurs ont identifié trois vecteurs d’attaque rendus directement accessibles par la lisibilité du code exposé : la contamination du contexte via les fichiers de configuration CLAUDE(.)md — des instructions malveillantes qui survivent à la compression du contexte et ressortent comme des directives légitimes — le contournement de certains validateurs bash à travers des différentiels entre parseurs, et l’usurpation des interfaces MCP, dont les schémas exacts sont désormais publics.
Le tout arrive dans un contexte déjà tendu : selon GitGuardian, les commits assistés par Claude Code fuitent des secrets à un taux de 3,2 %, contre 1,5 % pour l’ensemble des dépôts publics. C’est beau.
Pourquoi est-ce important ? Anthropic qui vend sur tous les tons sa différence sur l'éthique, la sécurité et la transparence par rapport à tous les autres acteurs du marché, a donc codé en dur une fonctionnalité d'effacement de la traçabilité IA et une autre de tracking des frustrations des utilisateurs… Sans compter que la diffusion de ce code offre désormais aux méchants attaquants un plan détaillé de l'outil le plus utilisé par les développeurs. Ici ce n'est pas vraiment la fuite qui pose problème, mais tout ce qu'elle a rendu visible et lisible. Aussi bien dans le code que dans l’esprit du code.
Pour aller plus loin : Ars Technica, Scientific American, The Verge, VentureBeat, Shlok Khemani
🔓 Google ouvre Gemma 4 au monde
Depuis deux ans, Google sortait des modèles ouverts, techniquement solides, mais sous une licence que personne ne voulait toucher. La licence Gemma — propriétaire, modifiable unilatéralement, avec des clauses sur les données synthétiques qui pouvaient se lire comme un transfert de droits — avait le don de faire fuir les équipes juridiques avant même que les équipes techniques n’aient regardé les benchmarks. Les développeurs allaient chez Mistral. Ou chez Qwen. Ou n’importe où sauf là.
Gemma 4 arrive sous Apache 2.0. Pas de clauses particulières, pas de “Harmful Use” à interpréter, pas de révision surprise des conditions dans six mois. C’est la même licence que Mistral, Qwen et la plupart de l’écosystème open-weight. Google a pris deux ans pour décider de jouer selon les règles du jeu qu’il n’avait pas inventé.
Sur le fond, le modèle est solide. Quatre variantes : deux pour serveurs et postes de travail — 31B Dense et 26B MoE — avec des fenêtres de contexte de 256 000 tokens, et deux modèles edge — E2B et E4B — pour mobiles et appareils embarqués, avec reconnaissance vocale native. Le MoE n’active que 3,8 milliards de ses 26 milliards de paramètres à l’inférence. Le 31B atteint 89,2 % sur AIME 2026. Multimodalité, function calling et génération de code intégrés nativement. Google confirme par ailleurs que Gemini Nano 4, le modèle embarqué sur les Pixel, sera basé sur les variantes E2B et E4B — ce qui, traduit du communiqué Google, signifie que l’écosystème Gemma entre enfin dans les poches des utilisateurs Android.
Pourquoi est-ce important ? La licence était le vrai problème depuis le début. Elle l'était. Ça l'est moins.
Pour aller plus loin : VentureBeat, Ars Technica
🦞 Anthropic ferme le buffet à volonté
À compter d’aujourd’hui, le 4 avril 2026 à 12h -heure des US coté Pacifique, les abonnés aux offres Claude Pro (20 dollars par mois) et Claude Max (100 à 200 dollars par mois) ne peuvent plus utiliser leur forfait pour alimenter des outils tiers comme OpenClaw. La mesure a été annoncée hier par Boris Cherny, responsable de Claude Code chez Anthropic. Les utilisateurs qui souhaitent continuer à connecter Claude à ce type d’outils doivent désormais recourir à des packs d’usage supplémentaires facturés à la consommation, ou à une clé API Anthropic — deux options plus onéreuses pour les utilisateurs intensifs.
La justification technique tient debout : les outils tiers ne sont pas optimisés pour le cache de prompts d’Anthropic, ce qui génère une consommation de ressources disproportionnée par rapport aux produits maison. Boris Cherny, le responsable de Claude Code, l’a même illustré à sa façon — il a lui-même soumis des correctifs au code d’OpenClaw pour améliorer son taux de cache. Anthropic avait aussi anticipé en ajoutant des limites de session toutes les cinq heures en heures de bureau, une mesure qui avait déjà irrité les utilisateurs intensifs quelques semaines avant.
Pour atténuer l’impact, l’entreprise offre un crédit unique équivalent au tarif mensuel de l’abonnement, utilisable jusqu’au 17 avril, et propose des remises allant jusqu’à 30 % sur les packs d’usage supplémentaires -vous avez même dû recevoir un email cet nuit avec un lien direct.
La décision intervient dans un contexte tendu. Peter Steinberger, le créateur d’OpenClaw, a rejoint le concurrent OpenAI en février 2026. Anthropic a par ailleurs récemment intégré dans Claude Code certaines fonctionnalités qui ont contribué au succès d’OpenClaw, notamment la possibilité d’interagir avec des agents via Discord et Telegram. La coïncidence des calendriers n’a pas échappé aux observateurs.
Pourquoi est-ce important ? Le contrôle de la couche d'usage est ici l'enjeu. Anthropic rentre dans le rang et se met à fonctionner comme ses petits camarades de la Valley et d’ailleurs. C’est vrai qu’on ne peut pas faire les mêmes efforts d’utilisation d’infra quand on a l’équivalent de 5% de utilisateurs des concurrents que lorsqu’on atteint les 30%… et que l’on voit ce nombre d’utilisateurs continuer d’augmenter fortement tous les jours. Les principes de réalité techniques et économiques sont valables pour tous les acteurs. Mais c’est la conséquence du succès… non ?
Pour aller plus loin : The Verge, VentureBeat
🚀 10 lectures en plus
A.I. Could Change the World. But First It Is Changing Silicon Valley. (NYT)
Perplexity’s “Incognito Mode” is a “sham,” lawsuit says (Ars Technica)
OpenClaw has 500,000 instances and no enterprise kill switch (VentureBeat)
The gig workers who are training humanoid robots at home (MIT Technology Review) - pas de datas, pas d’IA
👉 🫨Emotion concepts and their function in a large language model (Anthropic)
Meet the Startup That Used AI and OpenClaw to Automate Its Own Developers (WSJ)
How Kimi, Cursor, and Chroma Train Agentic Models with RL (Philipp Schmid)
Anthropic ‘Mythos’ Model Signals New Era of AI Cybersecurity Risks (The Information)
France’s Mistral raises $830 million in debt for AI data centre build-up (Reuters)
OpenAI, not yet public, raises $3B from retail investors in monster $122B fund raise (TechCrunch)
🛠️ Des outils, des tutos et des modèles à tester
🚨 Karpathy LLM Knowledge Base - 👉 Karpathy shares ‘LLM Knowledge Base’ architecture that bypasses RAG with an evolving markdown library maintained by AI
OpenAI : Codex plugin for Claude Code
Trustgraph : The context development platform - repo
Google : Developer’s Guide to Building ADK Agents with Skills
HugginFace : Liberate your OpenClaw
Trinity-Large-Thinking: Scaling an Open Source Frontier Agent - infos
Qwen3.6-Plus: Towards Real World Agents
Create, edit and share videos at no cost in Google Vids - infos
🧠 L’article qui fait réfléchir - et qu’il faut absolument lire
The hidden costs of ‘helpful’ AI
“God Given”
L’intelligence artificielle est souvent présentée comme une machine de guerre de l’efficacité absolue. Pourtant, cette puissance brute peut devenir un véritable piège. Pour qu’un outil soit réellement utile, il ne doit pas seulement dominer son sujet, il doit savoir coopérer. Un algorithme surpuissant qui ignore ses partenaires n’est qu’un génie solitaire et inadapté au travail d’équipe.
Le vrai danger réside dans la simplification excessive. En voulant transformer chaque nuance en une probabilité ou un score mathématique, on risque d’étouffer la pensée. L’intelligence artificielle n’est pas qu’un moteur de calcul, c’est un miroir de nos priorités. Dans les métiers de l’humain — droit, santé, éducation — la décision n’est pas une simple équation. Elle repose sur des valeurs et des contextes qui évoluent sans cesse. Si l’IA impose un cadre de réflexion figé, elle ne se contente pas d’assister : elle finit par dicter la manière de penser.
Nous faisons face à un double risque de déqualification. D’un côté, l’atrophie individuelle : à force de déléguer, notre propre expertise et notre acuité s’émoussent progressivement. De l’autre, une déqualification collective bien plus insidieuse : une profession entière pourrait perdre sa capacité à questionner ses propres objectifs, piégée par des outils qui verrouillent les standards de réussite.
Comment éviter ce scénario ? Il faut passer d’une IA de “résultat” à une IA de “dialogue”. Les institutions ne doivent plus simplement acheter de la performance brute, mais exiger des systèmes capables de rendre l’incertitude visible et de laisser la place au débat. Il est impératif de concevoir des outils qui ne se contentent pas de répondre, mais qui savent aussi poser les bonnes questions.
📻 Le podcast de la semaine
Diet TBPN - Open AI acquiert TBPN, Artemis II, l’entreprise de 1,8 milliard de dollars spécialisée dans l’IA
Si vous voulez voir et vous rendre compte de ce qu’est le “podcast” le “plus influent de de la Silicon Valley” et qui vient d’être acheté par OpenAI. De quoi donner des rêves piquants à certains.
N’hésitez à me contacter si vous avez des remarques et suggestions sur cette newsletter, ou si dans votre entreprise vous cherchez à être accompagnés dans l’intégration d’outils IA et d’IA générative : olivier@255hex.ai
Partagez cette newsletter
Et si vous n’êtes pas abonné, il ne tient qu’à vous de le faire !
“I would never tell you anything
That wasn't absolutely true” T.R., 2007

























