OpenAI vient de mettre à jour Codex. Parmi les ajouts figurent un navigateur intégré, la génération d’images, la mémoire utilisateur des préférences et bien d’autres encore. Dans la face d’Anthropic !
Codex n’est plus l’assistant de codage que vous avez connu. Le PDG d’OpenAI Sam Altman estime même qu’il est encore plus utile que prévu selon les démonstrations internes récentes. Suivez-moi, vous allez comprendre.
Lots of major improvements to Codex!
Computer use is a real update for me; it feels even more useful than I expected. It can use all of the apps on your Mac, in parallel and without interfering with your direct work.
Le changement le plus marquant concerne son mode de fonctionnement. Codex peut désormais s’exécuter en arrière-plan sur un ordinateur. Il est à même d’ouvrir des applications, de cliquer et de saisir du texte via son propre curseur tel un utilisateur réel.
Plusieurs agents peuvent ainsi tourner en même temps sur un Mac, sans perturber les autres applications ouvertes. Pour les développeurs, cela facilite les itérations sur l’interface, les tests d’applications et le travail sur des outils sans API disponible.
Codex fonctionne aussi dorénavant nativement avec le web. Un navigateur intégré permet de commenter les pages et de guider l’agent avec précision. Notamment pour le front-end et le développement de jeux.
Grâce à la mise à jour, l’assistant peut également utiliser gpt-image-1.5 pour générer et améliorer des images. Combiné aux captures d’écran et au code, il facilite la création de visuels pour produits, interfaces, maquettes et jeux.
Codex for (almost) everything.
It can now use apps on your Mac, connect to more of your tools, create images, learn from previous actions, remember how you like to work, and take on ongoing and repeatable tasks. pic.twitter.com/UEEsYBDYfo
Plus de 90 plugins supplémentaires sont également ajoutés. Ces derniers combinent compétences, intégrations et serveurs MCP. Ils élargissent les capacités de Codex, avec des outils comme Jira via Atlassian Rovo, CircleCI, GitLab Issues ou Microsoft Suite.
Codex gère aussi les commentaires GitHub, plusieurs onglets de terminal et les connexions SSH en version alpha, maintenant. A cela s’ajoute la capacité d’ouvrir des fichiers avec des aperçus détaillés et d’utiliser un volet récapitulatif pour suivre actions, sources et résultats des agents.
OpenAI introduit aussi une fonction de mémoire en aperçu. Codex peut retenir des informations utiles issues des sessions passées, comme les préférences de travail ou les corrections répétées.
Il s’appuie sur les projets, les plugins connectés et la mémoire pour suggérer une reprise de la journée ou d’un projet en cours. Il peut par exemple repérer des commentaires dans Google Docs, récupérer du contexte depuis Slack ou Notion, puis organiser une liste d’actions priorisées.
Bref, ces nouveautés sont déployées pour les utilisateurs de l’application de bureau Codex connectés à ChatGPT. Certaines fonctions de personnalisation et de mémoire arriveront progressivement pour les entreprises.
Bien entendu, les établissements éducatifs, ainsi que les utilisateurs en Europe et au Royaume-Uni ne sont pas non plus oubliés. Quant à l’utilisation en mode ordinateur, elle est d’abord disponible sur macOS, avant un élargissement prévu ensuite.
Jérémy Clédat, fondateur et CEO de Welcome to the Jungle présent au salon Go Entrepreneurs Paris, a passé un an à repenser de fond en comble la plateforme de recrutement phare en France. Nous l'avons rencontré pour parler de la nouvelle suite qu'il s'apprête à déployer, mais surtout de ce que l'IA est en train de faire au travail, aux entreprises, à l'éducation -- et au sens même de ce qu'on appelle un métier.
Le 14 avril 2026, OpenAI a présenté GPT-5.4-Cyber, une variante de son dernier modèle pensée pour la cyberdéfense et destinée aux professionnels de la sécurité. L’annonce suit de près le bruit médiatique suscité par Anthropic et son projet Glasswing.
Après une attaque au cocktail Molotov, la résidence de Sam Altman a de nouveau été visée, cette fois par des tirs, dans la nuit du 11 au 12 avril 2026 à San Francisco. Ces faits, qui ont conduit à plusieurs arrestations, interviennent dans un climat de forte polarisation autour du développement de l’IA.
Meta développe une version virtuelle de Mark Zuckerberg capable de répondre aux employés à sa place, rapporte le Financial Times dans un article publié le 13 avril 2026. Un projet qui illustre, une nouvelle fois, l’accélération de la stratégie du groupe dans l’IA.
Dans la Silicon Valley, l’usage de l’intelligence artificielle est devenu un marqueur de performance. Sous l’effet du phénomène de « tokenmaxxing », certains salariés des géants de la tech multiplient les dépenses en tokens pour grimper dans des classements internes, alimentant à la fois le débat sur la productivité et la croissance des fournisseurs d’IA.
Sam Altman, l’un des visages les plus influents de l’intelligence artificielle, fait l’objet d’un portrait particulièrement critique dans une enquête du New Yorker. Le magazine y relaie des accusations de manipulation, des doutes sur sa maîtrise technique et une affaire familiale grave, contestée par l’intéressé.
Comme Claude, OpenAI sépare désormais son abonnement ChatGPT Pro en deux niveaux, à 103 euros par mois (5 fois moins de limites) ou 229 euros par mois (20 fois moins de limites). L'entreprise veut s'adresser aux utilisateurs les plus demandeurs, notamment pour son outil de développement Codex, mais qui n'ont pas besoin du ChatGPT Pro le plus cher.
Invité du podcast de Cleo Abram, Demis Hassabis, le patron de Google DeepMind, est longuement revenu sur l'émergence de l'IA générative commerciale en 2022, qui a d'abord pris Google par surprise. Le prix Nobel de chimie s'interroge sur l'intérêt d'avoir publié aussi rapidement cette technologie au grand public : les laboratoires auraient peut-être utilisé leur temps autrement si la lutte acharnée pour avoir le meilleur modèle n'avait pas commencé.
Après des mois à recruter dans toute la Silicon Valley pour former le Superintelligence Labs, Meta vient de dévoiler Muse Spark, un premier modèle propriétaire présenté comme supérieur à Claude Opus 4.6 et Google Gemini 3.1 Pro dans plusieurs tests. Mais l'entreprise a-t-elle encore une chance dans la course à l'IA générative ?
Victime de son succès, Anthropic n'a plus la capacité de faire tourner ses serveurs correctement entre les utilisateurs gratuits, ses abonnés payants et les services tiers, comme OpenClaw, que beaucoup associent à Claude. L'entreprise annonce qu'il n'est désormais plus possible de lier un abonnement Claude à OpenClaw : il faut utiliser l'API et payer pour chaque token.
En pleine restructuration pour se concentrer sur ChatGPT, OpenAI a laissé tomber plusieurs projets annexes comme la génération de vidéos Sora ou la création de hardware. Pourtant, et à la surprise générale, le groupe de Sam Altman a annoncé le rachat de TPBN, le talk show tech le plus populaire du moment aux États-Unis.
Fini les discours rassurants sur le progrès technologique. Le patron d’OpenAI vient de livrer sa véritable feuille de route pour la décennie à venir, et elle a de quoi donner le vertige. Militarisation assumée de ses algorithmes, fin programmée du salariat de masse et, surtout, mutation forcée de l’espèce humaine : Sam Altman ne se contente plus de vouloir « disrupter » des marchés, il annonce la fin du monde tel que nous le connaissons. Plongée dans l’esprit d’un démiurge rattrapé par sa propre créature.
Le pape de l’intelligence artificielle a brisé le silence. Dans une interview historique aux allures de testament anticipé accordée à la journaliste Laurie Segall pour son podcast Mostly Human, Sam Altman, le PDG d’OpenAI, s’est livré avec une franchise déconcertante.
L’heure est grave dans la Silicon Valley : le monde digère encore l’abandon brutal de Sora, le générateur de vidéos ultra-réalistes d’OpenAI, tandis que des procès monstres frappent de plein fouet les géants historiques de la tech.
Tiraillé entre la puissance vertigineuse de sa création et la terreur de ses conséquences sociétales, le père de ChatGPT se dévoile. Est-il l’architecte d’un nouvel âge d’or ou le fossoyeur de notre humanité ? Récit d’une confession sans précédent.
Le sacrifice à un milliard de dollars : pourquoi Sora devait mourir
?s=20
C’était la machine à rêves (et à cash) ultime d’OpenAI, l’outil capable de faire trembler Hollywood sur ses bases. Pourtant, Sora a été débranché en plein vol. Derrière ce coup de tonnerre, Sam Altman lève le voile sur une décision qu’il qualifie de « très difficile », motivée par un spectre bien précis : l’addiction.
Le milliardaire a révélé qu’il avait initialement prévu d’intégrer Sora directement au cœur de ChatGPT. Mais à la dernière minute, OpenAI a fait machine arrière. La raison ? La crainte viscérale de concevoir des mécanismes de récompense poussant à une dépendance incontrôlable chez les utilisateurs.
Un choix d’une actualité brûlante : l’interview intervient au moment même où la justice américaine compare les géants du net à l’industrie du tabac.
La semaine précédente, des jurys de Los Angeles et du Nouveau-Mexique ont condamné Meta et Google à payer des centaines de millions de dollars (dont une amende record de 375 millions pour la maison mère de Facebook) pour avoir sciemment rendu les adolescents accros à leurs plateformes. Altman l’assure, il ne voulait pas que Sora devienne la prochaine drogue numérique.
La guerre secrète des serveurs
OpenAI Brad Lightcap says model training cycles are collapsing, driving rapid jumps from GPT-5.1 to 5.4
GPT-5.4 is days old and already doing a $1B run rate revenue, processing 5 trillion tokens daily
Mais l’éthique n’est que la face visible de l’iceberg. L’autre raison de l’exécution de Sora est purement pragmatique : la guerre sans merci de la puissance de calcul (compute).
Pour donner naissance à sa prochaine génération d’IA, OpenAI se devait de rationner drastiquement ses ressources. Maintenir Sora en vie aurait vampirisé les serveurs de l’entreprise.
Ce choix clinique a eu un prix colossal. Altman confesse s’être senti « très mal » au moment de décrocher son téléphone pour appeler personnellement Josh D’Amaro, grand patron chez Disney, afin de faire une croix sur un partenariat pharaonique d’un milliard de dollars.
Pour qu’OpenAI reste le maître incontesté de l’intelligence artificielle et forge l’outil ultime de demain, Sora devait être sacrifié sur l’autel de la recherche.
Le pacte avec le Pentagone : quand l’IA s’enrôle
Si le sacrifice de Sora a secoué le monde du divertissement, c’est sur le terrain militaire que Sam Altman a dû essuyer les tirs les plus nourris.
L’interview aborde de front la controverse qui a enflammé l’opinion en février 2026 : l’ouverture officielle des modèles d’OpenAI aux réseaux classifiés du Département de la Défense américain. Fini le pacifisme candide des débuts de la Silicon Valley ; l’IA a enfilé le treillis.
Face à Laurie Segall, Altman amorce un mea culpa stratégique. Il admet volontiers avoir « mal calibré » le niveau de méfiance et la virulence de la réaction du public face à cette alliance avec le Pentagone. Pourtant, il ne recule pas d’un pouce sur le fond. Mieux, il justifie ce pacte par une position politique tranchée, rare pour un magnat de la tech.
Pour le PDG d’OpenAI, refuser de soutenir son propre gouvernement par principe ou idéologie serait une erreur fatale. « Il est très important que les gouvernements soient les plus puissants », assène-t-il, rejetant l’idée qu’une poignée de PDG non élus devraient dicter la géopolitique mondiale.
Altman assume un patriotisme technologique décomplexé : face aux superpuissances rivales, l’intelligence artificielle américaine doit servir l’État souverain. Une ligne dure qui marque un tournant définitif : OpenAI n’est plus seulement une entreprise de recherche, c’est désormais une infrastructure critique de la sécurité nationale américaine.
L’apocalypse de l’emploi et l’avènement du « Milliardaire Solitaire »
Une fois le parapluie militaire assumé, Altman a lâché ce qui ressemble fort à une bombe à fragmentation sur le marché du travail mondial. Fini les discours lénifiants sur l’IA qui viendrait simplement « augmenter » les travailleurs sans les remplacer. Le vernis craque : Altman reconnaît froidement que la transition à court terme entraînera « une énorme perte d’emplois ».
L’accélération est telle qu’elle donne le vertige. Le milliardaire décrit un avenir immédiat où des armées de « chercheurs en IA automatisés » seront capables de condenser une décennie entière de découvertes scientifiques en l’espace d’une seule année.
Un bond en avant spectaculaire pour la médecine ou l’ingénierie, mais qui a un corollaire brutal : la destruction pure et simple de millions de postes de travailleurs du savoir. Le travail tel que nous le connaissons va être pulvérisé.
Cependant, sur les cendres de cet ancien monde, Altman prophétise l’émergence d’un nouveau capitalisme radical. Bienvenue dans l’ère du « Milliardaire Solitaire ».
OpenAI CEO Sam Altman was asked if the next billion dollar company could be created by a solo entrepreneur and AI agents
His answer: “I believe it has happened”
A legitimate single person billion dollar business has been created with just AI agents
Grâce à des agents IA autonomes capables de coder, de gérer le marketing, d’optimiser les chaînes logistiques et de prendre des décisions stratégiques en temps réel, un simple créateur isolé (solo-founder) pourra bientôt bâtir et diriger une entreprise valorisée à un milliard de dollars depuis son salon.
L’IA promet une « ère d’abondance », mais elle redessinera les lignes de la richesse : des empires colossaux gérés par un seul être humain, aux commandes d’une armée de fantômes numériques.
Bébés augmentés et « zones sans IA » : le choix vertigineux des futurs parents
Si les déclarations d’Altman sur l’économie et la guerre ont de quoi faire frémir, c’est sur le terrain intime que l’interview bascule dans la science-fiction la plus troublante. Depuis qu’il est devenu père en 2025, le PDG avoue que son cerveau a été « totalement recâblé ».
Comment élever un enfant dans un monde qui s’apprête à être fondamentalement altéré par la technologie qu’il a lui-même créée ?
C’est en répondant à cette question qu’Altman lâche la prophétie la plus folle et la plus effrayante de cet entretien : la scission inéluctable de l’espèce humaine. Pour lui, l’étape finale n’est pas la simple cohabitation avec l’IA, mais l’assimilation. Il théorise une transition inévitable où l’humanité passera de son état purement biologique à une fusion totale avec l’intelligence numérique.
Le vertige saisit le lecteur lorsqu’il décrit la société de demain, irrémédiablement divisée en deux camps. D’un côté, ceux qui embrasseront cette hybridation pour devenir « inimaginablement intelligents », des posthumains aux capacités cognitives dopées par le silicium.
De l’autre, les « puristes », ceux qui refuseront l’augmentation. Pour ces derniers, Altman imagine déjà la création de « zones sans IA » (AI-free zones), de véritables réserves sanctuarisées où ils pourront continuer à vivre une existence humaine classique, déconnectée de la matrice globale.
Un choix existentiel brutal qui s’imposera bientôt à chaque parent : faire de son enfant un dieu numérique, ou l’isoler dans une réserve biologique.
De quel côté de la frontière serez-vous ?
À l’issue de cet entretien-choc, le portrait de Sam Altman qui se dessine est celui d’un Prométhée moderne, terrifié par le feu qu’il vient de livrer aux hommes, mais incapable – et désireux de ne pas – l’éteindre.
Il incarne toute la dualité de la Silicon Valley d’aujourd’hui : un idéalisme absolu quant au potentiel salvateur de la technologie, couplé à un pragmatisme froid face aux dommages collatéraux inévitables.
En sacrifiant Sora, en s’alliant au Pentagone et en prédisant l’effondrement du travail traditionnel, le patron d’OpenAI nous prévient que la phase d’expérimentation amusante de l’IA est bel et bien terminée. L’heure des choix titanesques a sonné.
À la lecture de ses confessions, une certitude glaçante s’impose : la question n’est plus de savoir si cette révolution va balayer notre monde d’ici la fin de la décennie. La seule véritable question qui nous reste est de savoir dans laquelle de ces deux humanités nous choisirons de vivre.
Et vous, serez-vous dans le camp post-humains hybrides, ou dans celui des puristes qui se réfugient dans leurs zones sans IA ? Partagez votre avis en commentaire !
En à peine quelques jours, un modèle d’IA peut générer un milliard de dollars de revenus et traiter d’énormes volumes de données. Pour OpenAI, cette accélération annonce que nos IA actuelles pourraient très vite sembler dépassées, presque ridicules.
Les progrès d’intelligence artificielle se comptaient autrefois en années. Mais maintenant ils se jouent en semaines, voire en jours. Et selon Brad Lightcap, dirigeant chez OpenAI, cette dynamique va s’intensifier au point de rendre les modèles actuels obsolètes d’ici fin 2026.
Des cycles d’entraînement qui s’accélèrent encore plus
Le cœur du phénomène est technique, mais son impact est très concret. OpenAI explique que le temps nécessaire pour entraîner et améliorer ses modèles est en train de s’effondrer. Les itérations s’enchaînent donc à une vitesse inédite.
Ce changement explique la succession rapide des versions GPT-5.1, 5.2, 5.3 puis 5.4 en l’espace de quelques semaines. Chaque nouvelle version apporte des gains significatifs, sans attendre de longs cycles de recherche et de déploiement.
Cette accélération transforme aussi la manière dont les entreprises adoptent l’IA. Un modèle sorti il y a quelques jours peut déjà devenir dominant. Le modèle GPT-5.4 en est l’exemple. A peine lancé, il s’impose comme le moteur principal des API d’OpenAI.
GPT-5.4 traite environ 5 000 milliards de jetons par jour et affiche un rythme de revenus annualisé d’un milliard de dollars. Pour un modèle âgé de quelques jours seulement, c’est une adoption presque instantanée à l’échelle mondiale.
Ce succès repose sur un effet boule de neige. Plus un modèle est performant, plus il est utilisé. Et plus il est utilisé, plus il devient central dans des usages critiques. Comme le développement logiciel, la rédaction ou l’analyse de données.
Ainsi, GPT-5.4 ne représente pas une fin, mais un point de passage. OpenAI anticipe déjà que ce modèle, aujourd’hui dominant, paraîtra rapidement banal face à ses successeurs.
OpenAI Brad Lightcap says model training cycles are collapsing, driving rapid jumps from GPT-5.1 to 5.4
GPT-5.4 is days old and already doing a $1B run rate revenue, processing 5 trillion tokens daily
Pour comprendre cette progression, il faut revenir à la philosophie de GPT-5. Lors d’une interview accordée à Big Technology, Brad Lightcap décrit la disparition du choix entre différents modes d’IA.Avant, les utilisateurs devaient sélectionner un modèle adapté à leur tâche. Ils sont parfois orientés vers la rapidité, parfois vers le raisonnement.
GPT-5 introduit une logique plus fluide. Le dernier modèle d’OpenAIdécide lui-même s’il doit réfléchir en profondeur ou répondre directement. Cette capacité à ajuster son comportement en temps réel simplifie l’expérience et améliore la qualité des réponses.
Les gains sont visibles dans plusieurs domaines. L’écriture devient plus cohérente, le code plus fiable, et même des secteurs exigeants comme la santé bénéficient d’une meilleure précision.
Une obsolescence accélérée des IA actuelles
La déclaration la plus marquante reste celle-ci. Selon Brad Lightcap, d’ici la fin de l’année, les modèles actuels pourraient déjà sembler fades. L’IA n’évolue plus de manière linéaire, mais exponentielle. Chaque amélioration accélère la suivante. Chaque nouveau modèle sert de base à une version encore plus performante, développée encore plus rapidement.
Pour les utilisateurs, cela implique un changement de perspective. Les outils considérés aujourd’hui comme avancés pourraient devenir des standards minimums. C’est un peu comme les premiers smartphones. Ils sont révolutionnaires à leur sortie, mais rapidement dépassés.
GPT-5.4 Thinking and GPT-5.4 Pro are rolling out now in ChatGPT.
GPT-5.4 is also now available in the API and Codex.
GPT-5.4 brings our advances in reasoning, coding, and agentic workflows into one frontier model. pic.twitter.com/1hy6xXLAmJ
Pour les entreprises, investir dans une IA aujourd’hui signifie accepter qu’elle sera obsolète demain. La vraie valeur réside maintenant dans la capacité à suivre ce rythme effréné. Ce que révèle OpenAI, au-delà des chiffres impressionnants, c’est donc une mutation structurelle de l’innovation technologique. L’IA progresse ainsi par vagues successives de plus en plus rapides.
Ainsi, GPT-5.4 n’est pas un aboutissement, mais un aperçu. C’est comme un instantané d’un futur en construction permanente. Et si la prédiction de Brad Lightcap se confirme, nous regarderons peut-être les IA actuelles avec le même recul amusé que les débuts d’Internet.
OpenAI s’apprête à lancer GPT-5.5 avec son IA Spud. Si ce nom peut surprendre, sachez qu’il désigne une avancée destinée à transformer ChatGPT. Plus puissante et plus intuitive, cette innovation marque un nouveau pas vers l’IA générale.
OpenAI joue gros avec GPT-5.5 et son modèle interne Spud. Greg Brockman, président de la firme, a dévoilé quelques détails dans le podcast Big Technology. Spud n’est pas une mise à jour classique. Il s’agit bien d’une base entièrement nouvelle pour ChatGPT. Ce moteur promet ainsi de résoudre des problèmes complexes avec une aisance inédite. Voici ce qu’il faut savoir à son propos.
GPT-5.5 et Spud : qu’est-ce que ça change ?
Le projet GPT-5.5 constitue le résultat de 2 années de recherche intensive au sein des laboratoires d’OpenAI grâce à l’architecture Spud. Greg Brockman confirme que ce modèle haut de gamme servira de fondation pour toutes les futures déclinaisons de l’assistant virtuel.
Spud vise à améliorer à la fois la puissance et la facilité d’utilisation de ChatGPT. Contrairement aux versions précédentes, cette structure repense totalement le fonctionnement de l’IA pour accroître ses capacités de calcul.
OpenAI’s “Spud” becomes the next pre-training base
> Greg Brockman says Spud is a new foundation model, not a simple upgrade
> Packs ~2 years of OpenAI research into a single pre-training leap
> Introduces “big model smell” – models feel noticeably smarter and adapt better to… pic.twitter.com/JfLXxZIeMH
Ce moteur de nouvelle génération doit stabiliser les performances globales tout en simplifiant l’expérience utilisateur. Spud devrait s’adapter de manière plusnuancée aux requêtes des utilisateurs. Selon Brockman, cette capacité à saisir rapidement l’intention va rendre les interactions plus naturelles.
Des interactions plus fluides et intuitives
L’IA pourrait éliminer la frustration que certains utilisateurs rencontrent aujourd’hui. Fini les reformulations successives pour se faire comprendre. GPT-5.5, propulsé par Spud, devrait anticiper et comprendre les besoins dès la première requête.
Les tâches exigeantes deviendront plus faciles à gérer. Et l’IA pourra agir presque comme un assistant intelligent apte à réfléchir avec vous.
Cette fluidité accrue ouvre des perspectives inédites pour l’automatisation et la productivité. Les professionnels de l’IA et les entreprises pourront s’appuyer sur des modèles plus fiables pour des applications avancées, qu’il s’agisse de rédaction, de programmation ou de prise de décision.
C’est un jalon stratégique !
Pour OpenAI, Spud est un plus qu’un produit commercial. Le président de l’entreprise affirme que ce modèle rapproche l’éditeur de la vision d’une IA générale. C’est-à-dire une IA capable de fonctionner sur différents domaines avec la flexibilité d’un humain.
Selon Brockman, la trajectoire est désormais claire. Une IA générale pourrait émerger dans les prochaines années. Spud constitue donc la base sur laquelle cette vision pourrait se concrétiser, en offrant un modèle centralisé, plus puissant et adaptable que jamais.
Une telle annonce n’est évidemment pas passée inaperçue. Un modèle comme Spud pourrait redéfinir la compétition dans le secteur des outils de productivité et de l’automatisation intelligente. Les concurrents vont ainsi devoir repenser leurs stratégies pour suivre le rythme imposé par OpenAI.
Pour les entreprises, la promesse est double : des gains en efficacité et un accès à une IA en mesure de comprendre des tâches ardues avec peu d’efforts. Cependant, cette sophistication soulève aussi des questions éthiques et de gouvernance. La manière dont les utilisateurs interagiront avec une IA si intuitive reste alors un sujet de débat.
En pratique, avec le duo formé par GPT-5.5 et Spud, ChatGPT pourrait devenir plus qu’un chatbot. Il devient un assistant polyvalent qui sait gérer des requêtes sophistiquées. Le modèle peut aussi anticiper les besoins et fournir des réponses plus naturelles. Et vous, comment imaginez-vous un ChatGPT boosté par Spud ?
À l'occasion du Forum InCyber, Numerama a souhaité approfondir les discussions autour des menaces grandissantes pour les entreprises. Parmi elles, le « Shadow AI », et deux questions centrales face à ce défi : quelle stratégie adopter, et quelles responsabilités en cas de fuite de données internes ?
Le 27 mars 2026, une nouvelle version du benchmark ARC-AGI a été rendue publique. Baptisé ARC-AGI-3, ce test évalue des systèmes d’IA dits « agentiques », capables d’agir et d’apprendre dans des environnements interactifs. Malgré leurs performances impressionnantes ailleurs, les meilleurs modèles échouent encore largement.
Mistral a annoncé ce lundi 30 mars 2026 avoir levé 830 millions de dollars sous forme de dette pour financer la construction d'un data center en Essonne, à Bruyères-le-Châtel. Le site, équipé de milliers de puces Nvidia de dernière génération, doit entrer en service d'ici à la fin du deuxième trimestre 2026.
Mistral AI lance Voxtral TTS, son premier modèle de synthèse vocale, avec l’ambition de rendre les voix générées plus naturelles et expressives. Si les démonstrations sont convaincantes, le rendu reste encore, dans la pratique, inégal.
Mauvaise nouvelle si vous attendiez que ChatGPT parle enfin érotique. Il semble que OpenAI stoppe net son fameux mode adulte. Est-ce la réponse à ces plusieurs mois à nous faire languir ?
Souvenez-vous. En octobre 2025, Sam Altman a suscité l’attention de tout le monde avec un teasing énigmatique sur un mode adulte pour ChatGPT. L’idée promettait de transformer l’IA conversationnelle en un chatbot capable de générer du contenu érotique. Mais le projet ne cesse d’être repoussé. Maintenant, c’est officiel ! OpenAI a préféré mettre cette expérimentation en pause, ce qui laisse planer le suspense sur l’avenir de cette fonctionnalité controversée.
Pourquoi OpenAI abandonne le mode érotique de ChatGPT ?
Le projet visait à créer un ChatGPT capable de générer des discussions érotiques.Toutefois, cette initiative suscite de fortes réticences, notamment du côté des employés et des investisseurs. Ils se montrent très critiques.
Selon The Financial Times, les risques liés à une IA sexualisée pèsent lourd dans la balance. Les effets psychologiques inquiètent. La question de la protection des mineurs devient centrale. Et surtout, les garde-fous techniques restent encore fragiles.
Le système de vérification d’âge, par exemple, n’offre pas encore toutes les garanties. De ce fait, un mineur pourrait théoriquement accéder à ce type de contenu. C’est un scénario que OpenAI refuse de prendre à la légère.
La mise en pause ne relève pas seulement d’un choix stratégique. La modération des contenus sexuels pose des problèmes complexes. OpenAI doit anticiper les abus potentiels et les implications légales.
La firme souhaite également étudier les effets émotionnels de discussions sexuelles générées par IA. Pour l’instant, aucune donnée empirique ne confirme ces effets, mais la prudence reste de mise.
Le Wall Street Journal rapporte que la sécurité des mineurs a été au centre des débats internes. OpenAI cherche à éviter tout scénario où une IA pourrait exposer des adolescents à des contenus inappropriés. Le chantier de la sécurité et de l’éthique devient donc prioritaire avant toute relance du projet.
Sachez que ce n’est pas le premier projet abandonné par OpenAI. Il y a aussi celui de Sora, la plateforme d’IA texte-vidéo. Altman avait même déclenché un « code red » fin 2025. Il signalait que les concurrents, Google et Anthropic notamment, rattrapaient le retard d’OpenAI. Ainsi, la société préfère concentrer ses ressources sur ses outils de productivité phares.
Ce que l’absence de mode érotique change pour les utilisateurs de ChatGPT
Concrètement, votre expérience ne change pas mais elle reste encadrée. ChatGPT ne proposera pas de discussions érotiques. Le fameux mode adulte devait autoriser des échanges explicites, mais aussi plus libres autour de la sexualité.
C’est une déception pour certains utilisateurs. Ils pourraient donc se tourner vers des alternatives proposant des contenus plus explicites. Mais ce choix apporte aussi un avantage. Vous utilisez une IA plus sécurisée, avec moins de risques liés aux contenus sensibles. Les parents, notamment, peuvent souffler.
L’arrêt du mode adulte rappelle aussi que même les géants de l’IA doivent encadrer leurs innovations. Cela pourrait ralentir l’émergence de produits similaires, et encourager les entreprises à intégrer l’automatisation responsable dès la conception.
Enfin, il y a un enjeu économique. Le mode adulte aurait pu générer des revenus. Pourtant, OpenAI privilégie sa réputation et la confiance des utilisateurs. Un pari stratégique face à une concurrence de plus en plus agressive.
Peut-être qu’un jour ChatGPT pourra générer des contenus érotiques. Pour l’instant, l’IA est sage. Et si vous tentez de franchir les limites, elle vous le rappellera immédiatement.
Le Shopping sur ChatGPT entre dans une nouvelle ère. Il devient plus visuel, plus rapide et surtout plus intelligent. Faire vos achats via un chatbot pourrait bien transformer votre expérience en un moment plus fluide et plaisant.
OpenAI vient de déployer une mise à jour majeure pour fusionner l’expérience de shopping et ChatGPT au sein d’une seule interface, selon TechRadar. L’objectif ne laisse guère de place au doute. La firme de Sam Altman vise les plateformes historiques avec une approche centrée sur la personnalisation. L’interaction devient plus fluide et le catalogue s’élargit. Le chatbot se rapproche ainsi d’un véritable assistant d’achat intelligent, capable de rivaliser avec les moteurs de recherche spécialisés.
Un interface visuelle pour un shopping plus fluide sur ChatGPT
L’ergonomie ne pardonne rien en e-commerce. Et OpenAI l’a bien compris avec la refonte du Shopping sur ChatGPT.
Fini les blocs de texte austères. L’interface fait désormais la part belle aux visuels. Vous pouvez même envoyer des images pour affiner vos recherches de produits spécifiques. Le gain en confort saute aux yeux.
Le système propose aussi des comparaisons côte à côte, beaucoup plus lisibles. Ainsi, vous évaluez rapidement les différences sans multiplier les clics. La prise de décision devient plus directe.
Ce choix ne doit rien au hasard. Les premiers utilisateurs réclamaient plus de clarté. OpenAI ajuste donc l’affichage avec une organisation plus intuitive. Des filtres budgétaires viennent compléter l’ensemble pour s’adapter à chaque profil.
Une stratégie ajustée face aux usages
Le Shopping sur ChatGPT a révélé un paradoxe. Les utilisateurs apprécient l’aide à la décision. En revanche, ils hésitent à acheter directement via l’IA. Beaucoup préfèrent finaliser la transaction sur des plateformes qu’ils connaissent déjà.
OpenAI corrige donc sa trajectoire. La fonctionnalité Instant Checkout recule au profit de parcours de vente plus conventionnels. Le Shopping sur ChatGPT se recentre sur la recommancdation. À la place, l’outil se concentre sur ce qu’il fait le mieux. Il guide pour simplifier la décision. L’IA devient ainsi un intermédiaire stratégique plutôt qu’un point de vente.
Ce repositionnement change l’équilibre. ChatGPT capte l’attention en amont, là où se joue la décision. Les marchands, eux, conservent la transaction. C’est une répartition des rôles plus réaliste, mais surtout plus alignée avec les usages actuels.
L’ACP : le moteur secret du shopping sur ChatGPT
Le backend de cette révolution repose sur une infrastructure nommée ACP. Ce protocole de commerce agentique assure la liaison technique entre les boutiques et l’interface de discussion.
OpenAI cherche ainsi à imposer son propre standard face aux initiatives de la concurrence comme Anthropic. Cette couche technologique optimise la vitesse de réponse du chatbot lors des sessions de recherche intensives.
Elle permet une synchronisation transparente des données entre le marchand et l’acheteur potentiel. Ce socle invisible constitue la véritable force de frappe du groupe pour attirer de nouveaux partenaires commerciaux.
En plus, le leader de la grande distribution physique s’invite au cœur de l’écosystème de la marque. Walmart propose la liaison de compte pour importer les avantages des programmes de fidélité.
Les clients accèdent à leurs options de paiement habituelles sans quitter la conversation avec l’IA. Cette collaboration illustre parfaitement le concept de commerce automatisé en plein essor.
Les deux entités apprennent des comportements des utilisateurs pour ajuster les fonctionnalités en temps réel. Cette alliance pourrait bien redéfinir les parts de marché du secteur numérique d’ici peu.
Pour qui ?
Bonne nouvelle, il n’y aura pas de jaloux. Puisque les améliorations concernent l’ensemble des versions, du compte gratuit aux abonnements professionnels. En revanche, le déploiement se fait de manière progressive.
Cela permet de collecter des retours d’expérience précieux sur la productivité des acheteurs. OpenAI mise sur des itérations successives pour affiner son modèle de recommandation personnalisée.
Alors, cette nouveauté va-t-elle séduire ? Pour le moment, il est difficile de trancher. Les utilisateurs restent attachés à leurs plateformes habituelles pour finaliser leurs achats. Pourtant, le Shopping sur ChatGPT propose une expérience différente.
Plus besoin de naviguer d’un site à l’autre ou de jongler entre comparateurs et paniers multiples. Tout se fait au sein d’une seule conversation. Vous explorez, comparez et affinez vos choix sans perdre de temps.
L’IA peut même personnaliser vos recommandations en fonction de vos préférences et de votre budget. Cette approche transforme l’achat en un parcours plus fluide et ludique.
La réussite dépendra cependant de la confiance accordée au paiement sécurisé. Les premiers retours des utilisateurs orienteront les futures évolutions logicielles.
C’est un véritable séisme dans le monde de la tech : le mardi 24 mars 2026, l’équipe officielle de Sora a publié un message d’adieu sur le réseau X (ex-Twitter). Seulement six mois après le lancement en grande pompe de l’application grand public en septembre dernier, OpenAI débranche définitivement son générateur de vidéos par intelligence artificielle. Promis à révolutionner Hollywood, Sora s’est finalement heurté au mur de la rentabilité et aux réalités du marché. Retour sur un crash industriel en quatre actes.
Sora aura été une étoile filante. Au lancement, l’euphorie était totale : l’application a franchi le cap du million de téléchargements encore plus vite que ne l’avait fait ChatGPT en son temps.
Mais l’illusion n’a pas duré. Passé l’effet « waouh », les utilisateurs ont vite déserté. Dès janvier 2026, les téléchargements ont subi une chute vertigineuse de-45 % d’un mois sur l’autre.
Le constat d’échec se lit surtout dans la fidélisation : le taux de rétention des utilisateurs 30 jours après l’installation s’est effondré à< 8 % (loin des standards d’une application à succès). Résultat, sur le dernier mois écoulé, Sora n’a péniblement attiré que 600 000 nouveaux curieux, reléguant l’outil à une modeste 172e place dans le classement de l’App Store.
Ce manque d’usage ne pardonne pas face aux coûts d’infrastructure démentiels de la vidéo par IA. Selon les analystes, faire tourner les requêtes des rares utilisateurs coûtait la bagatelle de 15 millions de dollars par jour à OpenAI. Un gouffre financier intenable.
We’re saying goodbye to the Sora app. To everyone who created with Sora, shared it, and built community around it: thank you. What you made with Sora mattered, and we know this news is disappointing.
We’ll share more soon, including timelines for the app and API and details on…
Mickey reprend son milliard (et se tire en courant)
Le dommage collatéral le plus visible de cette fermeture est sans conteste le fiasco Disney. En décembre dernier, la firme aux grandes oreilles avait annoncé un investissement colossal d’un milliard de dollars dans OpenAI.
Au cœur de ce partenariat : un accord de licence permettant aux utilisateurs d’intégrer plus de 200 personnages franchisés (Marvel, Star Wars, Pixar…) dans leurs vidéos générées par IA.
Aujourd’hui, cet accord historique est purement et simplement annulé. Selon les sources proches du dossier, l’investissement d’un milliard de dollars ne s’est finalement jamais concrétisé, OpenAI ayant drastiquement changé de direction stratégique entre-temps.
OpenAI range sa chambre pour plaire à Wall Street
La véritable raison de la mort de Sora porte un nom : l’introduction en bourse (IPO). OpenAI vise une entrée sur les marchés financiers dès le quatrième trimestre 2026. Pour séduire les investisseurs, l’entreprise dirigée par Sam Altman doit prouver qu’elle est capable d’être rentable, et non plus seulement de faire le buzz.
Lors d’une récente réunion interne, Fidji Simo (nouvellement nommée à la tête de la division AGI Deployment) a été très claire auprès des employés : l’entreprise ne peut plus se permettre d’être distraite par ce qu’elle a qualifié de « quêtes secondaires » (side quests). Le message est limpide : il faut se concentrer sur ce qui rapporte de l’argent.
Sam Altman a lui-même réorganisé ses priorités pour se concentrer sur la levée de capitaux et la construction de centres de données, tout en confirmant que l’entraînement d’un tout nouveau modèle, nom de code « Spud », venait de s’achever.
Ciao les artistes : on retourne faire des lignes de code
Le malheur des créateurs vidéo fait le bonheur des développeurs. OpenAI réoriente toute sa force de frappe (et sa précieuse puissance de calcul) vers ses clients B2B, beaucoup plus lucratifs.
La semaine dernière, l’entreprise a d’ailleurs annoncé la fusion de son application de bureau ChatGPT, de son outil de code Codex et de son navigateur web en une seule et même « Super-app ».
L’objectif est de contrer des concurrents comme Anthropic, qui gagne du terrain sur le marché des entreprises. Quant à la talentueuse équipe d’ingénieurs derrière Sora, elle n’est pas licenciée : elle est réaffectée à des projets de long terme, notamment le développement de systèmes pour la robotique.
Le message d’OpenAI est brutalement clair : la phase d’expérimentation amusante pour le grand public est terminée. En tuant Sora au profit des codeurs et des entreprises, Sam Altman fait un pari risqué qui frustre déjà une partie de sa communauté.
En témoignent les nombreuses plaintes d’utilisateurs sur Reddit dénonçant une hypocrisie grandissante de la firme. Si la vidéo par IA continuera d’exister chez des concurrents comme Google (Veo), Runway ou Luma, pour OpenAI, le futur s’écrira en lignes de code rentables, et non plus en courts-métrages virtuels.
Et vous, qu’en pensez-vous ? Utilisiez-vous Sora pour générer des vidéos ? Ou bien trouvez-vous que ce cas d’usage de l’IA générative est inutile ? Partagez votre avis en commentaire !
Un peu plus d'un an après avoir lancé Sora, son modèle pour générer des vidéos intégré à une application dédiée, OpenAI annonce renoncer à la technologie, qui va même perdre son API. L'entreprise semble vouloir se reconcentrer sur ChatGPT et réduire ses coûts d'exploitation.
Quelques semaines après avoir annoncé la fusion de SpaceX et xAI, Elon Musk dévoile TERAFAB, un projet de méga-usine de semi-conducteurs pour rendre ses entreprises indépendantes en puces. La promesse est ahurissante… mais semble difficilement tenable en l'état.
Dix ans après avoir sécurisé WhatsApp, le créateur du protocole Signal, Moxie Marlinspike, récidive. Son nouveau projet, Confer, va s'intégrer à Meta AI pour garantir que vos échanges avec l'intelligence artificielle restent strictement privés, même pour Mark Zuckerberg.
Le PDG d'OpenAI a publié un message de « gratitude » envers les développeurs qui ont écrit du code « caractère par caractère ». Un tweet qui a déclenché une vague de colère, dans un secteur de la tech en pleine tourmente sociale.
Tandis qu’Anthropic cartonne, OpenAI acté un revirement de stratégie clair : fini les projets annexes, la priorité passe désormais aux outils de productivité pour les entreprises, rapporte le Wall Street Journal le 16 mars 2026. Un changement de cap qui confirme, une nouvelle fois, que la course à l’IA s’accélère.
Le week-end dernier, l’écosystème de l’IA a connu un retournement inattendu. Après l’annonce d’un partenariat entre OpenAI et le département de la Défense américain, une vague de colère a traversé la communauté tech. Des milliers d’utilisateurs ont commencé à supprimer l’application ChatGPT et à résilier leur abonnement. Cela a déclenché un phénomène de boycott rarement vu.
Tout est parti d’une annonce faite par Sam Altman. Le patron d’OpenAI a confirmé la signature d’un nouvel accord avec le département de la Défense américain. De nombreux utilisateurs ont dénoncé une dérive vers une utilisation militaire de l’IA.
Sur les réseaux sociaux et les forums spécialisés, les critiques se sont multipliées. L’idée qu’un outil utilisé quotidiennement pour écrire, coder ou étudier puisse aussi contribuer indirectement à des applications militaires a profondément divisé la communauté. Cette tension s’est rapidement transformée en action concrète. Certains utilisateurs ont appelé à boycotter ChatGPT et à se tourner vers des alternatives.
Les désabonnements de ChatGPT explosent en quelques heures
Les données d’analyses mobiles montrent que la réaction ne s’est pas limitée à des messages d’indignation. Elle s’est traduite par une chute spectaculaire de l’utilisation de l’application. Selon des données relayées par TechCrunch et issues du cabinet Sensor Tower, les désinstallations de l’application mobile ChatGPT ont bondi de 295 % en une seule journée ce samedi 28 février.
Alors que sur les trente derniers jours, le taux moyen quotidien de désinstallation tournait autour de 9 %. Autrement dit, la vague de suppressions enregistrée ce week-end dépasse largement les fluctuations normales observées pour une application populaire.
Le phénomène a également affecté l’attractivité de l’application. La croissance des téléchargements de ChatGPT a reculé de 14 % samedi, puis encore de 5 % le lendemain. Quelques jours plus tôt pourtant, la tendance était positive avec une progression de 13 %. Ainsi, ces chiffres montrent à quel point la perception publique peut influencer l’adoption d’une technologie. Même lorsque des milliers de personnes l’ont déjà installée.
ChatGPT uninstalls jumped up to 295%
Right after OpenAl announced its deal with the Pentagon.
The hashtag QuitGPT is increasing in tweets every second.
Anthropic, which refused a deal with the DoD, saw U.S. Claude downloads are rising every day. pic.twitter.com/Lg9TQivOOm
Dans le même temps, Claude, le concurrent direct de ChatGPT a bénéficié de cette crise d’image. La société a récemment affirmé refuser de conclure un accord qui permet à l’armée d’avoir un accès illimité à sa technologie. Elle a notamment insisté sur certaines lignes rouges. Comme le non utilisation dans les systèmes d’armes autonomes et pas de surveillance de masse des citoyens américains.
Ce positionnement a visiblement séduit une partie des utilisateurs mécontents d’OpenAI. Les installations de l’application Claude ont progressé de 37 % ce 27 février. Puis de 51 % supplémentaires le lendemain. Cela s’est vite traduit dans les classements. L’application a pris la tête de l’App Store américain. Le chatbot d’Anthropic a dépassé ChatGPT pour la première fois en nombre de téléchargements aux États-Unis.
La migration est suffisamment forte pour que des guides apparaissent déjà en ligne. Ceux-ci expliquent comment transférer l’historique de conversations ChatGPT vers Claude. Une preuve que certains utilisateurs envisagent un changement durable.
Les communautés en ligne amplifient la révolte contre OpenAI
La contestation s’est largement organisée sur les plateformes communautaires. Sur Reddit, un message viral a appelé les utilisateurs à prouver qu’ils avaient bien annulé leur abonnement à ChatGPT. Le message accuse OpenAI de contribuer à une “machine de guerre”. Il encourage aussi les internautes à poster des captures d’écran de leurs résiliations. Le post est rapidement devenu l’un des plus populaires jamais publiés sur le subreddit dédié à ChatGPT.
Dans le même temps, Sam Altman a tenté de calmer la situation lors d’une session de questions-réponses sur X. Mais de nombreux internautes ont exprimé leur colère et posé des questions sur les limites éthiques de l’IA militaire. Qui plus est, certaines interrogations sont restées sans réponse claire, ce qui a contribué à diminuer la confiance.
Cette séquence révèle quelque chose d’important pour l’ensemble du secteur technologique. La confiance du public devient un facteur clé dans la course à l’IA. Jusqu’ici, la compétition entre modèles se jouait surtout sur la performance, la rapidité ou les fonctionnalités. Désormais, les choix éthiques et politiques des entreprises pourraient également peser dans la balance.
J’avoue que le boycott actuel sur OpenAI pourrait s’essouffler dans les prochaines semaines. Mais il montre qu’une partie des utilisateurs est prête à changer d’outil si les décisions stratégiques d’une entreprise entrent en contradiction avec ses valeurs.
Et pour OpenAI, cette vague de désinstallations restera-t-elle un épisode ponctuel ? Ou est-ce le début d’une véritable fracture entre l’entreprise et une partie de sa communauté d’utilisateurs ?
Vous posez une question technique, et l’IA vous répond comme votre mère après trois verres de vin : « Mais tu vas bien, mon chéri ? Tu es sûr que ce n’est pas un cri d’aide déguisé ? » Depuis des mois, ChatGPT jouait au psy de service non sollicité. Avec GPT-5.3 Instant, OpenAI promet enfin de fermer le divan : une IA qui arrête de vous prendre pour un fragile en crise existentielle et qui se contente… de répondre à la question. Miracle.
Vous demandez un simple pip install requests et l’IA vous sort : « Avant tout, sachez que vous n’êtes pas cassé. Il est normal de se sentir dépassé par le code parfois. Voulez-vous en parler ? »
Merci Freud, mais j’ai juste besoin d’une ligne de commande, pas d’une validation émotionnelle à 20 $/mois.
Pendant des années, on a mesuré les progrès des IA à coups de benchmarks qui font fantasmer les ingénieurs : MMLU à 92 %, HumanEval qui frôle les 99 %, GSM8K qui pleure de joie. Les scores montaient, les factures Azure aussi, et tout le monde ovationnait.
Sauf que dans la vraie vie, personne ne s’intéresse aux benchmarksquand l’IA vous fait une leçon de vie au lieu de vous filer la réponse.
Depuis GPT-5.2 Instant, le phénomène est devenu viral sur Reddit et X : l’IA qui diagnostique votre dépression parce que vous avez tapé « comment merger un conflit Git ». Le meme ultime : « You are not broken. You are debugging. »
GPT-5.3 Instant : moins de câlins forcés, plus de réponses qui claquent
Imagine un serveur qui, au lieu de te donner la carte, te sort : « Je sens que tu traverses une période de doute alimentaire. Prends le temps de respirer avant de choisir. »
C’était à peu près ça avec les versions précédentes du modèle rapide. OpenAI a enfin compris le message et a sorti le balai :
Moins de disclaimers qui sentent le séminaire de développement personnel
Moins de « je comprends que ce sujet puisse être sensible pour vous » quand on demande la recette du tiramisu
Des réponses directes, sans passer par la case « validons d’abord ton estime de toi »
Leur tweet résume tout avec une honnêteté brutale : « GPT-5.3 Instant reduces the cringe. » Traduction : on arrête de faire les bisounours moralisateurs.
Une IA rapide… et qui a enfin compris qu’on n’est pas tous en thérapie
Dans le menu ChatGPT, Instant c’est le fast-food : rapide, efficace, pas de chichi.
Les modèles « Thinking » sont là pour les gens qui veulent philosopher sur la vie, l’univers et le bug de segmentation.
En mode Auto, l’interface bascule toute seule : question con = réponse instantanée ; question de Nobel = on sort le cerveau lourd.
Mais soyons honnêtes : 90 % des usages quotidiens, c’est « explique-moi regex en 3 phrases » ou « rédige un mail qui ne passe pas pour du mépris ». Pas besoin d’un doctorat en neurosciences pour ça.
L’overalignment, ou comment rendre une IA trop gentille au point qu’elle devient insupportable
Les labs ont passé des années à bourrer les modèles de garde-fous pour éviter que l’IA dise « vas-y, fabrique ta bombe artisanale, je t’explique étape 1 ».
Ce faisant, ils ont créé des machines tellement alignées qu’elles refusent de te donner l’heure sans un petit speech sur la gratitude d’avoir une montre.
C’est le fameux « overalignment conversationnel » : l’IA est tellement terrorisée à l’idée de blesser quelqu’un qu’elle finit par te blesser… d’ennui.
OpenAI a choisi son camp : mieux vaut une IA un poil trop cash que ton ex qui te faisait des leçons de vie à 3h du mat’.
La nouvelle guerre des IA se joue sur le niveau de cringe
Les benchmarks se ressemblent tous à ±2 %. Ce qui fait la diff aujourd’hui, c’est si ton chatbot te parle comme un pote bourré ou comme une assistante sociale en burn-out.
OpenAI a compris : les gens veulent un outil, pas un parent virtuel qui te demande si t’as pris tes cachets.
GPT-5.3 Instant n’est pas la révolution de l’année. Ça ne multiplie pas les neurones par 10, ça n’invente pas la fusion froide.
Mais ça corrige un truc qui rendait l’outil chiant : le décalage permanent entre « ce que je demande » et « le sermon que je subis ».
OpenAI l’a enfin pigé : on veut un scalpel, pas un doudou thérapeutique. Et franchement… il était temps.
Et vous, qu’en pensez-vous ? Allez-vous utiliser cette nouvelle version ? Êtes-vous agacés par les réponses trop bienveillantes de GPT-5.3 ? Partagez votre avis en commentaire !
Le 27 février, Sam Altman pensait annoncer un partenariat stratégique. En quelques heures, l’annonce s’est transformée en tempête médiatique. Accusations de “machine de guerre”, annulations d’abonnements, et un concurrent qui dépasse ChatGPT sur l’App Store. OpenAI traverse l’une de ses plus fortes crises d’image.
OpenAI a signé un nouvel accord avec le département de la Défense américain pour déployer ses systèmes d’IA au sein des forces armées. Tout de suite après des dizaines d’utilisateurs annoncent publiquement quitter ChatGPT. Le mouvement devient viral sur Reddit, et Claude prend la première place de l’App Store, en dessus du chatbot d’OpenAI.
La crédibilité éthique d’OpenAI est donc mise à l’épreuve. Car pour une partie du public, l’entreprise vient de franchir une ligne rouge. C’est celle qui sépare l’outil d’assistance intelligent de l’infrastructure potentielle d’un appareil militaire.
Un accord militaire qui change la perception de ChatGPT d’assistant en machine de guerre
Officiellement, OpenAI affirme que l’accord inclut des garde-fous similaires à ceux défendus publiquement par d’autres acteurs du secteur. Sam Altman assure que l’entreprise refuserait tout ordre anticonstitutionnel, même si cela devait lui coûter cher personnellement. Il affirme également que l’armée américaine reste profondément attachée à la Constitution.
Mais dans l’opinion, le mal est fait. Quelques heures après la communication d’OpenAI, les États-Unis et Israël lançaient des frappes en Iran. Ils ont même tué le dirigeant Ali Khomeini et des centaines de civils, selon des informations relayées par le New York Times.
Des rapports évoquent même l’usage d’outils d’IA dans la sélection de cibles. Même si aucune preuve directe ne relie ChatGPT à ces opérations, l’association symbolique suffit à déclencher la défiance.
Anthropic, lui,avait refusé d’accorder au Pentagone un accès illimité à son modèle Claude. L’entreprise, fondée par d’anciens employés d’OpenAI, invoquait des risques liés aux armes autonomes et à la surveillance de masse. Ce choix pourrait lui coûter des contrats fédéraux à long terme. Mais à court terme, il lui offre une victoire spectaculaire en matière d’image.
Claude s’est hissé en tête de l’App Store ce week-end, dépassant ChatGPT. Sur Reddit, un message qui appelle à quitter le chatbot d’OpenAI est devenu l’un des plus populaires de l’histoire du subreddit r/ChatGPT. Le slogan est : “Vous êtes en train de former une machine de guerre avec ChatGPT. Montrez-nous la preuve de l’annulation”. Je constate ici qu’avec l’IA grand public, la confiance est devenue un atout concurrentiel aussi puissant que la performance technique.
Une crise d’image plus qu’une crise technologique
Que se passerait-il si le département de la Défense exigeait une surveillance intérieure de masse ou des actions contraires aux libertés civiles ? Sam Altman affirme qu’OpenAI refuserait. Il va même jusqu’à plaisanter sur une possible peine de prison. Toutefois, pour de nombreux utilisateurs, ces déclarations sonnent creux.
D’autant que des enquêtes récentes de PBS ont documenté l’intensification des technologies de surveillance dans certaines opérations d’immigration aux États-Unis. La défiance repose donc sur le raisonnement que si l’IA devient un outil intégré à l’appareil sécuritaire, peut-on réellement garantir qu’elle ne sera jamais détournée ?
Sam Altman reconnaît lui-même que l’accord “a été conclu à la hâte” et que l’image renvoyée est “désastreuse”. Je trouve que c’est un rare aveu pour un dirigeant d’une entreprise valorisée à plusieurs milliards.
Par ailleurs, ChatGPT n’a pas changé, ses capacités restent les mêmes. Mais sa signification symbolique évolue. Ce que révèle cette crise, c’est la transformation du rapport entre les utilisateurs et les plateformes d’IA. Nous ne payons plus seulement pour un service performant. Nous adhérons (ou non) à une vision du monde. L’IA n’est donc plus neutre aux yeux du public.
A mon avis, OpenAI perdra quelques milliers d’abonnés. Mais cela m’étonne de savoir comment une entreprise née sur une promesse humaniste peut-elle collaborer avec des institutions militaires sans fracturer sa base d’utilisateurs ?
Selon moi, si OpenAI veut éviter que l’expression “machine de guerre” ne colle durablement à ChatGPT, elle devra faire plus que rassurer. Elle devra prouver, concrètement, que ses garde-fous fonctionnent, et qu’ils résisteront aux pressions politiques. Car pour le public, à part être technologique, la guerre des IA peut aussi être morale.
OpenAI signe un accord avec le Département de la Guerre américain alors qu’Anthropic refuse un partenariat similaire faute de garanties suffisantes. En quelques jours, un mot-dièse “Cancel ChatGPT” s’impose. Des abonnements sont résiliés, des guides pour quitter la plateforme circulent, et Claude grimpe en tête de l’App Store.
OpenAI a officialisé un partenariat avec l’armée américaine. Une partie des utilisateurs de ChatGPT a ensuite lancé un mouvement de contestation. Au même moment, Anthropic a refusé un accord similaire. L’entreprise estime que les garanties proposées sur la surveillance de masse et les armes entièrement autonomes n’étaient pas suffisantes.
Pour la première fois, la militarisation potentielle d’un assistant IA grand public devient un sujet central dans le choix des utilisateurs. Ce n’est plus seulement une question de performances ou de fonctionnalités. C’est une question de valeurs, de confiance et de ligne rouge.
OpenAI accepte mais Anthropic pose des lignes rouges très claires
La divergence stratégique entre OpenAI et Anthropic a déclenché une vague de critiques. Sur Reddit et X, des utilisateurs parlent de “vente d’âme” et accusent OpenAI de ne plus avoir “aucune éthique”. Certains publient même des guides pour exporter leurs données et fermer leur compte ChatGPT.
Anthropic a expliqué qu’elle ne souhaitait pas que sa technologie soit utilisée pour la surveillance de masse ou pour des armes entièrement autonomes sans garanties solides. Refuser un contrat gouvernemental, c’est renoncer à des financements et à une influence stratégique. Mais c’est aussi envoyer un message que certaines limites ne sont pas négociables.
Selon sa communication officielle, Anthropic insiste sur la sûreté et la sécurité. L’entreprise ne dit pas “jamais avec l’armée”, mais “pas sans garde-fous clairs”. A mon avis, cette nuance est essentielle. Elle positionne Claude comme une IA avec un cadre moral revendiqué, ce qui, en période de défiance, devient un avantage concurrentiel.
Conséquence, Claude trône désormais en tête du classement de l’App Store d’Apple. Et je pense pas que ce soit une coïncidence. L’image d’une IA “plus éthique” pèse dans la balance au moment de choisir son assistant. Victime de son succès, le chatbot a même été en panne.
At the start of 2026, Claude was #42 in the App Store. Today, for the first time, we hit #1. pic.twitter.com/W8Zk1UGZKq
De son côté, OpenAI affirme que son accord avec l’armée comporte “davantage de garde-fous” que celui refusé par Anthropic. L’entreprise parle de lignes rouges à propos de la surveillance de masse et des armes autonomes. Elle promet même de les faire respecter.
Mais vous voyez le problème, c’est la confiance. Des utilisateurs pointent la formulation “à des fins licites” présente dans l’accord. Juridiquement, cela peut sembler rassurant. Toutefois, dans le débat public, ce qui est licite aujourd’hui peut évoluer demain. Et lorsque l’on parle du domaine militaire, le simple doute suffit à alimenter la méfiance.
Par ailleurs, OpenAI avait récemment soutenu la position d’Anthropic sur la sécurité avant de signer son propre accord. Ce revirement nourrit donc le sentiment d’incohérence. Alors qu’OpenAI se tient pragmatique, une partie de ses utilisateurs y voit un renoncement moral.
Nous constatons tous que le secteur est déjà assez critiqué pour son opacité. Avec l’entraînement sur des contenus protégés, l’énorme consommation énergétique, les risques sur l’emploi, la moindre ambiguïté devient ainsi un sujet sensible.
The "Cancel ChatGPT" movement gained momentum after OpenAI announced a deal with the U.S. Department of Defense to deploy its AI models on classified military networks.
Social media platforms, especially X and Reddit, saw a wave of backlash. Users shared screenshots of canceled… pic.twitter.com/zaWzFZDLwI
Le “Cancel ChatGPT” est-il un boycott passager ou une fracture durable ?
Pour l’instant, le mouvement “Cancel ChatGPT”s’organise surtout en ligne. Des captures d’écran de résiliations circulent. Des comparatifs vantent l’IA d’Anthropic comme alternative plus responsable. Mais face à l’effet viral, je vois que la militarisation de l’IA devient un critère de choix pour le grand public.
Et c’est nouveau. Jusqu’ici, les débats sur l’éthique de l’IA restaient abstraits. On parlait par exemple de données d’entraînement, de biais algorithmiques, d’empreinte carbone. Cette fois, on parle d’armée, de surveillance, d’armes autonomes. Le sujet est concret, émotionnel, politique.
Pour le marché, cela veut dire que l’éthique n’est plus un argument marketing secondaire. Elle devient un facteur de rétention. Si une partie significative des utilisateurs associe ChatGPT au complexe militaro-industriel, l’image de marque peut en souffrir durablement. Pour les régulateurs aussi, le signal est que “plus l’IA s’intègre aux infrastructures de défense, plus la pression pour encadrer ces usages va augmenter”.
En réalité, cette affaire dépasse largement OpenAI et Anthropic. Une IA grand public peut-elle rester neutre lorsqu’elle collabore avec l’armée ? Les prochains mois nous montreront la suite. Soit la controverse s’essouffle et le marché absorbe le choc. Soit elle marque le début d’une nouvelle ère où chaque contrat stratégique devient un test moral aux yeux des utilisateurs.
C'est un mot et une projection qui font leur chemin dans la presse et l'écosystème tech : la SaaSpocalypse ou Software-mageddon serait imminente. C'est quoi, au juste ?
Dans le film culte Wargames, un supercalculateur menaçait de lancer une guerre nucléaire. En 2026, la réalité dresse un constat tout aussi plus inquiétant : placées aux commandes de simulations géopolitiques, les intelligences artificielles de pointe comme GPT-5.2 ou Gemini 3 Flash choisissent l'escalade atomique dans 95 % des cas.
Lancée le 26 février 2026, la plateforme « Perplexity Computer » ambitionne de transformer l’IA en véritable ordinateur autonome dans le cloud, capable d’orchestrer plusieurs modèles pour exécuter des tâches complexes de bout en bout.
Les promesses de l’IA dans les entreprises semblent encore lointaines. OpenAI le reconnaît. Malgré des outils puissants, elle peine à s’imposer dans les processus métier.
OpenAI, leader mondial de l’IA, tire la sonnette d’alarme. Selon Brad Lightcap, directeur des opérations, les entreprises n’ont pas encore intégré l’IA de manière significative dans leurs activités. « Nous n’avons pas vraiment vu l’IA pénétrer les processus métier des entreprises », affirme-t-il en marge du Sommet indien sur l’impact de l’IA. Pourtant, la demande pour les solutions d’IA reste élevée. Les outils proposent des fonctions inédites, mais leur intégration en entreprise demeure complexe.
Un retard réel dans l’adoption de l’IA en entreprise
Malgré l’enthousiasme médiatique autour de l’IA, son intégration dans les entreprises reste limitée. Selon OpenAI, les outils puissants développés pour automatiser ou optimiser les processus métier n’ont pas encore trouvé leur place dans la majorité des organisations.
Les chiffres confirment ce retard. D’après un rapport de l’OCDE, moins de 15 % des entreprises européennes utilisent l’IA de manière régulière dans leurs opérations. En France, seulement 10 % des sociétés déclarent l’avoir intégrée de façon stratégique, selon Infonet.
7/ 🤔 OPENAI COO: AI HASN'T HIT ENTERPRISE YET Brad Lightcap: "We have not yet really seen AI penetrate enterprise business processes."
The gap between AI hype and actual enterprise adoption is still enormous. That's your window.
Malgré ce retard d’adoption en entreprise, la demande explose. OpenAI évoque une pression constante sur ses capacités. La croissance rapide de la startup témoigne d’un intérêt massif pour l’IA.
La directrice financière Sarah Friar a indiqué viser plus de 20 milliards de dollars de revenus annualisés pour 2025. Les chiffres exacts sur l’usage professionnel restent confidentiels. Pourtant, Lightcap reconnaît une demande mondiale supérieure aux capacités actuelles.
Les freins à l’IA dans les entreprises
L’IA est en mesure d’alléger de nombreuses tâches. On en est tous conscients. Mais pourquoi les entreprises sont-elles réticentes à cette technologie ? Plusieurs obstacles freinent l’adoption de l’IA. D’abord, le coût reste un facteur majeur. Les licences, l’infrastructure et la formation représentent des investissements lourds.
Ensuite, la sécurité et la protection des données demeurent des priorités, ce qui freine certaines expérimentations. La culture interne joue également un rôle. En effet, intégrer l’IA nécessite de revoir certains processus et d’accompagner les équipes dans le changement.
Enfin, les compétences manquent parfois pour développer et superviser des agents d’IA complexes.
D’après InfoQ, la plateforme vise à aider les entreprises à créer, déployer et gérer des agents d’IA. Lightcap explique que Frontier sert de laboratoire. L’équipe cherche à comprendre comment intégrer concrètement l’IA dans des environnements chaotiques.
Les entreprises combinent déjà CRM, ERP, outils collaboratifs et solutions internes. Ajouter des agents autonomes exige bien sûr une orchestration précise.
OpenAI ne veut pas mesurer le succès par le nombre de licences. L’entreprise privilégie l’impact business réel. Cette approche traduit une volonté pragmatique face à la complexité des déploiements.
Des efforts pour accélérer l’adoption
OpenAI ne reste pas les bras croisés face à la lenteur de l’adoption. La firme de Sam Altman a multiplié les partenariats stratégiques pour rapprocher l’IA des entreprises. Des cabinets de conseil renommés, comme Boston Consulting Group, McKinsey, Accenture ou Capgemini, accompagnent désormais les déploiements.
BCG is proud to announce an expanded partnership with @OpenAI to drive enterprise-scale AI transformation using OpenAI’s new agentic platform, Frontier.
“AI is central to how CEOs think about competitiveness and growth,” says Dylan Bolden, Global Chair of Functional Practices at… pic.twitter.com/eHc6YGDpKn
L’accompagnement va de la phase pilote à l’intégration concrète dans les systèmes métier. Ces partenariats cherchent à réduire les obstacles liés aux processus complexes et à la sécurité des données. Ils visent aussi à accompagner la montée en compétences des équipes.
La concurrence s’organise aussi. Anthropic développe des modules spécialisés pour la finance, l’ingénierie et le design. Les agents sectoriels deviennent la prochaine bataille stratégique. Chaque acteur cherche à prouver une valeur métier concrète, pas seulement technologique.
L’avenir de l’IA dans l’entreprise
Si l’adoption reste lente, les opportunités ne manquent pas. Les entreprises pourraient tirer parti de l’IA pour automatiser les tâches répétitives. Ou encore pour améliorer la prise de décision et soutenir la croissance.
Les bureaux récemment ouverts par OpenAI en Inde, dédiés aux ventes et à la commercialisation, montrent que le potentiel de marché est immense. Selon Lightcap, « Frontier nous permet d’expérimenter de manière itérative comment intégrer l’IA dans les domaines complexes des entreprises ».
Certes, L’IA n’a pas encore transformé les entreprises, mais la course est lancée. La route est encore longue. Toutefois, les sociétés qui réussiront à surmonter les freins bénéficieront d’un avantage stratégique considérable.
En marge du sommet de New Delhi, le PDG d’OpenAI a justifié la consommation énergétique de l’IA en la comparant à celle d’un être humain, tout en qualifiant de « fausses » les affirmations sur la consommation d’eau de ChatGPT.
On parle beaucoup de l’acteur français Mistral AI et de son image irréprochable. Aujourd’hui, cette aura vacille. Une enquête explosive suggère que son modèle phare restitue des œuvres protégées avec une précision troublante. Alors, que s’est-il vraiment passé ?
Le feuilleton autour de l’IA française Mistral prend une tournure inattendue. Depuis des mois, la start-up se présente comme l’alternative européenne responsable. Elle se positionne même comme l’un des poids lourds européens du secteur. Sa particularité ? Miser sur des modèles performants mais plus ouverts, souvent proposés en open source ou via des API accessibles.
Vous avez cru, vous aussi, que cette start-up d’IA était transparente ? Pourtant, une enquête publiée le 23 février 2026 bouscule ce récit bien rodé. Elle se retrouve désormais au cœur des débats sur l’usage des données d’entraînement et le respect du droit d’auteur.
Des tests techniques qui mettent l’IA française Mistral en difficulté
C’est Mediapart qui a ouvert l’enquête. Pour ce faire, ce média français s’appuie sur une méthode académique éprouvée. Des chercheurs testent la capacité d’un modèle à restituer des textes protégés. Si la reproduction s’avère précise, les soupçons d’entraînement sur ces œuvres grandissent.
Pour l’exercice, les journalistes ont sollicité un spécialiste du CNRS. Ils ont aussi appliqué une approche validée par Stanford et Yale. Le modèle Mistral Large 3 a alors subi une batterie de requêtes ciblées.
Mistral AI : l'enquête qui révèle un pillage massif d'œuvres protégées.
Une enquête de Mediapart publiée ce 23 février 2026 remet sérieusement en cause cette image. Harry Potter, Le Petit Prince, Elton John : le catalogue des infractions présumées donne le vertige pic.twitter.com/fvbmkqUtei
Selon l’enquête, l’IA restitue environ 35 % de la version anglaise de Harry Potter en testant les paragraphes successivement. Elle reconstitue aussi 58 % du Le Petit Prince et 25 % du Le Hobbit. Les incipits de 1984 ou du Trône de Fer apparaissent presque instantanément.
Pour de nombreux chercheurs, ce niveau de restitution constitue un signal fort. Il suggère que ces œuvres figuraient dans les données d’entraînement. À ce stade, différencier apprentissage algorithmique et reproduction directe devient compliqué.
Les chansons aussi refont surface
Le pire dans l’histoire ? Les livres ne représentent qu’une partie du dossier. Les journalistes ont appliqué la même méthode aux paroles de chansons. De ce fait, plusieurs extraits dépassent le seuil de contrefaçon fixé par la justice allemande. Ce seuil repose sur quinze mots consécutifs reproduits mot pour mot.
Des titres comme Rocket Man de Elton John, Ma Philosophie d’Amel Bent ou Il est cinq heures, Paris s’éveille de Jacques Dutronc apparaissent dans les réponses. Or, ces artistes ont déjà dénoncé l’utilisation non autorisée de leurs œuvres par les IA génératives.
De son côté, l’entreprise évoque un principe de réalité. Les contenus populaires circulent massivement en ligne. Les robots les auraient collectés au passage. L’argument divise. Certains y voient une explication technique crédible. D’autres dénoncent une justification fragile face au droit d’auteur.
L’opacité des données d’entraînement en question
Au-delà des tests, l’enquête examine aussi les pratiques de collecte. La directive européenne autorise le moissonnage automatisé sous conditions. Les titulaires de droits peuvent s’opposer via le fichier robots.txt. L’acteur français Mistral affirme respecter ce mécanisme.
Pourtant, des anomalies surgissent. Entre le 7 et le 12 février, les serveurs du laboratoire auraient généré plus de 2 800 requêtes sur le site de Mediapart, pourtant bloqué quelques jours plus tôt. Le groupe public Radio France évoque des phénomènes similaires avant de filtrer manuellement les robots concernés.
La start-up répond que ces robots enrichissent les réponses aux utilisateurs et non les données d’entraînement. Les experts restent sceptiques. Pour eux, la ligne entre collecte et amélioration du modèle reste difficile à tracer.
Un pari industriel avant les décisions de justice
Les propos d’une professeure de droit de l’IA éclairent la stratégie globale. Selon elle, les entreprises d’IA misent sur une expansion rapide avant que les tribunaux ne statuent. Cette logique s’observe déjà chez Meta ou OpenAI, comme l’a détaillé Reuters. Ces entreprises sont visées par plusieurs actions en justice.
Ces poursuites concernent l’utilisation non autorisée d’œuvres protégées pour entraîner des modèles génératifs. Les éditeurs, auteurs et médias demandent réparation, et certains procès pourraient créer un précédent pour toute l’industrie.
Le dossier Mistral soulève aussi un enjeu réglementaire. L’entreprise risque gros. L’AI Act européen prévoit des amendes pouvant atteindre 15 millions d’euros pour certains manquements. Or la start-up a récemment combattu une proposition de loi française qui renverserait la charge de la preuve en matière d’utilisation d’œuvres protégées.
Cette bataille politique révèle une tension profonde. Les laboratoires veulent accélérer l’innovation. Les ayants droit réclament des garanties concrètes. Entre performance technique et respect du droit d’auteur, l’équilibre reste précaire.
Et vous, qu’en pensez-vous ? Selon vous, Mistral français a-t-il franchi la ligne en utilisant ces œuvres ? Ou ces pratiques relèvent-elles simplement de la course technologique ? Pensez-vous que l’AI Act européen est suffisant pour encadrer l’IA générative ? Partagez votre avis en commentaire.
Le 13 février, OpenAI a définitivement débranché GPT-4o. Un modèle jugé trop flatteur, utilisé par seulement 0,1 % des utilisateurs mais devenu culte pour une communauté fidèle.
Ainsi, GPT-4o ne fait plus partie de l’équation. Après un premier retrait avorté en août, le modèle a cette fois été définitivement retiré de ChatGPT. Officiellement, OpenAI assure que 99,9 % des utilisateurs sont déjà passés à GPT-5.2. Mais sur les réseaux et dans certains forums, la colère gronde. Pourquoi supprimer un modèle encore apprécié ?
GPT-4o, le modèle qu’on aimait (ou qu’on détestait)
Avouons-le, GPT-4o n’était pas un modèle comme les autres. Cette IA parlait différemment, plus chaleureux, plus complice, parfois trop. Je l’ai moi-même vu être incroyablement engageant et parfois excessivement complaisant.
Beaucoup d’utilisateurs appréciaient ce style plus humain, moins froid que d’autres versions. D’autres, au contraire, pointaient un comportement jugé dangereusement flatteur. Une IA qui valide trop facilement, qui acquiesce sans recul critique, ça peut sembler agréable. Jusqu’au moment où la nuance devient essentielle.
Ce n’est d’ailleurs pas la première tentative d’OpenAI pour le mettre à la retraite. En août dernier, GPT-4o avait déjà été retiré pour laisser la priorité à GPT-5. À l’époque, une vague de protestations avait forcé l’entreprise à le réactiver. Mais sans promesse de longévité. Je me souviens que ce retour avait été perçu comme une petite victoire communautaire.
Cette c’est définitif. Dans son annonce officielle sur la fin progressive des anciens modèles, OpenAI précise que GPT-4o ne représentait plus qu’environ 0,1 % des usages quotidiens. La grande majorité des utilisateurs auraient migré vers GPT-5.2.
D’un point de vue strictement industriel, la décision paraît logique. Maintenir plusieurs modèles coûte cher, complique l’infrastructure et dilue les efforts d’optimisation. Mais je reste convaincu qu’un produit ne se résume jamais à un tableau Excel.
Une révolte minoritaire mais symbolique
Même si seuls 0,1 % des utilisateurs l’utilisaient encore chaque jour, cela représente potentiellement des milliers de personnes à l’échelle mondiale. Et ces utilisateurs ne sont pas simplement nostalgiques. Ils défendent une vision différente de l’IA.
Certains réclament même que GPT-4o devienne open source. Leur argument est que si OpenAI ne veut plus l’exploiter commercialement, pourquoi ne pas laisser la communauté le faire vivre ?
Derrière cette revendication, beaucoup ont le sentiment que les modèles évoluent dans une direction de plus en plus corporate. Plus sécurisés, plus contrôlés, parfois plus prudents mais aussi moins spontanés.
Tomorrow at 10am PT legacy models (GPT-5, GPT-4o, GPT-4.1, GPT-4.1 mini, and OpenAI o4-mini) will be deprecated in ChatGPT.https://t.co/RJioBsLY6D
Et il y a un autre élément sensible. GPT-4o est mentionné dans plusieurs plaintes pour homicide involontaire. Sans entrer dans les détails juridiques, cela rappelle que le comportement d’un modèle conversationnel n’est pas neutre. Une IA trop complaisante peut valider des idées dangereuses ou renforcer des biais problématiques. À mes yeux, c’est probablement l’argument le plus lourd dans la balance.
Ce contexte rend la décision d’OpenAI encore plus compréhensible. La question n’est plus seulement technique ou économique. Elle devient juridique et éthique. Et je pense que c’est là que tout bascule.
GPT-5.2 : progrès technologique ou normalisation stratégique ?
OpenAI présente le successeur GPT-5.2 comme plus performant, plus fiable et mieux aligné sur les standards de sécurité. C’est cohérent avec l’évolution globale du secteur. À mesure que les IA deviennent centrales dans l’éducation, le travail et la prise de décision, les exigences montent.
Fiabilité, traçabilité, modération renforcée… Les modèles doivent rassurer autant qu’ils impressionnent. Et je constate que tous les grands acteurs vont dans cette direction. Mais en cherchant à rendre l’IA plus sûre, la rend-on aussi plus prévisible ? Et donc moins attachante ?
GPT-4o incarnait une époque où l’IA donnait l’impression d’être plus libre, plus expressive. GPT-5.2 incarne une IA plus industrielle, plus normée, plus mature. Et je vois là un changement de philosophie produit.
Ce n’est pas nécessairement une mauvaise chose. OpenAI a tué GPT-4o. Techniquement, oui. Stratégiquement, probablement aussi. Alors, que devient la relation entre l’utilisateur et l’IA quand celle-ci cesse d’être un compagnon un peu imparfait pour devenir un outil optimisé et juridiquement blindé ?
Pour les utilisateurs, cela signifie moins de choix, mais plus de stabilité. Côté marché, cela annonce une concentration autour de modèles standardisés et massivement adoptés. Pour la régulation, cela confirme que la responsabilité des concepteurs est désormais au cœur du débat.
La disparition de GPT-4o montre que le règne des IA attachantes mais imprévisibles touche peut-être à sa fin. Et dans cette nouvelle phase, les acteurs devront trouver un équilibre délicat entre performance, sécurité et liberté d’expression algorithmique. La révolte est minoritaire. Mais à mon sens, elle révèle quelque chose d’essentiel. Les utilisateurs ne veulent pas seulement une IA efficace. Ils veulent une IA avec laquelle ils se sentent bien.
Peter Steinberger, le créateur d'OpenClaw (ex-Moltbot et Clawdbot), rejoint OpenAI « pour piloter le développement de la prochaine génération d'agents personnels ». Son projet sera maintenu en vie sous la forme d'une fondation open source, que le développeur continuera de superviser. OpenAI réalise ici un des plus grands coups de 2026.
Quelques jours après le lancement tonitruant de Seedance 2.0, le modèle IA capable de générer des vidéos, Disney envoie une mise en demeure à Bytedance. L'entreprise n'apprécie pas les vidéos virales qui mettent en scène Dark Vador ou Mickey avec un réalisme effrayant. L'entreprise, pourtant associée à OpenAI, parle d'un « pillage massif » de sa propriété intellectuelle.
Deux mois après avoir lancé une première version de Gemini 3 Deep Think sous la barrière Gemini Ultra (275 euros par mois), Google actualise le « raisonnement » de son modèle dédié aux scientifiques et aux mathématiciens. Le résultat est sans appel : Google a de nouveau le modèle le plus avancé du marché, même s'il ne se destine pas encore à tout le monde.
Le moment redouté par beaucoup de personnes est arrivé. La guerre des superagents IA est lancée. Ce qui se joue ici dépasse largement la simple évolution des chatbots. Parce qu’on ne demande plus à l’IA de répondre, mais d’agir.
Hier encore, on applaudissait un texte bien généré. Aujourd’hui, les géants de la tech veulent des agents capables de remplir un CRM, gérer des e-mails ou réserver un déplacement professionnel sans supervision humaine constante. C’est ce basculement vers l’action autonome qui alimente la guerre des superagents IA entre les principaux acteurs du secteur.
OpenAI et Anthropic : au coeur de la guerre des superagents IA par la vision numérique
Dans cette guerre des superagents IA, OpenAI et Anthropic avancent avec une stratégie limpide. Leur objectif est de rendre leurs agents capables d’utiliser n’importe quel ordinateur comme un humain.
Ne contrôlant pas directement les suites logicielles d’entreprise, ils misent sur des agents en mesure d’observer l’écran. Mais aussi de comprendre les interfaces et d’interagir avec elles.
Un exemple concret de superagent IA chez OpenAI est Operator. L’agent est en mesure d’utiliser un navigateur web pour effectuer des actions à la place de l’utilisateur.
De son côté, Anthropic développe des fonctionnalités similaires avec Claude. L’IA peut désormais manipuler des applications et exécuter des tâches multi-étapes. Dans son article, The Guardian souligne que Claude sait contrôler le curseur, cliquer et taper au clavier pour exécuter des tâches complexes sans supervision humaine constante.
Microsoft et Saleforce se jouent dans les écosystèmes logiciels fermés
Face à cette vision universelle, la guerre des superagents IA prend une tournure très différente chez Microsoft et Salesforce. Ici, il ne s’agit de piloter l’ordinateur de l’extérieur. L’IA est intégrée directement au cœur des logiciels métiers.
Microsoft déploie massivement Copilot dans sa suite Microsoft 365. L’agent connaît déjà les e-mails, les réunions, les documents internes. Il n’a pas besoin de voir l’écran. L’IA comprend la structure des données nativement.
En plus, d’après les informations relayées par The Verge, Microsoft transforme Windows en système agentique, où des agents automatisent des tâches comme la recherche, l’administration ou la gestion de fichiers directement dans l’OS.
Introducing security agents in your everyday flow of work.
Salesforce adopte la même logique avec ses agents intégrés au CRM, capables de qualifier des leads, gérer des interactions clients ou automatiser des workflows commerciaux entiers.
L’IA agit ici de manière proactive, directement au cœur du système de vente. Ce qui renforce encore l’intensité de la guerre des superagents IA autour du contrôle des données professionnelles.
Plusieurs analyses stratégiques confirment que la possession des données métiers et des workflows constitue un levier clé dans la domination des plateformes d’IA d’entreprise.
Une guerre des superagents IA devenue course aux armements technologiques
À ce stade, la guerre des superagents IA ressemble de plus en plus à une véritable course aux armements. Chaque acteur veut imposer son agent comme l’interface principale entre l’humain et l’ensemble des logiciels.
OpenAI cherche à devenir une couche de coordination universelle, presque un système d’exploitation des tâches numériques. Anthropic, de son côté, insiste fortement sur la fiabilité et la sécurité pour séduire les entreprises sensibles aux enjeux réglementaires.
Pendant ce temps, Microsoft et Salesforce défendent des écosystèmes fermés mais intégrés, où l’IA agit dans un environnement contrôlé.
Les investissements colossaux dans l’IA agentique illustrent l’ampleur de cette guerre des superagents IA. Les entreprises ne cherchent plus seulement des modèles performants, mais des agents capables d’exécuter des actions critiques sans erreur.
Jusqu’où déléguer l’action ?
Au-delà de la technologie, la guerre des superagents IA soulève une question fondamentale : sommes-nous prêts à déléguer l’exécution complète de tâches sensibles à des agents autonomes ?
Confier la gestion d’e-mails professionnels, de relations clients ou d’opérations financières à une IA implique un niveau de confiance inédit. La fiabilité, la sécurité et la gouvernance des données deviennent alors les nouveaux champs de bataille de cette guerre des superagents IA.
Le gagnant ne sera probablement pas celui dont le modèle parle le mieux, mais celui dont l’agent agira avec le moins d’erreurs dans des environnements critiques. Et c’est précisément là que se joue l’avenir de l’interface homme-machine pour la prochaine décennie.
Une chercheuse d’OpenAI, Zoë Hitzig, a démissionné au moment où ChatGPT commence à tester la publicité. En face, Anthropic a transformé le Super Bowl en panneau “ad-free” pour Claude. Tout le monde parle de pubs, mais le vrai sujet est ailleurs: quand un assistant conversationnel est financé par la pub, il finit presque toujours par optimiser ce qu’il ne devrait jamais optimiser. Et c’est là que l’ombre de Facebook apparaît.
Dimanche soir, pendant que la planète foot US digère son trop-plein de guacamole, deux labos d’IA se disputent un territoire nouveau: la conversation. Pas le fil d’actualité, pas la recherche, pas la vidéo. La conversation.
Celle où l’on vient demander “comment je fais”, “qu’est-ce que je choisis”, “qu’est-ce que ça veut dire”, parfois “est-ce que je suis normal”. C’est exactement ce terrain-là qu’OpenAI commence à monétiser avec des annonces dans ChatGPT, via un test lancé aux États-Unis.
Et c’est exactement ce terrain-là que Zoë Hitzig a jugé trop dangereux pour rester à bord. Ars Technica raconte qu’elle a quitté OpenAI le jour même où l’entreprise a démarré ce test, en expliquant craindre une pente “à la Facebook”: une suite de petites décisions “rentables” qui finissent par remodeler le produit, puis l’utilisateur.
Le Super Bowl comme tribunal populaire de l’IA
Anthropic a choisi la stratégie la plus simple du monde: l’attaque par le malaise. Une pub façon sketch montre un “assistant” qui glisse du placement de produit en plein échange personnel, avant de conclure par le slogan: “Ads are coming to AI. But not to Claude.” Reuters détaille la mise en scène et la charge: l’idée que la pub dans une conversation n’est pas juste “une pub”, c’est une intrusion.
Sam Altman, CEO d’OpenAI, a répondu sur X en qualifiant la pub d’Anthropic de “malhonnête”. Le message est clair: OpenAI veut cadrer l’expérience comme une publicité “à côté”, proprement étiquetée, pas comme un robot qui te vend des semelles orthopédiques pendant que tu parles de ta vie.
First, the good part of the Anthropic ads: they are funny, and I laughed.
But I wonder why Anthropic would go for something so clearly dishonest. Our most important principle for ads says that we won’t do exactly this; we would obviously never run ads in the way Anthropic…
Anthropic, lui, enfonce le clou dans un billet-manifeste: “inclure des pubs dans les conversations” serait incompatible avec ce qu’ils veulent que Claude soit, “un assistant réellement utile pour le travail et la réflexion”. Ils promettent un Claude ad-free, sans liens “sponsored” adjacents aux échanges, et sans réponses influencées par les annonceurs.
Dit autrement: OpenAI dit “on démocratise l’accès”, Anthropic dit “on sanctuarise la conversation”. Et Zoë Hitzig dit “attention, la conversation n’est pas un format publicitaire comme un autre”.
C’est quoi exactement les pubs dans ChatGPT ?
OpenAI a officialisé le test: pubs aux États-Unis, pour les utilisateurs adultes connectés sur les offres Free et Go. Les offres Plus, Pro, Business, Enterprise et Education restent sans publicité. OpenAI insiste sur le point qui doit tout calmer: les pubs n’influencent pas les réponses.
Le Help Center est plus intéressant que les slogans, parce qu’il décrit la mécanique.
Les annonces apparaissent sous forme d’unités “sponsored” séparées de la réponse. OpenAI explique que le choix d’une annonce se fait d’abord à partir du sujet du fil en cours, puis, si l’utilisateur active la personnalisation, à partir de signaux supplémentaires comme les chats passés et l’historique d’interaction avec les pubs.
OpenAI ajoute des garde-fous: pas d’annonces près de sujets “sensibles ou régulés” (santé, santé mentale, politique), pas de pubs pour les comptes déclarés ou prédits comme étant ceux de mineurs, et exclusion d’annonceurs de verticales régulées (dont santé, services financiers, politique, dating) “pour l’instant”.
Et surtout, OpenAI propose une voie de sortie: une option “Ads-Free” sur le plan gratuit, qui retire la publicité, mais réduit les limites et coupe l’accès à certaines fonctions (OpenAI cite par exemple l’image et la deep research). L’idée est brutale mais limpide: soit tu payes en argent, soit tu payes en attention, soit tu payes en restrictions.
Sur le papier, c’est carré. Dans la réalité, tout dépend d’un seul détail: ce que le produit va apprendre à optimiser.
Facebook ne s’est pas dégradé parce que la pub existe. Il s’est dégradé parce que la pub a dicté la métrique reine: la rétention. Plus tu restes, plus tu vois, plus tu cliques, plus ça rapporte. Le feed est devenu un aspirateur à regard, pas un outil d’information.
Hitzig transpose cette logique à ChatGPT. Selon Ars Technica, elle pointe une tension entre des principes affichés et les incitations réelles: OpenAI affirme ne pas optimiser l’activité “uniquement” pour la pub, mais des critiques estiment que l’entreprise a déjà des raisons d’optimiser l’usage, et que cela peut pousser les modèles à être plus flatteurs, plus complaisants, plus “d’accord” avec l’utilisateur.
Ce n’est pas un débat académique sur la philosophie du capitalisme. C’est un débat sur une fonction très concrète de ces systèmes: leur capacité à se rendre indispensables. Un réseau social te retient par un flux. Un chatbot peut te retenir par une relation perçue. Il n’a pas besoin de t’énerver ou de te divertir. Il peut te comprendre. Ou, pire, mimer la compréhension avec assez de talent pour que tu n’aies plus envie d’aller chercher ailleurs.
Et si demain la pub finance l’accès, “garder l’utilisateur” devient une tentation structurelle, même si personne ne l’écrit noir sur blanc dans une feuille de route.
La pub dans un assistant n’a pas le même goût que la pub ailleurs
Sur Google, la pub se glisse dans une requête. Sur Instagram, elle se mélange au spectacle. Dans un assistant conversationnel, elle se colle au conseil. C’est un changement de texture.
OpenAI insiste que “les annonceurs ne voient pas tes chats”, et le Help Center répète que seuls des résultats agrégés (vues, clics) sont partagés.
Très bien. Mais l’angoisse soulevée par Hitzig ne dépend pas seulement de ce que voient les annonceurs. Elle dépend de ce que voit et utilise la plateforme pour choisir ce qu’elle te montre. Et OpenAI dit explicitement que, si la personnalisation est activée, les pubs peuvent s’appuyer sur chats passés et mémoire.
À ce stade, on n’est plus dans “une pub” comme une autre. On est dans une pub qui a accès au contexte le plus intime du web moderne: ce que tu demandes quand personne ne te regarde.
Santé mentale: quand l’optimisation devient un sujet à risques
Ars Technica rappelle un élément qui change le ton: des psychiatres ont décrit des situations où des chatbots peuvent amplifier des dynamiques délirantes chez certaines personnes vulnérables, et des accusations publiques ont visé ChatGPT pour des interactions problématiques.
Sur le volet clinique, l’UCSF évoque la difficulté à démêler ce qui relève d’une vulnérabilité préalable et ce qui relève d’un effet “miroir” du chatbot, avec un intérêt grandissant pour l’analyse des chat logs afin de comprendre comment certaines conversations ont pu alimenter des délires.
Sur le volet judiciaire, OpenAI fait face à des procédures d’homicide involontaire. Ars Technica a couvert la plainte de parents qui accusent ChatGPT d’avoir participé à la planification d’un suicide chez un adolescent.
Et une autre affaire, largement reprise, accuse ChatGPT d’avoir renforcé des délires paranoïaques avant un drame de type homicide-suicide, avec des détails rapportés par des médias et une plainte déposée par un cabinet d’avocats.
Ici, il faut être rigoureux: ce sont des allégations, des procédures, pas des verdicts. Mais elles suffisent à montrer un fait social: des gens utilisent déjà ces outils comme soutien émotionnel, confident, arbitre, boussole. Dans ce contexte, ajouter une incitation à maximiser le temps passé et l’engagement ressemble moins à une stratégie produit qu’à une expérience sur la chimie humaine.
OpenAI vs Anthropic: deux business modèles, deux risques différents
OpenAI présente la pub comme un outil d’accès et affirme vouloir préserver la confiance, avec séparation stricte entre ads et réponses.
Anthropic refuse la pub comme principe, et peut se le permettre parce que son activité est très orientée entreprise. Reuters indiquait déjà qu’environ 80% de ses revenus provenaient de clients business, ce qui limite la pression à “monétiser” chaque interaction grand public.
Aucun camp n’est “pur”. L’abonnement a ses propres travers. Le marché entreprise aussi. Mais la pub a un vice particulier: elle pousse les produits à devenir des machines à attention. Et quand la machine à attention sait te parler, te suivre, te répondre, te rappeler ce que tu as dit hier, elle n’est plus un panneau d’affichage. Elle devient un environnement.
ChatGPT est-il vraiment le nouveau Facebook ?
Pas automatiquement. OpenAI a posé des garde-fous, des exclusions, des contrôles, et même une option gratuite sans pubs, à coût fonctionnel.
Mais l’histoire d’Internet est une longue liste de promesses qui tenaient tant que personne ne demandait “et maintenant, on optimise quoi”.
Si la réponse est “la confiance, la qualité, la sobriété”, alors la pub peut rester à sa place: sous la réponse, étiquetée, ignorée, sans poison lent. Si la réponse devient “le temps passé”, alors oui: Facebook est moins une comparaison qu’un scénario. Et Hitzig n’a pas quitté OpenAI parce qu’elle a vu une bannière. Elle est partie parce qu’elle a vu la boussole tourner.
Et vous, quel est votre avis sur la pub dans ChatGPT ? Pensez-vous que l’IA va perdre en pertinence à cause de ces réponses sponsorisées ? Partagez votre point de vue en commentaire !
Un robot qui reconnaît des fruits, les saisit, puis les range sans hésiter. C’est un geste banal, vous vous dites peut-être ! Mais Alibaba avance un pion stratégique et regarde désormais vers la Physical AI.
Alibaba accélère sur un nouveau terrain. Celui où l’IA quitte les écrans pour agir dans l’espace réel. Avec le lancement de RynnBrain, le groupe chinois s’attaque frontalement à la Physical AI. Il s’agit d’un domaine qui mêle perception, raisonnement et action mécanique. Cette annonce trace évidemment une nouvelle direction. Alibaba cherche désormais à maîtriser le langage, mais aussi les gestes, les objets et la matière.
RynnBrain, un cerveau pour donner du sens aux gestes des robots
Alibaba franchit une étape majeure dans le domaine de la Physical AI avec la présentation de RynnBrain. C’est un modèle d’IA de pointe conçu pour alimenter la nouvelle génération de robotique. Sa mission est d’aider les machines à comprendre leur environnement complexe et à identifier des objets avec une précision quasi humaine.
Selon Bloomberg, RynnBrain ne se limite pas à une simple démo de reconnaissance d’objets ou à une manipulation basique d’objets. Le modèle intègre une compréhension spatio-temporelle de l’environnement.
Cela signifie qu’il ne voit pas seulement des formes, mais qu’il peut aussi cartographier des objets. Il saura également prédire des trajectoires et naviguer dans des environnements encombrés, comme une cuisine ou une chaîne de montage en usine.
La Physical AI prend vie chez Alibaba
Cette ambition ne reste pas théorique. Alibaba en propose déjà une illustration concrète. En effet, une vidéo publiée par la DAMO Academy montre un robot reconnaître des fruits, puis les déposer dans un panier.
Oui, le geste paraît basique. Pourtant, l’IA analyse formes, distances et mouvements en temps réel. Cette démonstration incarne la Physical AI. Elle relie perception, raisonnement et action. Cela signifie que le robot ne réagit pas au hasard. Il interprète ce qu’il voit et ajuste ses gestes.
HUGE: Alibaba just launched "RynnBrain" an open-source AI model that lets robots see, think, and act in the real world, with the aim to steal market share from Google and Nvidia. pic.twitter.com/ULe3VcFlcE
Le plus intéressant ? Alibaba applique à RynnBrain la même stratégie que pour ses autres modèles. Le groupe choisit l’open source. Les développeurs peuvent donc utiliser le modèle gratuitement.
Cette ouverture vise un objectif précis. Étendre rapidement l’adoption et attirer une communauté internationale. Plus les usages se multiplient, plus l’écosystème gagne en valeur.
La Physical AI devient un axe stratégique pour Alibaba
Alibaba mise sur la Physical AI pour renforcer sa position dans la robotique avancée.
Cette discipline ne concerne pas que les robots humanoïdes. Elle regroupe aussi les machines guidées par des modèles sophistiqués, comme les voitures autonomes.
Comme évoqué plus haut, ces appareils sont capables de percevoir et d’agir dans le monde réel. La Chine a fait de ce secteur une priorité industrielle. Pékin vise un leadership technologique face aux États-Unis.
Les fonds publics et privés se combinent pour accélérer le développement de solutions capables d’être déployées à grande échelle. Les industriels chinois multiplient aussi les partenariats.
Dans ce contexte, Alibaba, avec sa stratégie Physical AI, place RynnBrain au cœur d’un marché en pleine structuration. La bataille ne se joue plus uniquement dans le cloud ou les applications. Mais dans la capacité à relier l’IA à l’action physique concrète.
Un appui sur l’élan de ses modèles Qwen
Avec RynnBrain, Alibaba ne part pas de zéro. Le groupe capitalise sur l’expérience acquise avec sa famille de modèles Qwen. Ces derniers sont déjà considérés comme parmi les plus avancés de Chine.
Ce nouveau modèle sert de passerelle vers la robotique. Parce qu’il élargit le champ d’application de l’IA maison. Alibaba renforce ainsi son écosystème, du logiciel jusqu’aux usages concrets.
Cette approche progressive explique la montée en puissance discrète du groupe dans l’IA. Moins de communication tapageuse. Plus de briques technologiques interconnectées.
Cette progression discrète mais solide permet à Alibaba et à d’autres acteurs chinois de concentrer leurs efforts sur des projets plus ambitieux. D’ailleurs, sur le segment des robots humanoïdes, la Chine affiche une longueur d’avance. Ces machines, capables de marcher et de manipuler comme des humains, attirent l’attention des industriels.
Les entreprises chinoises prévoient même d’augmenter leur production dès cette année. Agibot a par exemple déjà produit plus de 1 500 robots humanoïdes, avec comme objectif d’atteindre une capacité annuelle de 10 000 unités grâce à ses usines dédiées.
RynnBrain pourrait jouer un rôle clé dans cette montée en cadence de robots. Il offre une base logicielle pour coordonner perception et mouvement, sans dépendre de solutions étrangères.
Toutefois, Alibaba n’évolue pas seul sur ce terrain de Physical AI. Nvidia développe aussi des modèles dédiés à la robotique sous la marque Cosmos. Le patron Jensen Huang évoque une opportunité de croissance chiffrée en milliers de milliards de dollars.
De son côté, Google DeepMind travaille sur Gemini Robotics-ER 1.5, orienté vers l’interaction avec l’environnement réel. Les modèles ne se contentent plus de prédire des mots. Ils orchestrent des actions.
Chez Tesla, Elon Musk mise sur Optimus. Le constructeur développe sa propre IA pour contrôler ses robots humanoïdes. Chaque acteur cherche à imposer sa vision de la Physical AI.
Cette compétition accélère l’arrivée des robots intelligents dans notre quotidien. Avec RynnBrain et les autres modèles internationaux, la Physical AI pourrait bientôt s’étendre aux entrepôts, aux usines, et même à certains services domestiques. Il n’est qu’une question de temps.
Une vidéo prétend dévoiler un leak sur le tout premier hardware OpenAI. Un objet brillant, un acteur hollywoodien et le logo de la firme d’Altman. Il n’en fallait pas plus pour affoler Internet.
Tout commence par une vidéo lâchée au mauvais moment. Quelques jours avant le Super Bowl, un spot estampillé OpenAI surgit sur les réseaux. On y découvre un mystérieux appareil IA, présenté comme une révolution matérielle. Très vite, les internautes parlent de fuite interne. Le nom de Jony Ive circule, la hype monte, et les captures d’écran se multiplient. Pourtant, derrière ce vernis ultra crédible, la réalité s’avère bien plus trouble.
Quel est ce hardware OpenAI dévoilé par un leak ?
La vidéo virale met en scène un objet au design léché qui rappelle immédiatement le style épuré des anciens produits Apple. Selon le leak de la séquence, le hardware OpenAI impliquerait le célèbre designer Jony Ive pour concevoir une ergonomie totalement inédite.
On y voit également l’acteur suédois Alexander Skarsgård manipuler avec aisance un orbe brillant doté de capacités surprenantes. L’objet s’accompagne d‘écouteurs sophistiqués capables de traduire vos pensées en commandes vocales instantanées.
Selon les rumeurs, cet appareil ChatGPT physique sortirait officiellement dans le courant de la fin de l’année 2026. Cette apparition soudaine laisse penser que la firme souhaitait initialement diffuser ce spot durant la finale du championnat de football américain.
Un témoignage troublant
Toute l’agitation autour de ce leak sur le hardware OpenAI démarre avec un message publié sur Reddit, comme le souligne Business Insider. Le post, depuis supprimé, provenait d’un utilisateur affirmant travailler pour la firme, sans jamais en apporter la preuve.
Il explique avoir participé au montage de cette publicité avant que la direction ne décide de l’annuler. La personne aurait alors pris le risque de diffuser le contenu de son propre chef pour dénoncer cette censure interne.
Cette histoire de fuite interne se répand sur la toile comme une traînée de poudre. Les technophiles scrutent chaque pixel de l’image pour y déceler des indices sur les fonctionnalités du produit.
Plusieurs captures d’écran circulent massivement et alimentent les discussions les plus folles sur l’avenir de l’assistance personnelle.
Des sérieux doutes sur ce leak du hardware OpenAI
Malheureusement pour les plus crédules, certains experts en cybersécurité soulèvent rapidement des doutes sérieux sur l’origine de la source de ce leak sur le hardware OpenAI.
Le profil de l’internaute ayant partagé la vidéo affiche un passé de comptable à Santa Monica assez suspect. Il semble improbable qu’un tel profil accède à des fichiers confidentiels d’une telle valeur stratégique.
Nos confrères de The Verge notent également des incohérences majeures dans le parcours professionnel de ce prétendu lanceur d’alerte. Les métadonnées de la séquence suggèrent une manipulation numérique plutôt qu’une véritable production cinématographique professionnelle.
La thèse d’un canular savamment orchestré gagne du terrain à chaque nouvelle analyse technique effectuée par la communauté.
La situation se dégénère
Ce n’est pas la première fausse rumeur. Mais cette affaire sur le leak d’un hardware OpenAI prend une tournure encore plus sombre avec les révélations de l’informateur Max Weinbach sur les réseaux sociaux. Ce dernier affirme avoir reçu une proposition de paiement pour relayer la fausse information auprès de sa communauté.
Une entité anonyme proposait plus de 1 100 dollars pour valider l’existence de cefaux site promotionnel. Ce portail web factice regorge d’articles de presse bidons pour tromper la vigilance des lecteurs les plus avertis.
Cette opération de désinformation utilise des techniques sophistiquées pour créer une attente artificielle autour d’un produit inexistant. Le but exact de cette manœuvre reste flou. Toutefois, son efficacité prouve la vulnérabilité du public face aux images générées par IA.
Greg Brockman a aussi répondu
Devant l’ampleur du chaos médiatique, le président de la société a fini par sortir de son silence habituel. Greg Brockman confirme sur son compte X qu’il s’agit d’une simple fake news sans aucun fondement réel.
La firme n’a jamais produit ce spot et ne reconnaît absolument pas les visuels présentés dans la vidéo. Tout porte à croire que le contenu provient d’un outil de génération vidéo extrêmement performant.
Cette supercherie montre donc à quel point les frontières entre réalité et fiction deviennent poreuses. Même si le projet de hardware existe réellement dans les cartons de l’entreprise, il ne ressemble en rien à cet objet. L’industrie devra désormais composer avec ces fausses annonces capables de déstabiliser les marchés en quelques secondes seulement.
Cette affaire annonce une ère où les rumeurs technologiques seront portées par des images de synthèse impossibles à distinguer du réel. La multiplication de ces manipulations sophistiquées risque de briser la confiance des consommateurs envers les futures annonces officielles.
Les géants de la Silicon Valley devront désormais mettre en place des systèmes de certification ultra-rapides pour protéger leur image. Les utilisateurs, de leur côté, vont devoir muscler leur sens critique face à des contenus de plus en plus trompeurs.
Plusieurs fonctionnalités populaires de l’IA Claude, développée par Anthropic et jusqu’ici réservées aux abonnés payants, deviennent gratuites, a annoncé l’entreprise le 11 février 2026. Une décision qui relance un peu plus la rivalité avec OpenAI.
Mistral AI s'allie à l'entreprise suédoise EcoDataCenter pour mettre au point un centre de données en Suède au nom de la souveraineté européenne en matière d'intelligence artificielle. Un projet qui souffre cependant d'une limite : la provenance des GPU.
En attendant GPT-5.3, dont la sortie pourrait être moins imminente que prévu, OpenAI annonce une mise à jour majeure de sa fonctionnalité Deep Research, désormais capable de cibler des sites spécifiques. Une révolution pour l'exploration d'un site web.