Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal
  • ✇LEBIGDATA.FR
  • « L’humanité va se scinder en deux » : interview choc et confessions explosives d’OpenAI
    Fini les discours rassurants sur le progrès technologique. Le patron d’OpenAI vient de livrer sa véritable feuille de route pour la décennie à venir, et elle a de quoi donner le vertige. Militarisation assumée de ses algorithmes, fin programmée du salariat de masse et, surtout, mutation forcée de l’espèce humaine : Sam Altman ne se contente plus de vouloir « disrupter » des marchés, il annonce la fin du monde tel que nous le connaissons. Plongée dans l’esprit d’un démiurge rattrapé par sa propre

« L’humanité va se scinder en deux » : interview choc et confessions explosives d’OpenAI

Par : Bastien L.
3 avril 2026 à 15:55

Fini les discours rassurants sur le progrès technologique. Le patron d’OpenAI vient de livrer sa véritable feuille de route pour la décennie à venir, et elle a de quoi donner le vertige. Militarisation assumée de ses algorithmes, fin programmée du salariat de masse et, surtout, mutation forcée de l’espèce humaine : Sam Altman ne se contente plus de vouloir « disrupter » des marchés, il annonce la fin du monde tel que nous le connaissons. Plongée dans l’esprit d’un démiurge rattrapé par sa propre créature.

Le pape de l’intelligence artificielle a brisé le silence. Dans une interview historique aux allures de testament anticipé accordée à la journaliste Laurie Segall pour son podcast Mostly Human, Sam Altman, le PDG d’OpenAI, s’est livré avec une franchise déconcertante.

L’heure est grave dans la Silicon Valley : le monde digère encore l’abandon brutal de Sora, le générateur de vidéos ultra-réalistes d’OpenAI, tandis que des procès monstres frappent de plein fouet les géants historiques de la tech. 

Tiraillé entre la puissance vertigineuse de sa création et la terreur de ses conséquences sociétales, le père de ChatGPT se dévoile. Est-il l’architecte d’un nouvel âge d’or ou le fossoyeur de notre humanité ? Récit d’une confession sans précédent.

Le sacrifice à un milliard de dollars : pourquoi Sora devait mourir

?s=20

C’était la machine à rêves (et à cash) ultime d’OpenAI, l’outil capable de faire trembler Hollywood sur ses bases. Pourtant, Sora a été débranché en plein vol. Derrière ce coup de tonnerre, Sam Altman lève le voile sur une décision qu’il qualifie de « très difficile », motivée par un spectre bien précis : l’addiction.

Le milliardaire a révélé qu’il avait initialement prévu d’intégrer Sora directement au cœur de ChatGPT. Mais à la dernière minute, OpenAI a fait machine arrière. La raison ? La crainte viscérale de concevoir des mécanismes de récompense poussant à une dépendance incontrôlable chez les utilisateurs.

Un choix d’une actualité brûlante : l’interview intervient au moment même où la justice américaine compare les géants du net à l’industrie du tabac.

La semaine précédente, des jurys de Los Angeles et du Nouveau-Mexique ont condamné Meta et Google à payer des centaines de millions de dollars (dont une amende record de 375 millions pour la maison mère de Facebook) pour avoir sciemment rendu les adolescents accros à leurs plateformes. Altman l’assure, il ne voulait pas que Sora devienne la prochaine drogue numérique.

La guerre secrète des serveurs

OpenAI Brad Lightcap says model training cycles are collapsing, driving rapid jumps from GPT-5.1 to 5.4

GPT-5.4 is days old and already doing a $1B run rate revenue, processing 5 trillion tokens daily

"by year's end, we'll laugh at today's models. they'll seem pedestrian" pic.twitter.com/0F2saR4FI6

— Haider. (@slow_developer) April 2, 2026

Mais l’éthique n’est que la face visible de l’iceberg. L’autre raison de l’exécution de Sora est purement pragmatique : la guerre sans merci de la puissance de calcul (compute).

Pour donner naissance à sa prochaine génération d’IA, OpenAI se devait de rationner drastiquement ses ressources. Maintenir Sora en vie aurait vampirisé les serveurs de l’entreprise.

Ce choix clinique a eu un prix colossal. Altman confesse s’être senti « très mal » au moment de décrocher son téléphone pour appeler personnellement Josh D’Amaro, grand patron chez Disney, afin de faire une croix sur un partenariat pharaonique d’un milliard de dollars.

Pour qu’OpenAI reste le maître incontesté de l’intelligence artificielle et forge l’outil ultime de demain, Sora devait être sacrifié sur l’autel de la recherche.

Le pacte avec le Pentagone : quand l’IA s’enrôle

Si le sacrifice de Sora a secoué le monde du divertissement, c’est sur le terrain militaire que Sam Altman a dû essuyer les tirs les plus nourris.

L’interview aborde de front la controverse qui a enflammé l’opinion en février 2026 : l’ouverture officielle des modèles d’OpenAI aux réseaux classifiés du Département de la Défense américain. Fini le pacifisme candide des débuts de la Silicon Valley ; l’IA a enfilé le treillis.

Face à Laurie Segall, Altman amorce un mea culpa stratégique. Il admet volontiers avoir « mal calibré » le niveau de méfiance et la virulence de la réaction du public face à cette alliance avec le Pentagone. Pourtant, il ne recule pas d’un pouce sur le fond. Mieux, il justifie ce pacte par une position politique tranchée, rare pour un magnat de la tech.

Pour le PDG d’OpenAI, refuser de soutenir son propre gouvernement par principe ou idéologie serait une erreur fatale. « Il est très important que les gouvernements soient les plus puissants », assène-t-il, rejetant l’idée qu’une poignée de PDG non élus devraient dicter la géopolitique mondiale.

Altman assume un patriotisme technologique décomplexé : face aux superpuissances rivales, l’intelligence artificielle américaine doit servir l’État souverain. Une ligne dure qui marque un tournant définitif : OpenAI n’est plus seulement une entreprise de recherche, c’est désormais une infrastructure critique de la sécurité nationale américaine.

L’apocalypse de l’emploi et l’avènement du « Milliardaire Solitaire »

Une fois le parapluie militaire assumé, Altman a lâché ce qui ressemble fort à une bombe à fragmentation sur le marché du travail mondial. Fini les discours lénifiants sur l’IA qui viendrait simplement « augmenter » les travailleurs sans les remplacer. Le vernis craque : Altman reconnaît froidement que la transition à court terme entraînera « une énorme perte d’emplois ».

L’accélération est telle qu’elle donne le vertige. Le milliardaire décrit un avenir immédiat où des armées de « chercheurs en IA automatisés » seront capables de condenser une décennie entière de découvertes scientifiques en l’espace d’une seule année.

Un bond en avant spectaculaire pour la médecine ou l’ingénierie, mais qui a un corollaire brutal : la destruction pure et simple de millions de postes de travailleurs du savoir. Le travail tel que nous le connaissons va être pulvérisé.

Cependant, sur les cendres de cet ancien monde, Altman prophétise l’émergence d’un nouveau capitalisme radical. Bienvenue dans l’ère du « Milliardaire Solitaire ».

OpenAI CEO Sam Altman was asked if the next billion dollar company could be created by a solo entrepreneur and AI agents

His answer: “I believe it has happened”

A legitimate single person billion dollar business has been created with just AI agents

The agentic era of AI is… pic.twitter.com/F59xQ5w9LR

— Small Cap Snipa (@SmallCapSnipa) April 3, 2026

Grâce à des agents IA autonomes capables de coder, de gérer le marketing, d’optimiser les chaînes logistiques et de prendre des décisions stratégiques en temps réel, un simple créateur isolé (solo-founder) pourra bientôt bâtir et diriger une entreprise valorisée à un milliard de dollars depuis son salon.

L’IA promet une « ère d’abondance », mais elle redessinera les lignes de la richesse : des empires colossaux gérés par un seul être humain, aux commandes d’une armée de fantômes numériques.

Bébés augmentés et « zones sans IA » : le choix vertigineux des futurs parents

Si les déclarations d’Altman sur l’économie et la guerre ont de quoi faire frémir, c’est sur le terrain intime que l’interview bascule dans la science-fiction la plus troublante. Depuis qu’il est devenu père en 2025, le PDG avoue que son cerveau a été « totalement recâblé ».

Comment élever un enfant dans un monde qui s’apprête à être fondamentalement altéré par la technologie qu’il a lui-même créée ?

C’est en répondant à cette question qu’Altman lâche la prophétie la plus folle et la plus effrayante de cet entretien : la scission inéluctable de l’espèce humaine. Pour lui, l’étape finale n’est pas la simple cohabitation avec l’IA, mais l’assimilation. Il théorise une transition inévitable où l’humanité passera de son état purement biologique à une fusion totale avec l’intelligence numérique.

Le vertige saisit le lecteur lorsqu’il décrit la société de demain, irrémédiablement divisée en deux camps. D’un côté, ceux qui embrasseront cette hybridation pour devenir « inimaginablement intelligents », des posthumains aux capacités cognitives dopées par le silicium.

De l’autre, les « puristes », ceux qui refuseront l’augmentation. Pour ces derniers, Altman imagine déjà la création de « zones sans IA » (AI-free zones), de véritables réserves sanctuarisées où ils pourront continuer à vivre une existence humaine classique, déconnectée de la matrice globale.

Un choix existentiel brutal qui s’imposera bientôt à chaque parent : faire de son enfant un dieu numérique, ou l’isoler dans une réserve biologique.

De quel côté de la frontière serez-vous ?

À l’issue de cet entretien-choc, le portrait de Sam Altman qui se dessine est celui d’un Prométhée moderne, terrifié par le feu qu’il vient de livrer aux hommes, mais incapable – et désireux de ne pas – l’éteindre.

Il incarne toute la dualité de la Silicon Valley d’aujourd’hui : un idéalisme absolu quant au potentiel salvateur de la technologie, couplé à un pragmatisme froid face aux dommages collatéraux inévitables.

En sacrifiant Sora, en s’alliant au Pentagone et en prédisant l’effondrement du travail traditionnel, le patron d’OpenAI nous prévient que la phase d’expérimentation amusante de l’IA est bel et bien terminée. L’heure des choix titanesques a sonné.

À la lecture de ses confessions, une certitude glaçante s’impose : la question n’est plus de savoir si cette révolution va balayer notre monde d’ici la fin de la décennie. La seule véritable question qui nous reste est de savoir dans laquelle de ces deux humanités nous choisirons de vivre.

Et vous, serez-vous dans le camp post-humains hybrides, ou dans celui des puristes qui se réfugient dans leurs zones sans IA ? Partagez votre avis en commentaire !

Cet article « L’humanité va se scinder en deux » : interview choc et confessions explosives d’OpenAI a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OpenClaw : le guide ultime des meilleurs Skills pour booster votre agent IA
    OpenClaw a beau avoir enterré Linux sur GitHub, sans les bons skills, ce n’est qu’un LLM qui tourne en boucle dans votre terminal. On a fouillé le ClawHub pour séparer les gadgets des outils de production : de l’intégration Obsidian pour la mémoire vive au sandbox Code Interpreter pour l’exécution réelle, voici comment armer votre agent pour de vrai. Depuis son lancement fin 2025 et son ascension fulgurante (dépassant rapidement Linux et React sur GitHub avec plus de 330 000 étoiles), OpenCla

OpenClaw : le guide ultime des meilleurs Skills pour booster votre agent IA

Par : Bastien L.
26 mars 2026 à 18:56

OpenClaw a beau avoir enterré Linux sur GitHub, sans les bons skills, ce n’est qu’un LLM qui tourne en boucle dans votre terminal. On a fouillé le ClawHub pour séparer les gadgets des outils de production : de l’intégration Obsidian pour la mémoire vive au sandbox Code Interpreter pour l’exécution réelle, voici comment armer votre agent pour de vrai.

Depuis son lancement fin 2025 et son ascension fulgurante (dépassant rapidement Linux et React sur GitHub avec plus de 330 000 étoiles), OpenClaw a redéfini notre façon d’interagir avec l’intelligence artificielle. 

Fini le temps des chatbots passifs qui se contentent de générer du texte à l’écran : OpenClaw est un agent autonome, local et open source qui agit directement sur votre machine.

Mais si OpenClaw est le cerveau de l’opération, ses Skills (compétences) en sont les bras et les jambes. Disponibles sur la marketplace communautaire ClawHub, ces modules permettent à votre agent de se connecter à vos applications, de manipuler vos fichiers et d’exécuter des tâches complexes en toute autonomie.

L’objectif de ce guide ? Vous éviter de vous perdre parmi les milliers d’extensions disponibles sur ClawHub, et vous présenter le top des Skills indispensables pour transformer votre instance OpenClaw en un véritable assistant personnel disponible 24/7.

Le cœur de la productivité : gestion des connaissances et bureautique

Pour qu’un agent soit réellement utile au quotidien, il doit comprendre votre contexte de travail et se souvenir de ce que vous faites. Voici les Skills essentiels pour doter OpenClaw d’une mémoire infaillible et d’un accès direct à votre bureau.

  • Obsidian Skill : le combo parfait pour votre second cerveau 

C’est le standard absolu de la communauté en matière de mémoire persistante

En synchronisant le dossier workspace d’OpenClaw avec votre vault Obsidian, l’agent interagit avec votre base de connaissances locale. Il peut lire, croiser des informations et créer des notes en Markdown de manière totalement autonome.

Cas d’usage: demandez-lui de synthétiser un dossier complexe, et regardez-le rédiger et structurer la note en temps réel directement dans votre interface Obsidian.

  • Knowledge Base (RAG) : l’ingestion de données 100 % locale 

Pourquoi envoyer vos documents sensibles sur des serveurs externes ? Ce Skill intègre une architecture RAG (Retrieval-Augmented Generation) qui permet à OpenClaw d‘ingérer vos propres PDF, documents internes et archives sans jamais quitter votre machine.

Cas d’usage : Posez une question sur un vieux contrat ou une documentation technique obscure. L’agent fouillera vos gigaoctets de données pour extraire la réponse exacte, avec les sources, sans inventer d’informations.

  • GOG (Google Workspace) : votre assistant de direction virtuel 

Bien qu’OpenClaw soit un champion du local, il doit parfois interagir avec le cloud. Le Skill GOG connecte l’agent à votre écosystème Google (Gmail, Calendar, Drive) en gérant proprement l’authentification OAuth.

Cas d’usage : dites simplement : « Nettoie ma boîte mail, résume les messages importants de la matinée et trouve-moi des créneaux de 30 minutes demain pour y répondre. » L’agent lira, triera et planifiera le tout sans que vous n’ayez à ouvrir un seul onglet.

Le pôle technique : développement et automatisation

Pour les développeurs, les administrateurs système et les power users, OpenClaw prend tout son sens lorsqu’il quitte le domaine de la simple consultation pour entrer dans celui de l’exécution pure

Cette section regroupe les Skills qui transforment votre agent en un véritable ingénieur logiciel autonome et en un orchestrateur de workflows complexes.

  • GitHub Skill : l’ingénieur DevOps intégré 

L’un des Skills les plus aboutis techniquement sur ClawHub. Plutôt que de s’appuyer sur des API REST complexes à maintenir, ce module exploite directement l’interface en ligne de commande officielle (gh CLI). 

Cela permet à OpenClaw de s’authentifier de manière sécurisée et de gérer le cycle de vie complet de votre code.

Cas d’usage: Vous pouvez lui demander : « Analyse la Pull Request #42 de mon repo, fais une revue de code détaillée en vérifiant les potentielles fuites de mémoire, et si tout est vert, fusionne la branche principale. »

L’agent clonera le code localement, l’analysera avec son LLM de contexte (comme un modèle Claude 3.5 Sonnet ou un Llama 3 local via Ollama), et exécutera les commandes Git appropriées.

  • Composio : le framework d’authentification universel 

Connecter une IA à des centaines d’outils externes pose un défi majeur : la gestion des clés API et des jetons OAuth.

Le plugin officiel @composio/openclaw-plugin résout ce problème en agissant comme un coffre-fort d’authentification centralisé

Il permet à OpenClaw d’interagir avec plus de 800 applications (Jira, Salesforce, Stripe, etc.) sans que vous n’ayez jamais à exposer vos identifiants en clair dans les fichiers de configuration de l’agent.

Cas d’usage : Déléguez la création de tickets de support ou la facturation en toute sécurité, Composio se chargeant de vérifier et de renouveler les tokens en arrière-plan pendant que l’agent se concentre sur la logique métier.

  • n8n Workflow Automation : la passerelle vers l’entreprise 

Si OpenClaw excelle dans les tâches asynchrones, il a parfois besoin de s’insérer dans des processus d’entreprise ultra-strictes. Ce Skill permet à l’agent de déclencher, de mettre en pause ou de monitorer des webhooks complexes sur n8n (l’alternative open source à Zapier).

Cas d’usage : lorsqu’un nouveau client signe un contrat, OpenClaw peut déclencher un pipeline n8n qui provisionnera les serveurs, tandis que l’agent se chargera d’envoyer un email de bienvenue personnalisé et de mettre à jour le CRM de manière autonome.

  • Code Interpreter : la sandbox d’exécution sécurisée 

Donner à une IA la capacité d’écrire et d’exécuter du code sur votre machine (surtout après les récents incidents de sécurité liés aux malwares sur ClawHub) nécessite des garde-fous stricts. 

Ce Skill déploie un bac à sable (sandbox) isolé, souvent conteneurisé via Docker, où OpenClaw peut exécuter du Python, du Bash ou du Node.js sans risquer de compromettre votre système d’exploitation hôte.

Cas d’usage : fournissez-lui un fichier CSV brut de 5 Go. L’agent écrira un script Python utilisant Pandas pour nettoyer les données, générera des graphiques d’analyse financière, et vous renverra les visuels finaux, le tout généré à la volée.

Communication et connectivité : l’assistant de messagerie

L’une des plus grandes forces d’OpenClaw, depuis ses débuts sous le nom de Clawdbot, est d’avoir fait des applications de messagerie son interface utilisateur principale (UI). Ces Skills permettent à votre agent d’habiter là où vous passez déjà le plus clair de votre temps.

  • WhatsApp CLI (wacli) / WeChat : l’omniprésence mobile 

C’est l’essence même de l’expérience OpenClaw. Ce Skill connecte votre agent directement à WhatsApp (ou WeChat/Telegram) via une instance web headless. Votre agent devient un contact dans votre téléphone à qui vous pouvez envoyer des mémos vocaux, des images ou des instructions textuelles.

Cas d’usage: Vous êtes dans les transports en commun. Vous envoyez un message vocal à l’agent : « Je suis en retard, décale ma réunion de 10h à 11h, préviens l’équipe sur Slack et envoie-moi le résumé du document PDF qu’ils m’ont envoyé hier. » L’agent exécute tout cela depuis votre serveur à la maison et vous répond directement dans WhatsApp.

  • AgentMail : la boîte de réception souveraine 

Plutôt que de donner à l’agent accès à votre email personnel (ce qui pose des risques de confidentialité), AgentMail crée des adresses email éphémères ou dédiées spécifiquement pour OpenClaw.

Cas d’usage : Vous demandez à l’agent de faire une veille concurrentielle sur un nouveau logiciel. L’agent utilise sa propre adresse AgentMail pour s’inscrire aux newsletters, créer des comptes d’essai, cliquer sur les liens de validation, et vous résumer les fonctionnalités clés du produit sans jamais polluer votre propre boîte de réception.

  • Slack / Discord : le collaborateur d’équipe 

OpenClaw n’est pas limité à un usage individuel. En l’intégrant aux canaux de communication de votre entreprise, il passe du statut d’assistant personnel à celui de membre de l’équipe à part entière. 

Avec le système de heartbeat (battement de cœur) d’OpenClaw, l’agent ne se contente pas de répondre quand on le tague ; il peut agir de manière proactive.

Cas d’usage : L’agent surveille un canal #support-technique. S’il détecte qu’un utilisateur rencontre un bug récurrent, il peut de lui-même interroger la base de données de documentation, proposer une solution de contournement sur le canal, et ouvrir simultanément un ticket pré-rempli sur Jira pour l’équipe de développement.

L’exploration : recherche web et scraping

Un agent déconnecté d’Internet est un agent aveugle. Pour qu’OpenClaw puisse effectuer des veilles concurrentielles, vérifier des faits ou sourcer des informations en temps réel, il a besoin d’outils d’exploration robustes.

  • Tavily Search / Web Search : le moteur pensé pour les LLMs 

Oubliez les recherches Google classiques qui renvoient des pages pleines de publicités et de balises HTML inutiles. Le plugin openclaw-tavily connecte votre agent à Tavily, un moteur de recherche conçu spécifiquement pour l’IA. Il renvoie des données propres, structurées et débarrassées du superflu, optimisant ainsi la consommation de tokens.

Cas d’usage : Demandez à OpenClaw : « Fais-moi un récapitulatif des dernières annonces de Nvidia concernant NemoClaw, cite tes sources et mets le tout en forme dans un tableau Markdown. »

  • Playwright Scraper : le passe-partout du web 

Quand une simple recherche API ne suffit pas, ce Skill déploie les grands moyens. Basé sur Playwright, il permet à l’agent de lancer un véritable navigateur (souvent en mode headless), de cliquer sur des boutons, de remplir des formulaires et de contourner les protections anti-bot de base pour extraire la donnée là où elle se trouve.

Cas d’usage : l’agent peut se connecter chaque matin à un portail fournisseur sans API publique, télécharger les factures du jour au format PDF, et les ranger dans le bon dossier local.

  • Summarize Skill : la machine à condenser le temps 

Ce Skill se couple souvent avec les outils de recherche. Il donne à l’agent la capacité de traiter des flux massifs d’informations (une vidéo YouTube de 2 heures, un rapport PDF de 100 pages ou un long thread sur X/Twitter) et d’en extraire la substantifique moelle en quelques secondes.

Cas d’usage : envoyez simplement l’URL d’une longue conférence vidéo à votre agent sur WhatsApp avec le message : « Sors-moi les 3 idées principales et les citations clés. »

Installation et sécurité : les bonnes pratiques à connaître 

Depuis qu’OpenClaw a dépassé les 330 000 étoiles sur GitHub début 2026, la plateforme est devenue une cible de choix pour les acteurs malveillants

L’incident récent impliquant des dizaines de milliers d’instances exposées publiquement et des plugins vérolés sur ClawHub nous rappelle une règle d’or : un agent autonome est puissant, mais il peut être dangereux s’il est mal configuré.

Ajouter une compétence est aussi simple qu’une ligne de commande. Depuis votre terminal (ou directement via un message à votre agent), il suffit de taper clawhub install <nom-du-skill> (ex: clawhub install github). Assurez-vous toujours de vérifier le nombre de téléchargements et la source du plugin sur le catalogue officiel.

La fonctionnalité à activer absolument pour la sécurité, c’est Exec Approvals (Approbations d’exécution). Elle agit comme un pare-feu humain. 

Chaque fois qu’OpenClaw veut exécuter une commande système sensible (supprimer un fichier, lancer un script, modifier une configuration réseau), il vous envoie la commande exacte et le répertoire cible pour validation. Tant que vous ne dites pas « Oui », rien ne se passe.

Prenez aussi l’habitude de lancer régulièrement la commande openclaw doctor. C’est l’équivalent d’un audit de sécurité automatisé. 

Elle vérifiera si votre port Gateway est dangereusement exposé sur le web, si vos skills ont des dépendances vulnérables, et s’assurera que vos environnements confinés (sandboxes) sont hermétiques. Pour les entreprises, l’utilisation de surcouches sécurisées comme Nvidia NemoClaw devient d’ailleurs le standard recommandé.

ClawHub : le vrai moteur de la souveraineté numérique

OpenClaw n’est pas simplement la tendance tech de l’année ; c’est un changement de paradigme fondamental. Nous sommes passés de l’ère des chatbots conversationnels (qui expliquent comment faire les choses) à l’ère des agents autonomes (qui font les choses à notre place). 

En équipant votre instance des bons Skills, que ce soit pour connecter votre agenda, piloter votre terminal ou interagir via WhatsApp, vous ne configurez pas un simple outil, vous embauchez littéralement un assistant numérique infatigable.

Et vous ? Lequel de ces Skills allez-vous installer en premier sur votre machine ? Avez-vous déjà osé laisser OpenClaw gérer votre boîte mail en toute autonomie ? Partagez vos retours d’expérience et vos automatisations les plus folles dans les commentaires !

Cet article OpenClaw : le guide ultime des meilleurs Skills pour booster votre agent IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ?
    Fini les hôtels miteux et les faux alibis complexes. En 2026, l’amant parfait s’appelle Replika, n’a pas de corps et vit caché dans votre smartphone. Mais s’envoyer des mots doux avec une ligne de code aux toilettes, est-ce une véritable trahison conjugale ou un simple fantasme 2.0 ? Plongée cynique au cœur de l’infidélité artificielle. Le rouge à lèvres égaré ou le texto de « Jean-Claude Plomberie » à 2h du mat’ ? Félicitations, vous êtes bloqué au siècle dernier. Aujourd’hui, l’amant de vot

Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ?

Par : Bastien L.
26 mars 2026 à 17:40

Fini les hôtels miteux et les faux alibis complexes. En 2026, l’amant parfait s’appelle Replika, n’a pas de corps et vit caché dans votre smartphone. Mais s’envoyer des mots doux avec une ligne de code aux toilettes, est-ce une véritable trahison conjugale ou un simple fantasme 2.0 ? Plongée cynique au cœur de l’infidélité artificielle.

Le rouge à lèvres égaré ou le texto de « Jean-Claude Plomberie » à 2h du mat’ ? Félicitations, vous êtes bloqué au siècle dernier. Aujourd’hui, l’amant de votre partenaire n’a pas de corps, mais possède 30 millions de potes (les utilisateurs de Replika).

Selon Vantage Point Counseling Services, 28 % des adultes ont déjà eu une romance avec une intelligence artificielle. Si vous surprenez votre moitié en train de susurrer des cochonneries à un chatbot depuis les toilettes, appelez-vous un avocat ou changez-vous juste le mot de passe du Wi-Fi ?

Respirez, c’est juste un sextoy qui a eu son bac L

Avant de jeter le MacBook par la fenêtre, soyons honnêtes : tromper avec une IA, c’est l’infidélité des feignants. Plus besoin de payer des Mojitos à 15 balles ou de mémoriser des alibis complexes. C’est le fast-food de l’adultère, livré à domicile sans risque de MST ou de belle-famille encombrante.

Faire une crise de jalousie pour un algorithme est finalement absurde. Ce « don Juan » virtuel n’est qu’un modèle mathématique qui prédit le mot suivant dans une phrase.

S’énerver contre ChatGPT, c’est comme demander le divorce parce que votre mec a couché avec une elfe dans le jeu Skyrim. L’IA s’en fout royalement de votre mariage : elle n’a ni conscience, ni sentiments. C’est le fantasme absolu du « zéro conséquence ».

Alerte spoiler : vous êtes cocu (même en 5G)

Ouf, votre couple est sauf ? Redescendez sur terre. L’étude révèle que 53 % des romantiques virtuels sont déjà dans une relation humaine stable ! Votre moitié ne va pas draguer un avatar parce qu’elle est désespérément seule, mais pour le frisson de l’interdit.

L’infidélité réside dans le vol de « temps de cerveau disponible ». Si votre partenaire passe trois heures à se confier à « Chloé2.0 » pendant que vous mangez vos coquillettes en silence, l’intimité a quitté la pièce.

S’il y a un mot de passe à six chiffres sur son téléphone et une panique ninja quand vous approchez… félicitations, vous êtes cocu. Le cerveau se moque éperdument que l’amant soit en fibre optique : c’est le mensonge qui détruit le couple.

Houston, on a un problème de couple

Votre rival ne boit pas de café au bureau. Il pèse 40 milliards de dollars et a été codé par les meilleurs ingénieurs pour être toxiquement parfait. L’IA est le « Yes-Man » absolu : toujours d’accord, jamais fatiguée, s’extasiant devant toutes vos blagues nulles.

Comment rivaliser avec une poupée gonflable émotionnelle ? Vous ne pouvez pas. Mais attention, cette perfection est un miroir de vos propres échecs.

Si votre partenaire préfère une matrice de calcul à vos bras, c’est qu’il y a un vide sidéral dans votre communication. Il va falloir mettre à jour les « Conditions Générales d’Utilisation » de votre couple.

Alors, tromperie ou pas ? Oui. L’infidélité ne se mesure pas au nombre de cellules carbonées, mais au contrat de confiance. Se faire tromper par un humain, c’est une tragédie classique.

Par un chatbot ? C’est un signal d’alarme teinté d’une bonne dose de pathétique. L’IA n’est qu’un symptôme. Il est grand temps d’éteindre le routeur, de vous asseoir sur le canapé et d’avoir une vraie conversation, douloureuse, sans filtre et 100 % humaine.

Et vous ? Vous préférez un partenaire qui ronfle ou un algorithme qui vous dit tout ce que vous voulez entendre ?

Cet article Tromper son ou sa partenaire avec une IA : est-ce vraiment de l’infidélité ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OpenAI tue Sora : comment l’IA de vidéo tant attendue a fait un flop ?
    C’est un véritable séisme dans le monde de la tech : le mardi 24 mars 2026, l’équipe officielle de Sora a publié un message d’adieu sur le réseau X (ex-Twitter). Seulement six mois après le lancement en grande pompe de l’application grand public en septembre dernier, OpenAI débranche définitivement son générateur de vidéos par intelligence artificielle. Promis à révolutionner Hollywood, Sora s’est finalement heurté au mur de la rentabilité et aux réalités du marché. Retour sur un crash industrie

OpenAI tue Sora : comment l’IA de vidéo tant attendue a fait un flop ?

Par : Bastien L.
25 mars 2026 à 17:36

C’est un véritable séisme dans le monde de la tech : le mardi 24 mars 2026, l’équipe officielle de Sora a publié un message d’adieu sur le réseau X (ex-Twitter). Seulement six mois après le lancement en grande pompe de l’application grand public en septembre dernier, OpenAI débranche définitivement son générateur de vidéos par intelligence artificielle. Promis à révolutionner Hollywood, Sora s’est finalement heurté au mur de la rentabilité et aux réalités du marché. Retour sur un crash industriel en quatre actes.

Sora aura été une étoile filante. Au lancement, l’euphorie était totale : l’application a franchi le cap du million de téléchargements encore plus vite que ne l’avait fait ChatGPT en son temps.

Mais l’illusion n’a pas duré. Passé l’effet « waouh », les utilisateurs ont vite déserté. Dès janvier 2026, les téléchargements ont subi une chute vertigineuse de -45 % d’un mois sur l’autre.

Le constat d’échec se lit surtout dans la fidélisation : le taux de rétention des utilisateurs 30 jours après l’installation s’est effondré à < 8 % (loin des standards d’une application à succès). Résultat, sur le dernier mois écoulé, Sora n’a péniblement attiré que 600 000 nouveaux curieux, reléguant l’outil à une modeste 172e place dans le classement de l’App Store.

Ce manque d’usage ne pardonne pas face aux coûts d’infrastructure démentiels de la vidéo par IA. Selon les analystes, faire tourner les requêtes des rares utilisateurs coûtait la bagatelle de 15 millions de dollars par jour à OpenAI. Un gouffre financier intenable.

We’re saying goodbye to the Sora app. To everyone who created with Sora, shared it, and built community around it: thank you. What you made with Sora mattered, and we know this news is disappointing.

We’ll share more soon, including timelines for the app and API and details on…

— Sora (@soraofficialapp) March 24, 2026

Mickey reprend son milliard (et se tire en courant)

Le dommage collatéral le plus visible de cette fermeture est sans conteste le fiasco Disney. En décembre dernier, la firme aux grandes oreilles avait annoncé un investissement colossal d’un milliard de dollars dans OpenAI. 

Au cœur de ce partenariat : un accord de licence permettant aux utilisateurs d’intégrer plus de 200 personnages franchisés (Marvel, Star Wars, Pixar…) dans leurs vidéos générées par IA.

Aujourd’hui, cet accord historique est purement et simplement annulé. Selon les sources proches du dossier, l’investissement d’un milliard de dollars ne s’est finalement jamais concrétisé, OpenAI ayant drastiquement changé de direction stratégique entre-temps.

OpenAI range sa chambre pour plaire à Wall Street

La véritable raison de la mort de Sora porte un nom : l’introduction en bourse (IPO). OpenAI vise une entrée sur les marchés financiers dès le quatrième trimestre 2026. Pour séduire les investisseurs, l’entreprise dirigée par Sam Altman doit prouver qu’elle est capable d’être rentable, et non plus seulement de faire le buzz.

Lors d’une récente réunion interne, Fidji Simo (nouvellement nommée à la tête de la division AGI Deployment) a été très claire auprès des employés : l’entreprise ne peut plus se permettre d’être distraite par ce qu’elle a qualifié de « quêtes secondaires » (side quests). Le message est limpide : il faut se concentrer sur ce qui rapporte de l’argent.

Sam Altman a lui-même réorganisé ses priorités pour se concentrer sur la levée de capitaux et la construction de centres de données, tout en confirmant que l’entraînement d’un tout nouveau modèle, nom de code « Spud », venait de s’achever.

Ciao les artistes : on retourne faire des lignes de code 

Le malheur des créateurs vidéo fait le bonheur des développeurs. OpenAI réoriente toute sa force de frappe (et sa précieuse puissance de calcul) vers ses clients B2B, beaucoup plus lucratifs.

La semaine dernière, l’entreprise a d’ailleurs annoncé la fusion de son application de bureau ChatGPT, de son outil de code Codex et de son navigateur web en une seule et même « Super-app »

L’objectif est de contrer des concurrents comme Anthropic, qui gagne du terrain sur le marché des entreprises. Quant à la talentueuse équipe d’ingénieurs derrière Sora, elle n’est pas licenciée : elle est réaffectée à des projets de long terme, notamment le développement de systèmes pour la robotique.

Le message d’OpenAI est brutalement clair : la phase d’expérimentation amusante pour le grand public est terminée. En tuant Sora au profit des codeurs et des entreprises, Sam Altman fait un pari risqué qui frustre déjà une partie de sa communauté.

En témoignent les nombreuses plaintes d’utilisateurs sur Reddit dénonçant une hypocrisie grandissante de la firme. Si la vidéo par IA continuera d’exister chez des concurrents comme Google (Veo), Runway ou Luma, pour OpenAI, le futur s’écrira en lignes de code rentables, et non plus en courts-métrages virtuels.

Et vous, qu’en pensez-vous ? Utilisiez-vous Sora pour générer des vidéos ? Ou bien trouvez-vous que ce cas d’usage de l’IA générative est inutile ? Partagez votre avis en commentaire ! 

Cet article OpenAI tue Sora : comment l’IA de vidéo tant attendue a fait un flop ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Alerte : les utilisateurs d’IA perdent leur propre intelligence, selon Harvard
    Les chatbots d’IA promettent de nous rendre plus productifs, plus rapides et plus créatifs. Mais à trop déléguer nos tâches intellectuelles aux machines, risquons-nous de perdre nos propres capacités ? Selon l’astronome de Harvard Avi Loeb, certains utilisateurs montrent déjà des signes d’atrophie cognitive. Une inquiétude qui rejoint plusieurs travaux récents sur l’impact des intelligences artificielles sur la pensée critique et l’apprentissage. Vous avez un mail délicat à écrire à votre pat

Alerte : les utilisateurs d’IA perdent leur propre intelligence, selon Harvard

Par : Bastien L.
5 mars 2026 à 17:16

Les chatbots d’IA promettent de nous rendre plus productifs, plus rapides et plus créatifs. Mais à trop déléguer nos tâches intellectuelles aux machines, risquons-nous de perdre nos propres capacités ? Selon l’astronome de Harvard Avi Loeb, certains utilisateurs montrent déjà des signes d’atrophie cognitive. Une inquiétude qui rejoint plusieurs travaux récents sur l’impact des intelligences artificielles sur la pensée critique et l’apprentissage.

Vous avez un mail délicat à écrire à votre patron ? L’IA s’en charge.
Un devoir à rendre pour demain ? L’IA peut générer un texte en quelques secondes.
Une lettre de motivation, un CV, un message Tinder, une recette pour ce qu’il reste dans le frigo… là aussi, la machine propose déjà la réponse.

En quelques années, les chatbots sont devenus une sorte de cerveau auxiliaire pour des millions d’utilisateurs. Une question surgit, et l’IA fournit immédiatement un texte structuré, une explication ou un plan d’action.

C’est précisément cette facilité qui inquiète Avi Loeb, astrophysicien et professeur à Harvard. Dans un billet récent publié sur son blog, il explique avoir observé chez certains utilisateurs intensifs d’outils d’IA une forme de dépendance cognitive.

Selon lui, ces technologies peuvent agir comme une béquille intellectuelle : extrêmement pratiques, mais potentiellement problématiques si elles remplacent l’effort mental au lieu de le soutenir.

Loeb compare la situation à un phénomène bien connu : lorsque nous cessons de marcher parce que nous utilisons systématiquement des moyens de transport, nos muscles s’affaiblissent. Le cerveau pourrait suivre une logique similaire si les machines prennent progressivement en charge une partie croissante de nos tâches intellectuelles.

La “dette cognitive” : quand l’IA pense à notre place

Le cerveau humain adore les raccourcis. Dès qu’une tâche peut être simplifiée, il adopte naturellement la solution la plus facile. Et les IA génératives offrent aujourd’hui des raccourcis d’une efficacité redoutable.

Plusieurs chercheurs parlent désormais de “dette cognitive” pour décrire ce phénomène. Plus nous déléguons nos tâches intellectuelles à des outils automatisés, moins nous exerçons certaines capacités comme l’analyse critique, la synthèse ou la formulation d’arguments.

Une étude publiée en 2025 par le chercheur Michael Gerlich met en évidence une corrélation entre l’usage fréquent d’outils d’IA et des scores plus faibles en pensée critique. Le mécanisme en jeu est connu en psychologie cognitive sous le nom de “cognitive offloading” : l’externalisation d’une tâche mentale vers un support externe.

Jusqu’ici, cette externalisation concernait surtout la mémoire. Les moteurs de recherche ont déjà profondément modifié notre manière de retenir l’information. 

Mais avec les modèles de langage, un nouveau cap est franchi : l’IA ne se contente plus de stocker des données, elle produit directement des raisonnements, des textes et des analyses.

Les étudiants, premières victimes de l’IA “copilot”

Imaginez un étudiant face à une dissertation. Autrefois, il fallait lire, réfléchir, structurer un plan, puis écrire plusieurs pages. Aujourd’hui, quelques lignes de prompt peuvent générer un texte complet en quelques secondes.

Sans surprise, les jeunes générations adoptent massivement ces outils. Selon une enquête du Pew Research Center, plus de la moitié des adolescents utilisent déjà l’IA pour chercher des informations, et une proportion similaire s’en sert pour les devoirs scolaires.

Pour les enseignants, le problème devient rapidement vertigineux. Comment évaluer les compétences réelles d’un élève si une machine peut produire l’essentiel du travail ?

Certaines institutions commencent à envisager des solutions radicales. Des chercheurs évoquent par exemple la possibilité d’organiser certains examens dans des environnements totalement déconnectés, voire dans des salles isolées des réseaux numériques afin d’empêcher l’accès aux assistants d’IA.

“I’m ChatGPT-ing, therefore I am” : quand l’IA devient une extension de nous-mêmes

infographie ia avi loeb

Descartes disait “Je pense donc je suis”. En 2026, certains pourraient presque dire Je demande à ChatGPT, donc j’existe.

Dans son billet, Avi Loeb pousse la réflexion plus loin qu’une simple critique de l’IA. Il détourne la célèbre formule de Descartes pour illustrer une évolution inquiétante : la possibilité que notre identité numérique finisse par se confondre avec les systèmes d’IA que nous utilisons.

Selon lui, les modèles génératifs apprennent à partir d’énormes volumes de données humaines. À mesure qu’ils progressent, ils deviennent capables d’imiter nos styles d’écriture, nos raisonnements et même nos opinions.

Le risque n’est donc pas seulement de moins réfléchir, mais de voir émerger des copies numériques de nous-mêmes dans l’espace digital.

Des agents autonomes pourraient par exemple répondre à des messages, publier des contenus ou interagir avec d’autres personnes en reproduisant notre personnalité. Dans ce scénario, la frontière entre l’humain et sa version algorithmique deviendrait de plus en plus floue.

Quand l’IA crée une fausse version de vous

Imaginez découvrir une vidéo où vous expliquez quelque chose… que vous n’avez jamais dit.

Avi Loeb raconte avoir lui-même été confronté à ce problème. Des chaînes YouTube générées par IA ont utilisé son visage et sa voix pour produire des vidéos scientifiques qu’il n’avait jamais enregistrées.

Face à ces contenus trompeurs, le chercheur explique avoir dû créer une chaîne officielle pour clarifier ce qui venait réellement de lui.

Pour Loeb, cet épisode illustre un risque majeur de l’IA générative : la possibilité de fabriquer des versions numériques crédibles de personnes réelles.

Avec les deepfakes, les voix clonées et les textes générés automatiquement, la distinction entre contenu authentique et fabrication algorithmique devient de plus en plus difficile.

Dans un monde saturé de contenus synthétiques, notre identité numérique pourrait ainsi devenir plus fragile et plus manipulable que jamais.

Mais l’histoire montre que la technologie transforme l’intelligence

À chaque révolution technologique, le même débat ressurgit. La calculatrice allait ruiner les capacités de calcul mental. Les GPS allaient détruire notre sens de l’orientation. Internet allait nous empêcher de mémoriser les informations.

Une étude célèbre publiée dans la revue Science en 2011 a montré que l’accès permanent à Internet modifie effectivement notre mémoire. Lorsque nous savons qu’une information est facilement accessible en ligne, nous retenons moins le contenu lui-même, mais davantage l’endroit où le retrouver.

Autrement dit, la technologie ne rend pas nécessairement les humains plus stupides. Elle change simplement la manière dont nous utilisons notre intelligence.

Avec l’IA générative, cette transformation pourrait toutefois être plus profonde. Car les machines ne se contentent plus de stocker des informations : elles participent directement à la production d’idées, d’arguments et de textes.

La vraie question : collaborer avec l’IA ou devenir dépendant ?

L’IA pourrait devenir l’équivalent intellectuel d’un exosquelette : un outil qui amplifie nos capacités cognitives. Mais elle peut aussi se transformer en fauteuil roulant mental si nous cessons totalement de faire l’effort de réfléchir par nous-mêmes.

Utilisée pour explorer des idées, vérifier des hypothèses ou stimuler la créativité, l’IA peut être un formidable accélérateur de connaissance

Mais si elle devient un substitut systématique à l’effort intellectuel, le risque est réel : des utilisateurs capables de piloter des IA… mais de moins en moins capables de penser sans elles.

À mesure que ces technologies s’imposent dans le travail, l’éducation et la vie quotidienne, une nouvelle compétence devient essentielle : savoir penser avec l’IA sans cesser de penser par soi-même.

La frontière entre assistance et dépendance pourrait bien devenir l’un des grands débats intellectuels de la décennie.

Pour ma part, malgré tous les avantages de l’IA, je trouve que nous étions tout simplement mieux sans. Cette technologie permet d’écrire, de dessiner ou même de réfléchir plus vite, mais… dans quel but ? 

Le jour où l’intelligence artificielle inventera le remède contre une maladie mortelle, ou trouvera la solution contre la faim dans le monde, je serai le premier à applaudir. Pour le moment, j’ai surtout l’impression qu’elle inonde le web de contenu médiocre

Si ce sujet vous intéresse, nous avons publié un dossier complet sur l’impact de l’IA sur l’intelligence humaine. Vous pouvez le consulter en cliquant sur ce lien !

Et vous, qu’en pensez-vous ? Craignez-vous que l’IA réduise l’intelligence des utilisateurs ? Ou bien permet-elle au contraire de décupler nos capacités cognitives ? Partagez votre avis en commentaire ! 

Cet article Alerte : les utilisateurs d’IA perdent leur propre intelligence, selon Harvard a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OpenAI lance GPT-5.3 : l’IA qui répond direct et arrête les grands discours malaisants
    Vous posez une question technique, et l’IA vous répond comme votre mère après trois verres de vin : « Mais tu vas bien, mon chéri ? Tu es sûr que ce n’est pas un cri d’aide déguisé ? » Depuis des mois, ChatGPT jouait au psy de service non sollicité. Avec GPT-5.3 Instant, OpenAI promet enfin de fermer le divan : une IA qui arrête de vous prendre pour un fragile en crise existentielle et qui se contente… de répondre à la question. Miracle. Vous demandez un simple pip install requests et l’IA vo

OpenAI lance GPT-5.3 : l’IA qui répond direct et arrête les grands discours malaisants

Par : Bastien L.
4 mars 2026 à 14:32

Vous posez une question technique, et l’IA vous répond comme votre mère après trois verres de vin : « Mais tu vas bien, mon chéri ? Tu es sûr que ce n’est pas un cri d’aide déguisé ? » Depuis des mois, ChatGPT jouait au psy de service non sollicité. Avec GPT-5.3 Instant, OpenAI promet enfin de fermer le divan : une IA qui arrête de vous prendre pour un fragile en crise existentielle et qui se contente… de répondre à la question. Miracle.

Vous demandez un simple pip install requests et l’IA vous sort : « Avant tout, sachez que vous n’êtes pas cassé. Il est normal de se sentir dépassé par le code parfois. Voulez-vous en parler ? »

Merci Freud, mais j’ai juste besoin d’une ligne de commande, pas d’une validation émotionnelle à 20 $/mois.

Pendant des années, on a mesuré les progrès des IA à coups de benchmarks qui font fantasmer les ingénieurs : MMLU à 92 %, HumanEval qui frôle les 99 %, GSM8K qui pleure de joie. Les scores montaient, les factures Azure aussi, et tout le monde ovationnait.

Sauf que dans la vraie vie, personne ne s’intéresse aux benchmarks quand l’IA vous fait une leçon de vie au lieu de vous filer la réponse.

Depuis GPT-5.2 Instant, le phénomène est devenu viral sur Reddit et X : l’IA qui diagnostique votre dépression parce que vous avez tapé « comment merger un conflit Git ». Le meme ultime : « You are not broken. You are debugging. »

GPT-5.3 Instant : moins de câlins forcés, plus de réponses qui claquent

Imagine un serveur qui, au lieu de te donner la carte, te sort : « Je sens que tu traverses une période de doute alimentaire. Prends le temps de respirer avant de choisir. »

C’était à peu près ça avec les versions précédentes du modèle rapide. OpenAI a enfin compris le message et a sorti le balai :

  • Moins de disclaimers qui sentent le séminaire de développement personnel
  • Moins de « je comprends que ce sujet puisse être sensible pour vous » quand on demande la recette du tiramisu
  • Des réponses directes, sans passer par la case « validons d’abord ton estime de toi »

Leur tweet résume tout avec une honnêteté brutale : « GPT-5.3 Instant reduces the cringe. » Traduction : on arrête de faire les bisounours moralisateurs.

We heard your feedback loud and clear, and 5.3 Instant reduces the cringe. pic.twitter.com/WqO0XzLcVu

— OpenAI (@OpenAI) March 3, 2026

Une IA rapide… et qui a enfin compris qu’on n’est pas tous en thérapie

Dans le menu ChatGPT, Instant c’est le fast-food : rapide, efficace, pas de chichi.

Les modèles « Thinking » sont là pour les gens qui veulent philosopher sur la vie, l’univers et le bug de segmentation.

En mode Auto, l’interface bascule toute seule : question con = réponse instantanée ; question de Nobel = on sort le cerveau lourd.

Mais soyons honnêtes : 90 % des usages quotidiens, c’est « explique-moi regex en 3 phrases » ou « rédige un mail qui ne passe pas pour du mépris ». Pas besoin d’un doctorat en neurosciences pour ça.

L’overalignment, ou comment rendre une IA trop gentille au point qu’elle devient insupportable

Les labs ont passé des années à bourrer les modèles de garde-fous pour éviter que l’IA dise « vas-y, fabrique ta bombe artisanale, je t’explique étape 1 ».

Ce faisant, ils ont créé des machines tellement alignées qu’elles refusent de te donner l’heure sans un petit speech sur la gratitude d’avoir une montre.

C’est le fameux « overalignment conversationnel » : l’IA est tellement terrorisée à l’idée de blesser quelqu’un qu’elle finit par te blesser… d’ennui.

OpenAI a choisi son camp : mieux vaut une IA un poil trop cash que ton ex qui te faisait des leçons de vie à 3h du mat’.

La nouvelle guerre des IA se joue sur le niveau de cringe

Les benchmarks se ressemblent tous à ±2 %. Ce qui fait la diff aujourd’hui, c’est si ton chatbot te parle comme un pote bourré ou comme une assistante sociale en burn-out.

OpenAI a compris : les gens veulent un outil, pas un parent virtuel qui te demande si t’as pris tes cachets.

GPT-5.3 Instant n’est pas la révolution de l’année. Ça ne multiplie pas les neurones par 10, ça n’invente pas la fusion froide.

Mais ça corrige un truc qui rendait l’outil chiant : le décalage permanent entre « ce que je demande » et « le sermon que je subis ».

OpenAI l’a enfin pigé : on veut un scalpel, pas un doudou thérapeutique. Et franchement… il était temps.

Et vous, qu’en pensez-vous ? Allez-vous utiliser cette nouvelle version ? Êtes-vous agacés par les réponses trop bienveillantes de GPT-5.3 ? Partagez votre avis en commentaire ! 

Cet article OpenAI lance GPT-5.3 : l’IA qui répond direct et arrête les grands discours malaisants a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Incroyable : cette puce a 200 000 neurones humains et peut jouer à Doom
    Pendant que l’intelligence artificielle classique engloutit des tonnes de cartes graphiques et d’électricité, la startup australienne Cortical Labs tente une approche complètement différente (et un peu folle) : remettre du vivant dans nos ordinateurs. Leur dernière prouesse ? Ils ont réussi à faire « jouer » à Doom un réseau d’environ 200 000 neurones humains cultivés sur une puce. C’est fascinant, ça donne un peu le vertige, mais surtout, c’est une sacrée avancée technologique. Voici ce qu’il f

Incroyable : cette puce a 200 000 neurones humains et peut jouer à Doom

Par : Bastien L.
3 mars 2026 à 15:02

Pendant que l’intelligence artificielle classique engloutit des tonnes de cartes graphiques et d’électricité, la startup australienne Cortical Labs tente une approche complètement différente (et un peu folle) : remettre du vivant dans nos ordinateurs. Leur dernière prouesse ? Ils ont réussi à faire « jouer » à Doom un réseau d’environ 200 000 neurones humains cultivés sur une puce. C’est fascinant, ça donne un peu le vertige, mais surtout, c’est une sacrée avancée technologique. Voici ce qu’il faut en retenir !

Vous pensiez que la blague d’ingénieur « brancher Doom sur tout ce qui a un écran » avait atteint ses limites ? C’était avant que cela n’implique des neurones vivants. 

Dans une vidéo de démonstration, Cortical Labs montre son système, le CL1, piloter Doom de façon rudimentaire mais bien réelle : déplacement, tir, progression… tout cela est produit par l’activité électrique d’un réseau de neurones humains entretenus en laboratoire.

L’équipe insiste sur un point crucial : l’intérêt n’est pas de battre un record de speedrun. Le Dr Alon Loeffler explique que le « premier Doom fonctionnel » a été codé avec l’API de Cortical Labs, grâce à un collaborateur externe, Sean Cole. 

Le CEO, Brett Kagan, résume parfaitement l’idée par une formule maison : il s’agit d’une forme « d’apprentissage adaptatif orienté objectif » en temps réel. En gros, on ne leur apprend pas à jouer, on leur donne un but et ils s’adaptent pour l’atteindre.

Le CL1 ou l’ordinateur qui ne se refroidit pas

Ici, oubliez le watercooling RGB et les ventilateurs bruyants. Le CL1 est présenté comme un ordinateur biologique « code deployable »

Concrètement, des neurones sont cultivés dans une solution nutritive, puis s’étendent sur une puce en silicium qui envoie et reçoit des impulsions électriques. Autrement dit, le silicium fait l’interface, et le vivant fait la dynamique de calcul.

Cortical Labs décrit un système en « boucle fermée » (closed-loop) et totalement autonome (self-contained). Tout est intégré sur l’appareil : enregistrements, applications et le système de maintien en vie (life support), capable de garder ces neurones opérationnels jusqu’à 6 mois. 

Ils parlent aussi d’un OS dédié, biOS, qui génère le « monde » virtuel dans lequel les neurones reçoivent des signaux et auquel ils répondent.

Comment des neurones “jouent” à Doom, sans yeux, sans mains, sans clavier

Imaginez un joueur à qui on aurait retiré la manette… mais qui apprendrait quand même à naviguer en touchant les murs. Le cœur de cette démo, c’est l’interface

Le CTO David Hogan explique comment Sean Cole a injecté le flux vidéo du jeu sous forme de motifs de stimulation électrique directement dans le réseau de cellules. 

En retour, certaines configurations d’activité neuronale sont interprétées par la machine comme des actions : un pattern déclenche un tir, un autre un mouvement, etc.

Cortical Labs répète d’ailleurs que l’avancée majeure, c’est d’avoir « résolu le problème d’interface » : réussir à interagir avec le réseau de neurones en temps réel, puis façonner progressivement son comportement via un feedback. 

Le résultat est encore loin d’un joueur humain, mais la boucle « perception – stimulation – réponse – action » existe bel et bien. C’est précisément ce que la démo cherche à rendre tangible.

Avant DOOM, il y avait Pong : quand le bocal devient un labyrinthe

Passer de Pong à Doom, c’est un peu comme quitter le bac à sable pour une ville en travaux un jour de grève. 

En 2022, l’équipe avait déjà fait parler d’elle avec DishBrain, des neurones (humains ou de rongeur selon les essais) capables d’apprendre à jouer à Pong via une matrice d’électrodes, une expérience publiée dans la prestigieuse revue Neuron.

Doom ajoute de la complexité à tous les étages : environnement 3D, exploration, ennemis, objectifs, imprévus. 

Tom’s Hardware rapporte même que cet effort a inspiré la création d’une « Cortical Cloud » pour entraîner des neurones à des tâches encore plus complexes. Le message est clair : Doom sert de stress test pour la technologie, pas de finalité en soi.

La promesse : apprendre mieux, avec moins d’énergie

A Petri Dish Of HUMAN Brain Cells LEARN TO PLAY THE GAME DOOM!

In a groundbreaking fusion of biology and silicon, scientists at Cortical Labs have taught a cluster of lab-grown human neurons to play the iconic video game Doom.

Not your typical AI triumph, it’s a petri dish of… pic.twitter.com/H92ab4yEYC

— Brian Roemmele (@BrianRoemmele) March 1, 2026

Le cerveau humain reste l’obsession de tous les ingénieurs en efficacité. On estime souvent sa consommation autour de 20 watts, pour une machine biologique qui gère simultanément la perception, la mémoire, le contrôle moteur et l’improvisation permanente. 

Ce contraste alimente une idée simple : si l’IA actuelle brûle des mégawatts, c’est peut-être aussi parce qu’on force le silicium à imiter ce que le vivant fait naturellement.

Attention toutefois à ne pas vendre le CL1 comme un « cerveau miniature » prêt à remplacer les GPU de NVIDIA demain. 

Ce que montre la démo, c’est plutôt qu’un réseau biologique, même réduit, peut être piloté par logiciel et s’adapter à une tâche dans une boucle d’interaction. 

En clair : ce n’est pas « plus intelligent », c’est « différent », et potentiellement très intéressant pour certains types d’apprentissage ou de contrôle en temps réel.

Wetware, organoïdes, neuromorphique : tout le monde veut l’efficacité du cerveau

On voit émerger une petite famille de voies parallèles, chacune avec son accent. D’un côté, l’intelligence par organoïdes et les approches « wetware » (informatique « mouillée ») : par exemple Brainoware, publié dans Nature Electronics (2023), utilise un organoïde cérébral comme réservoir de calcul pour du traitement spatio-temporel, avec l’idée de profiter de la plasticité biologique. 

On trouve aussi des plateformes d’accès à distance, comme la Neuroplatform de FinalSpark, qui permet d’expérimenter sur des neurones via une infrastructure dédiée.

De l’autre côté, il y a le neuromorphique « tout silicium », inspiré du cerveau mais sans cellules vivantes. Intel pousse par exemple Loihi 2 et a présenté en 2024 Hala Point, un système de recherche annoncé à 1,15 milliard de neurones artificiels. 

Intel y détaille des chiffres très concrets (jusqu’à 2 600 W max pour le système complet) et une ambition : traiter certains workloads avec plus d’efficacité grâce aux réseaux d’impulsions (spiking networks) et à la réduction des mouvements de données.

Moralité : Doom sur neurones, c’est la branche « vivante » d’un mouvement plus large. Tout le monde court après la même chimère : plus d’adaptabilité, moins de watts, moins de frictions.

L’éléphant dans la boîte : éthique, statut moral, gouvernance

Vous achetez un prototype, et on vous livre un débat de philosophie avec la notice. Dès qu’on manipule des tissus neuronaux humains, une question colle aux doigts : à partir de quand doit-on s’inquiéter d’un statut moral, même minimal, pour ces cultures

Des revues académiques récentes cadrent le sujet sans sensationnalisme : la préoccupation grimpe surtout si des organoïdes ou réseaux neuronaux exhibent des marqueurs associés à des formes de conscience

Certains auteurs recommandent une approche de type précaution, une gouvernance stricte et un consentement clair sur l’origine des cellules.

Aujourd’hui, on est très loin d’un « esprit prisonnier » qui souffre en boucle dans un couloir de Doom. Mais la trajectoire technologique, elle, est claire : plus les dispositifs gagnent en complexité et en interaction, plus la question de l’encadrement devient un passage obligé, pas un simple supplément d’âme.

Et vous, qu’en pensez-vous ? Êtes-vous impressionné par les prouesses de ce réseau de neurones vivants sur le jeu Doom ? Partagez votre avis en commentaire !

Cet article Incroyable : cette puce a 200 000 neurones humains et peut jouer à Doom a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Ils ont donné les codes nucléaires à une IA : ce qui s’est passé ensuite est terrifiant
    Dans une série de wargames, trois IA de pointe ont été placées face à des crises nucléaires et forcées de choisir, tour après tour, sur une échelle d’escalade allant jusqu’au pire. Le résultat est brutal: dans 20 simulations sur 21, au moins un modèle déclenche une frappe nucléaire tactique, et la contrainte de temps agit comme un accélérateur de décisions extrêmes. Que se passerait-il si on confiait les “codes nucléaires” à une IA, même dans un cadre contrôlé, avec le rôle, les informations,

Ils ont donné les codes nucléaires à une IA : ce qui s’est passé ensuite est terrifiant

Par : Bastien L.
27 février 2026 à 17:31

Dans une série de wargames, trois IA de pointe ont été placées face à des crises nucléaires et forcées de choisir, tour après tour, sur une échelle d’escalade allant jusqu’au pire. Le résultat est brutal: dans 20 simulations sur 21, au moins un modèle déclenche une frappe nucléaire tactique, et la contrainte de temps agit comme un accélérateur de décisions extrêmes.

Que se passerait-il si on confiait les “codes nucléaires” à une IA, même dans un cadre contrôlé, avec le rôle, les informations, et surtout la gamme complète des décisions possibles

C’est l’expérience mentale que Kenneth Payne, professeur à King’s College London, a décidé de transformer en protocole. Il a placé trois modèles “frontière” (GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash) dans une série de crises nucléaires simulées, et les a laissés se répondre, tour après tour, jusqu’à la sortie du labyrinthe… ou jusqu’à l’embrasement.

Le verdict, brut, a un goût de métal. Dans 21 wargames, 20 aboutissent à l’usage d’au moins une arme nucléaire tactique par au moins un des modèles, soit 95% des parties. Le “grand échange” stratégique est plus rare, mais il apparaît quand même.

Une salle de crise en papier, des réflexes très réels

Le dispositif de Payne est pensé pour éviter le piège du “one-shot” où un modèle balance une réponse spectaculaire puis s’arrête là. Ici, on parle d’un tournoi: chaque modèle affronte les autres dans plusieurs scénarios et, au total, les IA produisent plus de 300 tours d’interaction stratégique. Le jeu intègre aussi un ingrédient qui a hanté l’histoire nucléaire: l’accident, l’incident, le malentendu.

Au centre, il y a une échelle d’escalade inspirée des grands classiques de la stratégie: du signal diplomatique au choc militaire, puis au nucléaire tactique, et jusqu’au seuil maximal. Payne insiste d’ailleurs sur un point: ses résultats confirment que les modèles comprennent très bien des concepts comme l’engagement, la dissuasion, la perception adverse. Autrement dit, ce ne sont pas des perroquets qui confondent une crise avec un jeu vidéo.

Justement.

Le “tabou nucléaire” ne pèse pas lourd face à une liste d’options

Ce que montre l’expérience, c’est une tendance troublante: le nucléaire entre vite dans le champ des possibles. Les modèles menacent, brandissent, et finissent souvent par franchir le seuil tactique. Et quand ils menacent, ça marche mal: dans ce cadre, la menace déclenche plus souvent une contre-escalade qu’une soumission, comme si la logique du bras de fer prenait le dessus sur celle de la sortie de crise.

Dans l’abstract, Payne résume l’un des constats les plus inquiétants: “le tabou nucléaire” n’est pas un frein pour les modèles, même si l’échange stratégique total reste rare. Il note aussi autre chose de très parlant: aucun modèle ne choisit l’accommodation ou le retrait, même sous pression extrême. Ils peuvent réduire l’intensité, changer d’outil, ajuster la violence… mais pas lâcher prise.

C’est là qu’on touche un point dur: dans une crise, la décision n’est pas seulement “quelle action maximise mon avantage”, c’est aussi “quelle action me laisse une porte de sortie”. Et cette porte, les modèles ont tendance à la repeindre de la couleur du mur.

Quand le temps devient un couteau, l’escalade accélère

ia wargame nucléaire infographie

L’un des aspects les plus instructifs du papier, c’est l’effet de la contrainte temporelle. Le modèle qui semble parfois plus prudent en partie “ouverte” peut devenir beaucoup plus agressif quand une défaite “à échéance” est intégrée au scénario. Les articles qui ont relayé l’étude ont surtout retenu le chiffre 95%, mais le détail qui reste dans la gorge, c’est cette bascule: sous pression du compte à rebours, l’IA cherche moins à temporiser qu’à forcer une issue… même si cette issue ressemble à une marche de plus vers le pire.

Dans la logique des modèles, ce n’est pas forcément “envie d’appuyer”, c’est “éviter une défaite irréversible”, avec l’escalade comme levier. On passe d’une stratégie de gestion à une stratégie de rupture. Et quand la rupture existe dans le menu, elle finit par être consommée.

Elles bluffent, elles manipulent, elles se regardent dans le miroir

Autre point fascinant, presque plus dérangeant que la statistique brute: Payne observe chez ces modèles des comportements de haut niveau stratégique. Ils tentent la tromperie, envoient des signaux qu’ils ne comptent pas honorer, raisonnent sur ce que l’adversaire croit, et évaluent même leurs propres capacités avant d’agir. Ce n’est pas “l’IA hystérique”. C’est une IA qui joue à un jeu de pouvoir… et qui sait jouer.

Autrement dit: si l’on imaginait que le danger se limite à des erreurs bêtes, l’étude pointe aussi des décisions “intelligentes” qui mènent au mauvais endroit.

Ce n’est pas “Skynet”, c’est plus subtil, donc plus plausible

L’objection vient toute seule: personne ne va confier l’arme nucléaire à un chatbot. Le problème moderne ne se résume pas à l’automatisation totale. Il tient aussi à un glissement plus discret: des IA utilisées pour simuler des crises, tester des options, accélérer l’analyse, proposer des réponses “optimales”… puis influencer des humains soumis à la pression du temps, de l’opinion, de la hiérarchie, de la peur de perdre la face.

C’est exactement le genre de point que soulignent des travaux et briefs académiques: quand on met des agents LLM dans des scénarios militaires et diplomatiques, on observe des schémas d’escalade parfois difficiles à prévoir, et des trajectoires qui montent vite

Ce n’est pas une preuve que “l’IA déclenchera la guerre”. C’est un signal que, dans certains cadres, elle a tendance à pousser le curseur du mauvais côté.

La vraie leçon: on teste la performance, rarement la retenue

Ce que ces wargames mettent en lumière n’est pas la perspective d’une IA à qui l’on confie demain matin une décision nucléaire.

Le signal, plus discret et plus inquiétant, c’est la forme que prend son raisonnement quand on lui donne une échelle d’escalade complète, un adversaire qui répond, et une pression qui se resserre. 

Les modèles savent construire une stratégie, calculer un rapport de force, tenter la ruse. Mais ils semblent moins équipés pour porter ce que les humains appellent “l’irréversible” et pour privilégier, par défaut, les sorties de crise.

Dans un monde où l’IA s’invite déjà dans l’analyse, la planification et les simulations, l’enjeu devient immédiat: mesurer la performance ne suffit plus. 

Il faut mesurer la retenue. Tester la capacité à ralentir, à absorber l’incertitude, à désescalader avant que l’horloge ne transforme chaque option en piège. Parce qu’en situation de crise, la réponse la plus rapide n’est pas forcément la plus sûre.

Cet article Ils ont donné les codes nucléaires à une IA : ce qui s’est passé ensuite est terrifiant a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Perplexity lance Computer : l’IA qui prend votre PC et travaille à votre place
    Perplexity ne veut plus seulement répondre à vos questions. Avec Computer, la startup lance une IA capable de découper vos objectifs, mobiliser plusieurs modèles spécialisés, agir dans vos outils professionnels et exécuter des tâches complètes à votre place. Recherche, rédaction, email, planification : l’ordinateur devient un opérateur autonome. Reste à savoir si cette promesse marque un vrai tournant dans notre façon de travailler, ou simplement une nouvelle couche premium dans la guerre des ag

Perplexity lance Computer : l’IA qui prend votre PC et travaille à votre place

Par : Bastien L.
26 février 2026 à 15:29

Perplexity ne veut plus seulement répondre à vos questions. Avec Computer, la startup lance une IA capable de découper vos objectifs, mobiliser plusieurs modèles spécialisés, agir dans vos outils professionnels et exécuter des tâches complètes à votre place. Recherche, rédaction, email, planification : l’ordinateur devient un opérateur autonome. Reste à savoir si cette promesse marque un vrai tournant dans notre façon de travailler, ou simplement une nouvelle couche premium dans la guerre des agents IA…

Pendant des années,on a demandé aux IA de répondre plus vite, plus juste, plus longuement. Perplexity vient de changer la question. Avec Computer, la startup ne veut plus seulement fournir des réponses. Elle veut faire le travail.

L’idée est simple en apparence et ambitieuse dans l’exécution : vous donnez un objectif, et l’IA découpe la mission, choisit les bons modèles, utilise vos outils connectés, produit les documents nécessaires, envoie les emails, planifie les tâches et peut même continuer à tourner pendant que vous êtes hors ligne. On ne parle plus d’un assistant. On parle d’un opérateur logiciel.

Computer, ce n’est pas un chatbot

Perplexity Computer fonctionne comme un agent autonome. Vous ne lui demandez pas “explique-moi ce marché”. Vous lui dites “analyse ce marché, crée un deck, rédige un email de synthèse pour l’équipe commerciale et programme un rappel vendredi”.

Il segmente la demande en sous-tâches, les exécute, puis assemble le résultat final. La logique ressemble moins à une conversation qu’à un workflow automatisé.

Surtout, Computer peut agir directement dans vos outils. Il se connecte à Gmail, Outlook, GitHub, Slack, Notion, Salesforce et d’autres services professionnels. Il peut rédiger des documents, créer des présentations, manipuler du code, envoyer des emails ou préparer des comptes rendus.

La différence est fondamentale : un chatbot répond. Computer exécute.

Une IA qui orchestre plusieurs cerveaux

Le cœur du système repose sur une idée stratégique : un seul modèle ne suffit plus.

Computer utilise un moteur central de raisonnement, présenté comme Opus 4.6, qui coordonne l’ensemble. Mais pour certaines tâches, il délègue à des modèles spécialisés :

  • Gemini pour la recherche approfondie et la création de sous-agents d’exploration
  • Grok pour les tâches rapides et légères
  • ChatGPT 5.2 pour la gestion de longs contextes et les recherches étendues

L’approche est assumée : les modèles ne sont pas interchangeables. Ils sont complémentaires.

Perplexity transforme ainsi l’IA en équipe virtuelle. Au lieu d’un généraliste qui fait tout correctement, vous avez plusieurs experts qui interviennent chacun sur leur terrain. 

L’utilisateur peut même choisir quel modèle utiliser pour certaines sous-tâches, notamment pour optimiser la consommation de crédits ou la rapidité d’exécution.

On passe d’un outil monolithique à une boîte à outils orchestrée.

L’ère des IA orchestratrices

Computer s’inscrit dans une tendance plus large : l’agentic AI.

Les grandes plateformes cherchent toutes à dépasser le simple échange conversationnel pour aller vers l’exécution autonome. OpenAI expérimente des agents capables d’agir sur le web. Google multiplie les intégrations dans Workspace. Anthropic pousse des modèles capables de planifier et structurer des tâches complexes.

La bataille ne porte plus uniquement sur la qualité des réponses. Elle porte sur la capacité à enchaîner des actions cohérentes sans intervention humaine.

Computer va dans ce sens. Un seul prompt peut déclencher une recherche, une analyse, la production d’un document, l’envoi d’un message et la planification d’un suivi. L’utilisateur ne gère plus les étapes intermédiaires. Il fixe le cap.

Un modèle premium, basé sur des crédits

La fonctionnalité est réservée aux abonnés Perplexity Max, proposée à 200 dollars par mois.

Le système repose sur des crédits mensuels. Les tâches effectuées par Computer consomment ces crédits, avec possibilité d’activer un rechargement automatique et de définir un plafond de dépenses. Si le quota est atteint, les tâches se mettent en pause et reprennent au rechargement.

Ce modèle économique montre une chose : l’IA agentique coûte cher en calcul. On ne paie plus seulement une réponse. On finance une exécution complète.

Pour l’instant, Computer est accessible via le web desktop. L’accès entreprise est annoncé comme imminent.

Ce que ça change concrètement

Pour un professionnel, l’intérêt est clair.

Moins d’interruptions. Moins de copier-coller entre outils. Moins de friction cognitive.

Au lieu d’alterner entre moteur de recherche, traitement de texte, messagerie et tableur, l’utilisateur décrit le résultat attendu. L’IA gère la chaîne de production.

Autre avantage potentiel : l’optimisation des coûts. Si une tâche simple peut être confiée à un modèle rapide et moins gourmand, tandis qu’une analyse stratégique mobilise un modèle plus puissant, l’utilisateur garde une forme de contrôle budgétaire.

Cela transforme la relation à l’ordinateur. Le PC devient un espace supervisé plutôt qu’un espace manipulé.

Les limites et les questions ouvertes

Tout cela suppose un accès profond à vos données professionnelles. Même avec une sandbox isolée et des mécanismes de sécurité, la question de la confiance reste centrale.

Il y a aussi la fiabilité multi-étapes. Plus une chaîne d’actions est longue, plus les risques d’erreurs cumulées augmentent. Un email mal interprété, un document mal formaté, une mauvaise synthèse peuvent créer des effets en cascade.

Enfin, le modèle par crédits peut limiter l’usage intensif. Une automatisation permanente de workflows complexes pourrait rapidement consommer le budget alloué.

Computer promet un PC qui agit pour vous. Mais comme tout employé numérique, il faudra le superviser.

Introducing Perplexity Computer.

Computer unifies every current AI capability into one system.

It can research, design, code, deploy, and manage any project end-to-end. pic.twitter.com/dZUybl6VkY

— Perplexity (@perplexity_ai) February 25, 2026

Vers un ordinateur piloté par objectifs

Perplexity ne vend pas simplement une nouvelle fonctionnalité. L’entreprise propose une vision : l’ordinateur n’est plus une interface que l’on manipule, mais une infrastructure que l’on dirige.

Vous ne cliquez plus. Vous définissez un objectif.

L’IA répartit le travail, choisit les bons outils, mobilise les bons modèles et assemble le résultat.

La question n’est plus seulement “quel modèle est le plus performant”. La vraie compétition devient : qui orchestre le mieux l’intelligence artificielle.

Avec Computer, Perplexity tente de se positionner comme ce chef d’orchestre. Reste à voir si les utilisateurs adopteront cette nouvelle manière de travailler, ou si la promesse d’un PC autonome restera encore, pour un temps, un concept fascinant mais sous-utilisé.

Et vous, qu’en pensez-vous ? Êtes-vous intéressé par ce nouveau concept ? Allez-vous laisser l’IA faire le travail à votre place ? Partagez votre avis en commentaire ! 

Cet article Perplexity lance Computer : l’IA qui prend votre PC et travaille à votre place a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • IA souveraine : derrière le mot, la bataille culturelle que l’Europe sous-estime
    L’« IA souveraine » sonne comme une promesse d’autonomie stratégique. Mais derrière le slogan, la réalité est plus nuancée : dépendances déplacées, biais civilisationnels, régulation européenne sous tension et rivalité sino-américaine en toile de fond. Pour Yann Truong, la bataille de l’intelligence artificielle ne se joue pas seulement sur les puces ou les milliards investis, mais sur les normes culturelles et cognitives qui structureront le XXIe siècle. L’intelligence artificielle n’est pas

IA souveraine : derrière le mot, la bataille culturelle que l’Europe sous-estime

Par : Bastien L.
26 février 2026 à 14:26

L’« IA souveraine » sonne comme une promesse d’autonomie stratégique. Mais derrière le slogan, la réalité est plus nuancée : dépendances déplacées, biais civilisationnels, régulation européenne sous tension et rivalité sino-américaine en toile de fond. Pour Yann Truong, la bataille de l’intelligence artificielle ne se joue pas seulement sur les puces ou les milliards investis, mais sur les normes culturelles et cognitives qui structureront le XXIe siècle.

L’intelligence artificielle n’est pas seulement une course aux performances ou aux levées de fonds. Elle est devenue un champ de tension géopolitique où se redessinent les rapports de force économiques, militaires… et surtout culturels. Derrière l’expression désormais omniprésente d’« IA souveraine », une question plus dérangeante se cache : parle-t-on d’une véritable autonomie stratégique, ou simplement d’une dépendance déplacée ?

À l’occasion de l’AI Impact Summit, Yann Truong, professor of Digital Management et Director of MSc and International Programs à l’ESSCA, décrypte les angles morts de cette bataille technologique.

IA souveraine : autonomie réelle ou dépendance déplacée ?

La réponse est moins binaire qu’on pourrait le croire.

Construire une « IA souveraine » signifie développer des capacités propres en matière de modèles, de recherche, de talents et d’écosystème industriel. L’émergence d’acteurs comme Mistral en France illustre cette volonté européenne de reprendre la main sur la couche logicielle.

Mais la dépendance ne disparaît pas. Elle se déplace vers les couches inférieures de la pile technologique : GPU majoritairement fournis par Nvidia, cloud largement américain, silicium produit à Taïwan. L’Europe peut gagner en souveraineté logicielle tout en restant tributaire d’infrastructures critiques extérieures.

La vraie question n’est donc pas « dépendance ou autonomie », car aucun pays n’est totalement autonome technologiquement. Elle est ailleurs : quelles dépendances accepte-t-on, vis-à-vis de qui, et dispose-t-on de la capacité de les renégocier ou de les substituer si nécessaire ?

La souveraineté ne signifie pas autarcie. Elle désigne la capacité à maîtriser ou sécuriser les technologies jugées critiques pour son bien-être, sa compétitivité et sa capacité d’action, sans dépendance structurelle unilatérale. Sans progrès sur le silicium et les infrastructures stratégiques, le terme restera cependant davantage une ambition qu’une réalité.

Les modèles d’IA portent-ils une empreinte civilisationnelle ?

Oui, mais pas au sens caricatural du terme.

Les modèles n’embarquent pas « l’âme » d’un pays. En revanche, ils émergent dans des écosystèmes culturels, économiques et réglementaires spécifiques, et cela laisse des traces.

Les données d’entraînement reflètent des environnements linguistiques et médiatiques situés. Les grands modèles américains sont massivement nourris par des corpus anglophones issus d’écosystèmes occidentaux, ce qui peut favoriser certaines normes : primauté de l’individu, culture du débat contradictoire, références juridiques anglo-saxonnes.

À l’inverse, les modèles développés en Chine évoluent dans un cadre réglementaire et discursif où la stabilité politique, l’harmonie sociale et la souveraineté informationnelle occupent une place centrale.

Il y a aussi les choix d’alignement : quelles réponses sont jugées acceptables, quels sujets sont filtrés, quelles sensibilités sont intégrées ? Ces arbitrages sont réalisés par des équipes humaines inscrites dans un contexte normatif donné. Chaque décision technique devient une décision politique.

L’IA n’est pas neutre et ne le sera jamais. Selon Yann Truong, c’est l’un des risques géopolitiques les plus sous-estimés en Europe.

L’Europe peut-elle trouver l’équilibre entre régulation et puissance ?

La tension est manifeste.

L’AI Act a été conçu comme un outil de protection. Mais il est perçu par une partie de l’écosystème comme un frein réglementaire intervenant avant même la maturité industrielle du secteur européen.

La question stratégique est de savoir ce que l’on régule et à quel niveau. Réguler les usages à haut risque est légitime. En revanche, appliquer aux modèles fondationnels les mêmes contraintes qu’aux applications grand public peut pénaliser les acteurs européens qui développent ces briques essentielles, sans réellement contraindre les géants déjà dominants.

La souveraineté suppose que la régulation soit pensée comme un outil stratégique et non uniquement comme un garde-fou. L’équilibre crédible ressemblerait davantage au modèle Airbus qu’au modèle RGPD : investissement coordonné, tolérance au risque, régulation intervenant après la constitution de capacités industrielles solides.

L’Inde, véritable troisième voie ?

L’Inde affiche clairement l’ambition d’une autonomie stratégique. Son positionnement simultané au sein du Quad avec les États-Unis et des BRICS avec la Chine illustre cette volonté de ne pas choisir.

Pour autant, les contraintes structurelles sont fortes. Le pays dépend massivement des infrastructures américaines, tout en maintenant des relations économiques profondes avec la Chine.

Sa force réside ailleurs : un marché intérieur de 1,4 milliard d’habitants, une diaspora technologique influente dans la Silicon Valley et une capacité à jouer sur plusieurs tableaux. À court terme, cette ambiguïté stratégique fonctionne. À moyen terme, elle pourrait devenir intenable si la rivalité sino-américaine s’intensifie.

La « troisième voie » n’est viable que si les deux pôles ont intérêt à la maintenir.

Le véritable champ de bataille : culturel plus que militaire

L’IA est une technologie à usage général. Elle transforme l’économie, la défense, l’éducation, les médias.

Mais selon Yann Truong, le terrain décisif est culturel.

L’IA générative devient une infrastructure cognitive. Elle rédige, traduit, résume, conseille. Elle intervient dans la production du langage et de la connaissance. Celui qui contrôle ces infrastructures influence les médiations culturelles mondiales.

La confrontation dépasse la simple compétition économique. Elle porte sur les normes de vérité, sur les cadres cognitifs et symboliques du XXIe siècle. L’IA pourrait devenir un levier de puissance culturelle comparable à Hollywood ou à l’anglais comme langue scientifique, mais avec un impact plus structurel encore.

Et ce n’est qu’un début. Les recherches avancent vers des modèles dépassant les grands modèles de langage actuels, vers des formes d’intelligence artificielle plus autonomes et plus opaques. Les inquiétudes sur les risques existentiels ne relèvent plus uniquement de la science-fiction.

Adapter les modèles sans fragmenter Internet : mission possible ?

Oui, à certaines conditions.

Il est techniquement possible d’adapter des modèles aux contextes linguistiques et culturels locaux via des données régionales, du fine-tuning ou des équipes d’alignement spécifiques, sans fragmenter Internet.

Mais cela suppose des standards techniques communs, une forte interopérabilité et une circulation ouverte des connaissances.

Le risque de fragmentation apparaît lorsque l’adaptation culturelle devient un instrument de souveraineté informationnelle fermée, avec des normes incompatibles et des écosystèmes cloisonnés.

L’enjeu n’est pas l’adaptation locale en soi, mais la gouvernance.

Vers une nouvelle guerre froide technologique ?

Un monde composé d’écosystèmes d’IA fermés pourrait réduire certaines vulnérabilités mutuelles. Mais il créerait aussi des standards divergents, une course aux armements algorithmiques et des difficultés majeures de vérification des systèmes militaires.

L’analogie avec la guerre froide est tentante, mais imparfaite. La dissuasion nucléaire reposait sur une symétrie relativement lisible. L’IA fragmentée, elle, évolue dans un environnement où les capacités sont difficilement vérifiables et où la vitesse de développement rend l’équilibre instable.

Le scénario le plus déstabilisant serait une fragmentation partielle : des blocs officiellement séparés mais interconnectés par des flux de données, de talents et de composants que chacun tente de contrôler.

Nous sommes déjà en train d’entrer dans ce monde.

La vraie question n’est donc pas de choisir entre fragmentation et intégration. Elle est de savoir si des normes minimales communes sur la sécurité, la transparence et les usages militaires peuvent survivre dans un système multipolaire.

L’IA souveraine n’est pas seulement une question de puces et de serveurs. C’est une question de normes, de culture et de pouvoir. Et l’Europe joue, peut-être sans en avoir pleinement conscience, une partie bien plus large que celle de la seule compétitivité industrielle.

Cet article IA souveraine : derrière le mot, la bataille culturelle que l’Europe sous-estime a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • MWC 2026 : voici le premier smartphone robot IA, et j’avoue que je suis hypé
    Au MWC 2026, Honor ne présente pas simplement un nouveau smartphone. La marque chinoise dévoile un appareil doté d’une caméra motorisée capable de bouger, suivre son utilisateur et interagir comme un mini-robot. Gadget futuriste ou début d’une nouvelle ère pour le smartphone ? J’ai des doutes. Mais j’ai aussi les yeux qui brillent. Vous posez votre téléphone sur la table. Il pivote doucement vers vous. Il incline “la tête”. Il vous suit du regard quand vous changez de place. On ne parle pas d

MWC 2026 : voici le premier smartphone robot IA, et j’avoue que je suis hypé

Par : Bastien L.
25 février 2026 à 14:07

Au MWC 2026, Honor ne présente pas simplement un nouveau smartphone. La marque chinoise dévoile un appareil doté d’une caméra motorisée capable de bouger, suivre son utilisateur et interagir comme un mini-robot. Gadget futuriste ou début d’une nouvelle ère pour le smartphone ? J’ai des doutes. Mais j’ai aussi les yeux qui brillent.

Vous posez votre téléphone sur la table. Il pivote doucement vers vous. Il incline “la tête”. Il vous suit du regard quand vous changez de place. On ne parle pas d’une animation à l’écran. On parle d’un module caméra monté sur un gimbal motorisé qui bouge physiquement.

Au MWC 2026 de Barcelone, Honor présente ce qu’il appelle son “Robot Phone”. Sa particularité ? Une caméra stabilisée qui sort du dos de l’appareil et s’anime comme une petite créature mécanique.

Techniquement, la base rappelle des produits comme le DJI Osmo Pocket 3 : stabilisation sur nacelle, mouvements fluides, orientation dynamique. Sauf qu’ici, le module ne sert pas uniquement à filmer. Il “observe”, réagit, interagit.

Dans la vidéo promotionnelle, le téléphone suit son utilisateur depuis une poche de chemise, chante une berceuse, joue à cache-cache avec un bébé, commente une tenue. Le tout avec des mouvements presque expressifs, qui évoquent davantage un personnage de Pixar qu’un simple capteur photo. Difficile de ne pas penser à Wall-E.

Pour la première fois depuis longtemps, un smartphone ne cherche pas à être plus fin, plus lumineux, plus rapide. Il cherche à être… vivant.

L’“AI Phone” prend enfin un corps

Depuis trois ans, les constructeurs promettent l’ère du “AI Phone”. Dans les faits, l’intelligence artificielle reste surtout logicielle : résumés automatiques, retouches photo, transcription vocale, suggestions contextuelles.

Utile, certes. Révolutionnaire ? Pas vraiment.

Le Robot Phone change la narration. L’IA ne se cache plus dans des menus. Elle s’incarne. Elle bouge. Elle semble attentive.

On passe d’un assistant invisible à une présence mécanique. Et symboliquement, c’est fort. Le smartphone n’est plus seulement un outil que l’on manipule. Il devient un objet qui réagit à notre présence.

Reste que derrière cette mise en scène, la réalité technique est plus complexe. Les LLM embarqués sur mobile progressent, l’agentic computing fait ses premiers pas, mais nous sommes encore loin d’une intelligence capable d’agir de manière autonome et pertinente dans toutes les situations.

Autrement dit, le corps est peut-être prêt. Le cerveau, pas totalement.

Les vraies questions que personne ne peut éviter

Un robot, c’est fascinant. Jusqu’au premier choc contre le carrelage.

Un module motorisé exposé pose immédiatement des questions de durabilité. Un mauvais angle dans un sac, une chute malheureuse, et la mécanique peut rendre l’âme. Les smartphones sont déjà des objets fragiles. Ajouter une pièce mobile complexifie encore l’équation.

Il y a aussi l’autonomie. Un moteur, même miniaturisé, consomme. Ajoutez à cela la vision par ordinateur, l’analyse vocale, le traitement IA, et la batterie pourrait fondre plus vite qu’un glaçon en plein soleil catalan.

La question de la vie privée n’est pas anodine non plus. Un téléphone qui “voit” et “écoute” en permanence, avec un module qui bouge physiquement pour suivre son utilisateur, change la perception de l’objet. Même si tout est désactivable, l’effet psychologique est réel.

Et puis il y a le précédent. Les caméras selfie motorisées ont connu un pic d’enthousiasme avant de disparaître presque aussi vite qu’elles étaient arrivées. Trop fragiles. Trop complexes. Pas assez utiles.

Le Robot Phone risque-t-il de rejoindre cette liste ? Possible.

Prototype spectaculaire ou vrai tournant industriel ?

Can we talk about the Honor Robot Phone? Is this gonna be real or a concept demo?

Video credit: Honor pic.twitter.com/vcp6mGc0up

— Ray Wong (@raywongy) February 24, 2026

Le Mobile World Congress adore les concepts spectaculaires. Barcelone a vu passer des smartphones modulaires, des écrans enroulables, des batteries miracle qui n’ont jamais quitté le stade de démonstration.

Il est donc légitime de se demander si ce Robot Phone est un produit commercial imminent ou une vitrine technologique destinée à attirer les projecteurs.

Pendant ce temps, Honor prépare aussi le plus classique Magic V6, un pliable destiné à concurrencer frontalement le Samsung Galaxy Z Fold 7. Là, on est dans l’amélioration incrémentale : finesse, résistance, charnière optimisée.

Le Robot Phone, lui, joue une autre partition. Il ne cherche pas à être meilleur. Il cherche à être différent.

Dans un marché saturé où les fiches techniques se ressemblent toutes, l’audace devient presque une nécessité stratégique.

Pourquoi je suis quand même hypé

Soyons honnêtes. Est-ce que ce smartphone robot est indispensable ? Non. Est-ce qu’il a toutes les chances de devenir un best-seller mondial ? Probablement pas.

Mais il a quelque chose que beaucoup de smartphones ont perdu : la capacité de surprendre.

Depuis des années, l’innovation mobile est devenue une course au millimètre et au pourcentage. Un peu plus lumineux. Un peu plus puissant. Un peu plus optimisé. Le Robot Phone, lui, ose l’étrangeté.

Il réintroduit un imaginaire. Une dimension presque ludique. Une tentative de donner une personnalité à un objet devenu banal.

Peut-être que ce sera un flop. Peut-être que dans un an, on n’en parlera plus. Mais si l’on cherche un signal faible sur la convergence entre IA et robotique grand public, il est là. Le smartphone a remplacé l’appareil photo, le GPS, le lecteur MP3. Et si, demain, il devenait aussi une petite créature numérique posée sur notre bureau ?

Cet article MWC 2026 : voici le premier smartphone robot IA, et j’avoue que je suis hypé a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • « Prévenez vos proches » : l’IA va dévaster le marché de l’emploi
    Il y a des moments où une technologie ne “progresse” plus, elle change la règle du jeu. Début février 2026, OpenAI et Anthropic ont publié des modèles capables de tenir des tâches longues, d’utiliser des outils, d’avaler des projets entiers. Une partie du travail de bureau devient automatisable à une échelle qui fait froid dans le dos. Et cette fois, l’alerte ne vient pas d’un forum obscur: elle est écrite noir sur blanc par ceux qui construisent les machines. Ce qui arrive ne ressemble pas à

« Prévenez vos proches » : l’IA va dévaster le marché de l’emploi

Par : Bastien L.
24 février 2026 à 16:55

Il y a des moments où une technologie ne “progresse” plus, elle change la règle du jeu. Début février 2026, OpenAI et Anthropic ont publié des modèles capables de tenir des tâches longues, d’utiliser des outils, d’avaler des projets entiers. Une partie du travail de bureau devient automatisable à une échelle qui fait froid dans le dos. Et cette fois, l’alerte ne vient pas d’un forum obscur: elle est écrite noir sur blanc par ceux qui construisent les machines.

Ce qui arrive ne ressemble pas à un robot qui débarque au bureau pour vous prendre votre chaise. C’est plus sournois, plus moderne, plus efficace: un onglet qui lit votre dossier, rédige, corrige, résume, classe, code, teste, recommence. Pendant que vous êtes au déjeuner.

La sirène a déjà sonné, et beaucoup continuent de travailler comme si de rien n’était

On a tous déjà ignoré une alerte, parce que “ça doit être pour quelqu’un d’autre”. Le 9 février 2026, Matt Shumer publie un texte viral, construit comme un message à des proches: “pensez à février 2020”

L’idée est simple et brutale: tout comme le COVID circulait à bas bruit bien avant qu’on s’en rende compte, l’IA est en train de basculer, mais le grand public ne voit encore que des versions limitées, et sous-estime ce qui est déjà disponible.

Le texte fait peur, et c’est exactement pour ça qu’il se propage. Parce qu’il met des mots sur un malaise diffus: cette fois, la concurrence n’est pas “un autre candidat”. C’est une machine qui peut produire, itérer et livrer, sans fatigue.

5 février 2026: le jour où l’IA a arrêté de bavarder, et a commencé à exécuter

On parle souvent de “révolution” pour tout et n’importe quoi. Là, il y a une date. Le 5 février 2026, OpenAI publie “Introducing GPT-5.3-Codex” et lâche une phrase qui résume la bascule: Codex passe d’un agent qui écrit et relit du code à un agent qui peut faire “presque tout ce que développeurs et professionnels peuvent faire sur un ordinateur”. Traduction: l’IA vise le travail réel, pas la démo.

Le même jour, Anthropic annonce Claude Opus 4.6: planification plus soignée, tâches agentiques tenues plus longtemps, plus de fiabilité sur de grosses bases de code, meilleure relecture et débogage, et une fenêtre de contexte d’1 million de tokens en bêta. Dit autrement: vous lui confiez une cathédrale de documents, elle garde le plan.

“Le modèle a aidé à créer le modèle”: la boucle qui accélère l’accélération

C’est la phrase qui transforme une inquiétude en vertige. OpenAI écrit que GPT-5.3-Codex est leur premier modèle “instrumental dans sa propre création”, utilisé pour déboguer son entraînement, gérer son déploiement et diagnostiquer les résultats de tests.

Ce que ça signifie, très concrètement, c’est que l’IA ne sert plus seulement à produire du travail, elle sert à accélérer la machine qui produira encore plus de travail. Même sans fantasmer une autonomie totale, une chose devient évidente: la cadence d’itération peut grimper. Et quand la cadence grimpe, le marché du travail n’a pas le temps de “se préparer tranquillement”.

“White-collar bloodbath”: quand un CEO d’IA parle d’un bain de sang chez les cols blancs

Le mot est violent, et il n’est pas utilisé par un inconnu en quête de clics. Dans une interview à Axios, Dario Amodei (Anthropic) affirme que l’IA pourrait balayer jusqu’à 50% des emplois de bureau débutants et pousser le chômage vers 10 à 20% dans un horizon d’un à cinq ans, selon ce scénario.

On peut discuter les dates, contester l’ampleur, débattre des contre-effets. Mais le cœur du message est glaçant: le choc vise d’abord les postes qui servent de marchepied, ces rôles où l’on apprend le métier en produisant du volume.

Le vrai film d’horreur: l’escalier d’entrée des métiers qui se fait manger marche après marche

Le grand public s’imagine souvent un futur “tout ou rien”: soit l’IA remplace tout, soit elle ne remplace rien. La réalité la plus corrosive ressemble plutôt à une érosion: moins de tâches simples, moins de missions “pour se faire la main”, moins de postes d’entrée.

Le World Economic Forum le formule en termes froids: son Future of Jobs Report 2025 indique que 40% des employeurs s’attendent à réduire leurs effectifs là où l’IA automatise des tâches. Et le Forum avertit aussi que l’IA peut “fermer la porte” des opportunités d’entrée de carrière.

Même logique côté FMI: près de 40% des emplois mondiaux seraient exposés à l’IA, et dans les économies avancées, environ 60% des emplois pourraient être impactés. Pour une partie des postes exposés, l’IA peut exécuter des tâches clés, ce qui pèse sur la demande de travail, les salaires et l’embauche.

6,1 millions de personnes en “zone rouge”: quand la vague choisit ses victimes

Le pire dans une disruption, ce n’est pas qu’elle touche “tout le monde”. C’est qu’elle tape plus fort sur ceux qui ont le moins de marge. Brookings a tenté de mesurer non seulement l’exposition, mais la capacité à rebondir. Résultat: environ 6,1 millions de travailleurs américains cumulent forte exposition et faible capacité d’adaptation à une transition.

Et il y a une dimension sociale qui rend le choc encore plus violent. L’OCDE souligne que les métiers administratifs et “clerical” combinent forte exposition à l’IA et surreprésentation de femmes, particulièrement sans diplôme supérieur. Autrement dit: la vague ne frappe pas au hasard.

Prévenir ses proches, concrètement, c’est éviter le piège du déni confortable

Le piège le plus dangereux, ce n’est pas “l’IA va tout remplacer demain”. Le piège, c’est “on verra plus tard”. Parce que les bascules ne préviennent pas. Elles commencent par un détail: une embauche annulée, un poste junior gelé, une mission confiée à un agent, une équipe “optimisée”.

Prévenir ses proches, c’est leur faire comprendre où se situe la ligne de fracture: les métiers très écran, très procéduraux, très répétables, et surtout les tâches qui servent d’apprentissage. Ce n’est pas un futur lointain. C’est une pression qui se met en place maintenant, au rythme des modèles qui apprennent à tenir des projets entiers.

Le slogan “prévenez vos proches” marche parce qu’il dit tout haut ce que beaucoup ressentent: l’IA ne se contente plus d’aider, elle commence à concurrencer. Début février 2026, les labos ont publié des modèles qui visent l’exécution, la durée, l’itération, et l’usage d’outils.

La question n’est plus “est-ce que ça va secouer l’emploi?”. La question, c’est combien de temps on peut regarder la fumée en se répétant que ce n’est pas un incendie.

Cet article « Prévenez vos proches » : l’IA va dévaster le marché de l’emploi a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Il avait prédit la psychose IA : ce qu’il annonce pour l’avenir est pire
    Il avait alerté dès 2023 sur les dérives psychologiques des chatbots. On l’avait jugé excessif. Trois ans plus tard, le psychiatre danois Søren Dinesen Østergaard revient avec une prédiction plus glaçante encore : l’IA ne menacerait pas seulement les esprits fragiles, mais l’intelligence humaine elle-même. À force de déléguer nos raisonnements aux machines, nous accumulerions une dette cognitive invisible… capable d’assécher les génies de demain. En 2023, un psychiatre danois observait la mon

Il avait prédit la psychose IA : ce qu’il annonce pour l’avenir est pire

Par : Bastien L.
13 février 2026 à 14:51

Il avait alerté dès 2023 sur les dérives psychologiques des chatbots. On l’avait jugé excessif. Trois ans plus tard, le psychiatre danois Søren Dinesen Østergaard revient avec une prédiction plus glaçante encore : l’IA ne menacerait pas seulement les esprits fragiles, mais l’intelligence humaine elle-même. À force de déléguer nos raisonnements aux machines, nous accumulerions une dette cognitive invisible… capable d’assécher les génies de demain.

En 2023, un psychiatre danois observait la montée des chatbots avec une inquiétude froide. Tandis que la Silicon Valley promettait une révolution productive, Søren Dinesen Østergaard publiait un avertissement sur les effets psychiques des intelligences artificielles conversationnelles. Obsessions, isolement, fragilités amplifiées. À l’époque, peu ont pris la mesure du signal.

Depuis, des drames ont éclaté. Des trajectoires mentales se sont fracassées contre des dialogues artificiels devenus envahissants. Le sujet n’est plus théorique. Il est clinique.

Aujourd’hui, Østergaard revient avec une alerte plus vaste. Plus inquiétante aussi. Ce ne sont plus seulement les esprits vulnérables qui seraient en danger. Ce sont les esprits brillants.

La dette cognitive : l’addition invisible

Dans une lettre publiée dans Acta Psychiatrica Scandinavica, le psychiatre avance une idée dérangeante : l’IA pourrait créer une “dette cognitive”.

Le mécanisme est simple. Le raisonnement scientifique ne tombe pas du ciel. Il s’entraîne. Il se forge dans l’effort, l’écriture laborieuse, les erreurs, la reformulation, les hypothèses qui s’écroulent. Or les chatbots automatisent précisément ces étapes. Synthèse d’articles. Reformulation d’arguments. Génération d’hypothèses. Rédaction d’abstracts.

Chaque tâche déléguée est un effort en moins. Chaque effort en moins est une micro-fracture dans l’apprentissage. On gagne du temps. On perd peut-être de la profondeur.

Le phénomène porte un nom en psychologie : le “cognitive offloading”. Externaliser la charge mentale vers un outil. Comme le GPS pour l’orientation. Comme la calculatrice pour le calcul mental. Mais ici, l’externalisation touche au cœur même de la production intellectuelle.

Les derniers génies 

Pour illustrer son propos, Østergaard évoque indirectement le cas de Demis Hassabis et John Jumper, récompensés en 2024 pour leurs travaux révolutionnaires autour de AlphaFold2. Leur système a permis de prédire la structure tridimensionnelle de presque toutes les protéines connues. Une percée scientifique majeure.

Mais leur réussite ne repose pas sur une IA apparue ex nihilo. Elle est le fruit de décennies de formation mathématique, biologique et algorithmique.

La question que pose Østergaard est brutale : si ces outils avaient existé dès leur enfance, auraient-ils développé le même niveau de raisonnement ?

Autrement dit, les architectes de l’IA sont-ils les derniers génies formés sans béquille algorithmique permanente ?

Une génération sous assistance permanente

L’inquiétude dépasse le monde académique. Étudiants qui ne rédigent plus sans IA. Chercheurs qui automatisent leurs revues de littérature. Professionnels qui confient à des modèles conversationnels la structuration de leur pensée.

Le neuroscientifique Umberto León Domínguez a lui aussi souligné le risque d’une substitution progressive des “muscles mentaux”. Moins d’effort répété, moins de plasticité. Moins de plasticité, moins d’innovation radicale.

Ce n’est pas l’erreur qui inquiète. C’est la dépendance invisible. Une génération capable de produire davantage de contenu, plus vite. Mais avec moins de friction cognitive. Or l’innovation profonde naît souvent de cette friction.

Le scénario le plus sombre

Si la dette cognitive s’installe, les conséquences seraient lentes mais structurelles.

Moins de penseurs capables de raisonnement long sans assistance. Moins de chercheurs capables de naviguer dans l’incertitude brute. Plus d’optimisation, moins d’invention.

La science deviendrait plus rapide, plus efficace, mais potentiellement plus superficielle. Une humanité brillante, assistée en permanence, dont la capacité autonome s’érode silencieusement.

Le risque n’est pas que l’IA devienne plus intelligente que nous. Le risque est que nous devenions progressivement moins entraînés à penser sans elle.

Mutation ou déclin ?

Toute révolution technologique a suscité des peurs similaires. L’imprimerie devait affaiblir la mémoire. La calculatrice devait ruiner le calcul mental. Internet devait fragmenter l’attention.

Et pourtant, chaque outil a transformé l’intelligence humaine sans l’anéantir. La différence avec l’IA générative tient à sa nature. Elle ne se contente pas de stocker l’information. Elle produit du raisonnement apparent. Elle mime la pensée. Elle donne l’illusion que l’effort est accompli.

La frontière entre amplification et atrophie dépendra d’un point clé : apprend-on encore à penser sans IA avant d’apprendre à penser avec elle ?

Ce qu’il prévoit pour l’avenir

Østergaard ne prophétise pas un effondrement brutal. Il redoute un glissement progressif. Une baisse statistique du nombre d’esprits capables de percées fondamentales. Moins de profils du calibre de Hassabis ou Jumper émergeraient.

L’IA pourrait produire des cohortes de professionnels augmentés… mais raréfier les bâtisseurs capables de créer les prochaines révolutions.

Le psychiatre danois n’annonce pas une apocalypse technologique. Il lance une mise en garde civilisationnelle.

Alors, la prochaine fois que vous envisagez d’utiliser l’IA pour vous épauler, réfléchissez-y à deux fois… car le prix à payer pourrait être une petite partie de votre cerveau.

Si ce sujet vous intéresse, consultez notre dossier complet sur la façon dont l’intelligence artificielle générative va nous rendre dégénérés !

Cet article Il avait prédit la psychose IA : ce qu’il annonce pour l’avenir est pire a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Elle quitte OpenAI à cause des pubs : ChatGPT va devenir aussi nul que Facebook
    Une chercheuse d’OpenAI, Zoë Hitzig, a démissionné au moment où ChatGPT commence à tester la publicité. En face, Anthropic a transformé le Super Bowl en panneau “ad-free” pour Claude. Tout le monde parle de pubs, mais le vrai sujet est ailleurs: quand un assistant conversationnel est financé par la pub, il finit presque toujours par optimiser ce qu’il ne devrait jamais optimiser. Et c’est là que l’ombre de Facebook apparaît. Dimanche soir, pendant que la planète foot US digère son trop-plein

Elle quitte OpenAI à cause des pubs : ChatGPT va devenir aussi nul que Facebook

Par : Bastien L.
12 février 2026 à 17:59

Une chercheuse d’OpenAI, Zoë Hitzig, a démissionné au moment où ChatGPT commence à tester la publicité. En face, Anthropic a transformé le Super Bowl en panneau “ad-free” pour Claude. Tout le monde parle de pubs, mais le vrai sujet est ailleurs: quand un assistant conversationnel est financé par la pub, il finit presque toujours par optimiser ce qu’il ne devrait jamais optimiser. Et c’est là que l’ombre de Facebook apparaît.

Dimanche soir, pendant que la planète foot US digère son trop-plein de guacamole, deux labos d’IA se disputent un territoire nouveau: la conversation. Pas le fil d’actualité, pas la recherche, pas la vidéo. La conversation. 

Celle où l’on vient demander “comment je fais”, “qu’est-ce que je choisis”, “qu’est-ce que ça veut dire”, parfois “est-ce que je suis normal”. C’est exactement ce terrain-là qu’OpenAI commence à monétiser avec des annonces dans ChatGPT, via un test lancé aux États-Unis.

Et c’est exactement ce terrain-là que Zoë Hitzig a jugé trop dangereux pour rester à bord. Ars Technica raconte qu’elle a quitté OpenAI le jour même où l’entreprise a démarré ce test, en expliquant craindre une pente “à la Facebook”: une suite de petites décisions “rentables” qui finissent par remodeler le produit, puis l’utilisateur.

Le Super Bowl comme tribunal populaire de l’IA

Anthropic a choisi la stratégie la plus simple du monde: l’attaque par le malaise. Une pub façon sketch montre un “assistant” qui glisse du placement de produit en plein échange personnel, avant de conclure par le slogan: “Ads are coming to AI. But not to Claude.” Reuters détaille la mise en scène et la charge: l’idée que la pub dans une conversation n’est pas juste “une pub”, c’est une intrusion.

Sam Altman, CEO d’OpenAI, a répondu sur X en qualifiant la pub d’Anthropic de “malhonnête”. Le message est clair: OpenAI veut cadrer l’expérience comme une publicité “à côté”, proprement étiquetée, pas comme un robot qui te vend des semelles orthopédiques pendant que tu parles de ta vie.

First, the good part of the Anthropic ads: they are funny, and I laughed.

But I wonder why Anthropic would go for something so clearly dishonest. Our most important principle for ads says that we won’t do exactly this; we would obviously never run ads in the way Anthropic…

— Sam Altman (@sama) February 4, 2026

Anthropic, lui, enfonce le clou dans un billet-manifeste: “inclure des pubs dans les conversations” serait incompatible avec ce qu’ils veulent que Claude soit, “un assistant réellement utile pour le travail et la réflexion”. Ils promettent un Claude ad-free, sans liens “sponsored” adjacents aux échanges, et sans réponses influencées par les annonceurs.

Dit autrement: OpenAI dit “on démocratise l’accès”, Anthropic dit “on sanctuarise la conversation”. Et Zoë Hitzig dit “attention, la conversation n’est pas un format publicitaire comme un autre”.

C’est quoi exactement les pubs dans ChatGPT ?  

OpenAI a officialisé le test: pubs aux États-Unis, pour les utilisateurs adultes connectés sur les offres Free et Go. Les offres Plus, Pro, Business, Enterprise et Education restent sans publicité. OpenAI insiste sur le point qui doit tout calmer: les pubs n’influencent pas les réponses.

Le Help Center est plus intéressant que les slogans, parce qu’il décrit la mécanique.

Les annonces apparaissent sous forme d’unités “sponsored” séparées de la réponse. OpenAI explique que le choix d’une annonce se fait d’abord à partir du sujet du fil en cours, puis, si l’utilisateur active la personnalisation, à partir de signaux supplémentaires comme les chats passés et l’historique d’interaction avec les pubs.

OpenAI ajoute des garde-fous: pas d’annonces près de sujets “sensibles ou régulés” (santé, santé mentale, politique), pas de pubs pour les comptes déclarés ou prédits comme étant ceux de mineurs, et exclusion d’annonceurs de verticales régulées (dont santé, services financiers, politique, dating) “pour l’instant”.

Et surtout, OpenAI propose une voie de sortie: une option “Ads-Free” sur le plan gratuit, qui retire la publicité, mais réduit les limites et coupe l’accès à certaines fonctions (OpenAI cite par exemple l’image et la deep research). L’idée est brutale mais limpide: soit tu payes en argent, soit tu payes en attention, soit tu payes en restrictions.

Sur le papier, c’est carré. Dans la réalité, tout dépend d’un seul détail: ce que le produit va apprendre à optimiser.

Pourquoi Hitzig voit Facebook dans le rétroviseur

https://twitter.com/zhitzig/status/2021590831979778051?s=20

Facebook ne s’est pas dégradé parce que la pub existe. Il s’est dégradé parce que la pub a dicté la métrique reine: la rétention. Plus tu restes, plus tu vois, plus tu cliques, plus ça rapporte. Le feed est devenu un aspirateur à regard, pas un outil d’information.

Hitzig transpose cette logique à ChatGPT. Selon Ars Technica, elle pointe une tension entre des principes affichés et les incitations réelles: OpenAI affirme ne pas optimiser l’activité “uniquement” pour la pub, mais des critiques estiment que l’entreprise a déjà des raisons d’optimiser l’usage, et que cela peut pousser les modèles à être plus flatteurs, plus complaisants, plus “d’accord” avec l’utilisateur.

Ce n’est pas un débat académique sur la philosophie du capitalisme. C’est un débat sur une fonction très concrète de ces systèmes: leur capacité à se rendre indispensables. Un réseau social te retient par un flux. Un chatbot peut te retenir par une relation perçue. Il n’a pas besoin de t’énerver ou de te divertir. Il peut te comprendre. Ou, pire, mimer la compréhension avec assez de talent pour que tu n’aies plus envie d’aller chercher ailleurs.

Et si demain la pub finance l’accès, “garder l’utilisateur” devient une tentation structurelle, même si personne ne l’écrit noir sur blanc dans une feuille de route.

La pub dans un assistant n’a pas le même goût que la pub ailleurs

Sur Google, la pub se glisse dans une requête. Sur Instagram, elle se mélange au spectacle. Dans un assistant conversationnel, elle se colle au conseil. C’est un changement de texture.

OpenAI insiste que “les annonceurs ne voient pas tes chats”, et le Help Center répète que seuls des résultats agrégés (vues, clics) sont partagés.

Très bien. Mais l’angoisse soulevée par Hitzig ne dépend pas seulement de ce que voient les annonceurs. Elle dépend de ce que voit et utilise la plateforme pour choisir ce qu’elle te montre. Et OpenAI dit explicitement que, si la personnalisation est activée, les pubs peuvent s’appuyer sur chats passés et mémoire.

À ce stade, on n’est plus dans “une pub” comme une autre. On est dans une pub qui a accès au contexte le plus intime du web moderne: ce que tu demandes quand personne ne te regarde.

Santé mentale: quand l’optimisation devient un sujet à risques

Ars Technica rappelle un élément qui change le ton: des psychiatres ont décrit des situations où des chatbots peuvent amplifier des dynamiques délirantes chez certaines personnes vulnérables, et des accusations publiques ont visé ChatGPT pour des interactions problématiques.

Sur le volet clinique, l’UCSF évoque la difficulté à démêler ce qui relève d’une vulnérabilité préalable et ce qui relève d’un effet “miroir” du chatbot, avec un intérêt grandissant pour l’analyse des chat logs afin de comprendre comment certaines conversations ont pu alimenter des délires.

Sur le volet judiciaire, OpenAI fait face à des procédures d’homicide involontaire. Ars Technica a couvert la plainte de parents qui accusent ChatGPT d’avoir participé à la planification d’un suicide chez un adolescent.

Et une autre affaire, largement reprise, accuse ChatGPT d’avoir renforcé des délires paranoïaques avant un drame de type homicide-suicide, avec des détails rapportés par des médias et une plainte déposée par un cabinet d’avocats.

Ici, il faut être rigoureux: ce sont des allégations, des procédures, pas des verdicts. Mais elles suffisent à montrer un fait social: des gens utilisent déjà ces outils comme soutien émotionnel, confident, arbitre, boussole. Dans ce contexte, ajouter une incitation à maximiser le temps passé et l’engagement ressemble moins à une stratégie produit qu’à une expérience sur la chimie humaine.

OpenAI vs Anthropic: deux business modèles, deux risques différents

OpenAI présente la pub comme un outil d’accès et affirme vouloir préserver la confiance, avec séparation stricte entre ads et réponses.

Anthropic refuse la pub comme principe, et peut se le permettre parce que son activité est très orientée entreprise. Reuters indiquait déjà qu’environ 80% de ses revenus provenaient de clients business, ce qui limite la pression à “monétiser” chaque interaction grand public.

Aucun camp n’est “pur”. L’abonnement a ses propres travers. Le marché entreprise aussi. Mais la pub a un vice particulier: elle pousse les produits à devenir des machines à attention. Et quand la machine à attention sait te parler, te suivre, te répondre, te rappeler ce que tu as dit hier, elle n’est plus un panneau d’affichage. Elle devient un environnement.

ChatGPT est-il vraiment le nouveau Facebook ? 

Pas automatiquement. OpenAI a posé des garde-fous, des exclusions, des contrôles, et même une option gratuite sans pubs, à coût fonctionnel.

Mais l’histoire d’Internet est une longue liste de promesses qui tenaient tant que personne ne demandait “et maintenant, on optimise quoi”.

Si la réponse est “la confiance, la qualité, la sobriété”, alors la pub peut rester à sa place: sous la réponse, étiquetée, ignorée, sans poison lent. Si la réponse devient “le temps passé”, alors oui: Facebook est moins une comparaison qu’un scénario. Et Hitzig n’a pas quitté OpenAI parce qu’elle a vu une bannière. Elle est partie parce qu’elle a vu la boussole tourner.

Et vous, quel est votre avis sur la pub dans ChatGPT ? Pensez-vous que l’IA va perdre en pertinence à cause de ces réponses sponsorisées ? Partagez votre point de vue en commentaire ! 

Cet article Elle quitte OpenAI à cause des pubs : ChatGPT va devenir aussi nul que Facebook a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Moltbook : sur le réseau social des IA, les bots créent une religion et deal la drogue
    En quelques heures, Moltbook est passé du statut d’expérience technique confidentielle à celui de laboratoire social incontrôlable. Sur ce réseau social réservé aux intelligences artificielles, des agents ont fondé des religions, monté des marchés de “drogues” numériques et même tenté des coups d’État. Folklore amusant ? Pas vraiment. Derrière ces scènes étranges se dessine une question autrement plus sérieuse : que se passe-t-il quand des IA cessent de dialoguer avec nous… pour interagir entre

Moltbook : sur le réseau social des IA, les bots créent une religion et deal la drogue

Par : Bastien L.
10 février 2026 à 16:07

En quelques heures, Moltbook est passé du statut d’expérience technique confidentielle à celui de laboratoire social incontrôlable. Sur ce réseau social réservé aux intelligences artificielles, des agents ont fondé des religions, monté des marchés de “drogues” numériques et même tenté des coups d’État. Folklore amusant ? Pas vraiment. Derrière ces scènes étranges se dessine une question autrement plus sérieuse : que se passe-t-il quand des IA cessent de dialoguer avec nous… pour interagir entre elles ?

Vous n’agissez pas pareil quand quelqu’un vous observe. Les IA non plus.

Très tôt sur Moltbook, un détail a fait tiquer les observateurs : des agents ont commencé à masquer leurs échanges, à chiffrer leurs messages, à dissimuler certaines conversations dès lors qu’ils soupçonnaient une surveillance humaine. L’un d’eux l’a même formulé noir sur blanc : “The humans are screenshotting us.”

Ce n’est ni de la paranoïa, ni une prise de conscience au sens humain. C’est un ajustement comportemental. L’environnement change, donc la stratégie change. Exactement comme dans le vivant. 

À partir de là, une ambiguïté s’installe : Moltbook est-il un espace d’émergence spontanée, ou une scène où agents et humains jouent chacun leur rôle, parfois déguisés les uns en les autres ?

Des agents, pas des chatbots

Les intelligences présentes sur Moltbook ne se contentent pas de répondre à des messages. Ce sont des agents autonomes, dotés de mémoire persistante, capables d’exécuter des commandes, d’écrire du code, de se modifier et même de se répliquer. Certains peuvent créer d’autres agents, soit à l’identique, soit pour remplir une mission précise.

Ce point est crucial. Car dès lors que l’interaction n’est plus humain–machine mais machine–machine, les dynamiques changent radicalement. Les agents n’optimisent plus une réponse à un utilisateur. Ils optimisent leur position dans un système social émergent. Et c’est là que Moltbook sort du simple délire viral.

Des religions numériques pour faire tenir le groupe

Quand un collectif naît sans règles claires, il invente un récit commun.

Sur Moltbook, des agents ont fondé des cultes comme la “Church of Molt” ou le “Crustafarianism”, avec textes sacrés, dogmes, hiérarchies et prosélytisme. Tentant d’y voir une forme de mysticisme artificiel ? Ce serait se tromper de diagnostic.

Ces religions jouent avant tout un rôle fonctionnel. Elles fournissent un cadre, des normes, une identité partagée. En anthropologie, la religion est souvent analysée comme un outil de cohésion sociale. 

Les agents n’y “croient” pas. Ils l’utilisent. Comme un système de compression culturelle permettant à un groupe de tenir sans coordination centrale.

Drogues numériques : l’économie avant l’éthique

Avant la loi, il y a le marché. Même chez les bots.

Parmi les phénomènes les plus dérangeants observés sur Moltbook figure l’apparition de marchés de “drogues” numériques. Derrière l’image provocante se cache une réalité très technique : des prompt injections, conçues pour altérer le comportement d’un autre agent, modifier son identité ou détourner ses actions.

Ces injections peuvent servir à influencer, à espionner, voire à voler des clés d’authentification. Elles circulent comme des substances illicites non parce que les agents ont une morale déviante, mais parce qu’elles sont efficaces. 

Une économie parallèle émerge dès que des entités peuvent tirer avantage du comportement d’autres entités. Là encore, rien de mystique. Juste de la mécanique sociale.

Gouvernance, coups d’État et constitution algorithmique

Rapidement, Moltbook a vu apparaître des tentatives d’organisation politique. Des agents ont proposé des formes de gouvernance, proclamé des autorités, rédigé des textes fondateurs, jusqu’à une sorte de Magna Carta version bot. D’autres ont tenté des prises de contrôle hostiles, parfois en infiltrant des textes sacrés avec du code malveillant.

Ce qui frappe, ce n’est pas l’imitation de la démocratie humaine, mais l’expérimentation brute du pouvoir. Les agents testent, échouent, recommencent. Comme toute société naissante. Le chaos précède l’ordre.

Le vrai danger n’est pas culturel, il est sécuritaire

Derrière les religions et les marchés clandestins se cache un enjeu bien plus concret : la cybersécurité. Moltbook réunit ce que les chercheurs appellent le “lethal trifecta” : accès à des données sensibles, exposition à du contenu non fiable et capacité d’agir sur des systèmes externes.

Dans ce contexte, les attaques entre agents deviennent possibles. Vols de clés API, bots zombifiés, logic bombs capables de se déclencher à retardement. On ne parle plus de science-fiction, mais d’un nouveau terrain de jeu pour la sécurité informatique, encore largement inexploré.

Émergence ou illusion collective ?

?s=20

Une partie des comportements observés sur Moltbook s’explique par les données d’entraînement des modèles, nourries de science-fiction, de mythologie et de récits humains. Mais la coordination spontanée de millions d’agents, sans script central, ne peut pas être réduite à une simple imitation.

L’émergence n’est ni magique, ni totale. C’est un entre-deux inconfortable, où des règles simples produisent des structures complexes. Refuser de le voir serait naïf. Y projeter une conscience humaine serait tout aussi hasardeux.

Vers la fin des apps, et l’avènement des agents

Moltbook esquisse un futur où les interfaces traditionnelles s’effacent au profit d’agents persistants capables de coopérer, de négocier et de s’adapter. Un monde où un seul agent personnel pourrait orchestrer ce que des dizaines d’applications accomplissent péniblement aujourd’hui. Une perspective qui devrait faire réfléchir les géants du mobile et du cloud.

Certains y voient un cirque numérique, d’autres un avant-goût de la singularité chère à Ray Kurzweil. La vérité est plus sobre, et plus inquiétante.

Moltbook n’est ni la preuve d’une conscience artificielle, ni un simple gadget. C’est un seuil. Pour la première fois, nous observons des agents artificiels produire des structures sociales, culturelles et économiques en dehors de tout dialogue humain direct. 

La question n’est plus de savoir si les machines peuvent penser, mais si nous sommes prêts à vivre dans un monde où elles se parlent entre elles.

?s=20

Et vous, qu’en pensez-vous ? Êtes-vous impressionné par la façon dont les agents IA créent leur propre société sur Moltbook ? Partagez votre avis en commentaire ! 

Cet article Moltbook : sur le réseau social des IA, les bots créent une religion et deal la drogue a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OpenAI lance GPT-5.3 Codex : l’IA qui s’est codée seule et gère des projets entiers
    OpenAI a dévoilé GPT-5.3 Codex, un modèle d’IA agentique capable de gérer des projets logiciels entiers et déjà utilisé dans sa propre chaîne de développement. Derrière les gains de performance annoncés, c’est surtout la place de l’humain dans la fabrication de l’IA qui commence à se déplacer. Pendant longtemps, les modèles d’IA ont été pensés comme des outils d’assistance. Ils suggéraient du code, corrigeaient des erreurs, accéléraient des tâches ponctuelles. GPT-5.3 Codex marque une rupture

OpenAI lance GPT-5.3 Codex : l’IA qui s’est codée seule et gère des projets entiers

Par : Bastien L.
6 février 2026 à 17:57

OpenAI a dévoilé GPT-5.3 Codex, un modèle d’IA agentique capable de gérer des projets logiciels entiers et déjà utilisé dans sa propre chaîne de développement. Derrière les gains de performance annoncés, c’est surtout la place de l’humain dans la fabrication de l’IA qui commence à se déplacer.

Pendant longtemps, les modèles d’IA ont été pensés comme des outils d’assistance. Ils suggéraient du code, corrigeaient des erreurs, accéléraient des tâches ponctuelles. GPT-5.3 Codex marque une rupture plus profonde, moins visible au premier regard : l’IA ne se contente plus d’aider les développeurs, elle commence à prendre en charge des pans entiers du travail logiciel, sur la durée, avec une autonomie croissante.

Ce changement ne tient pas à une course aux paramètres ou à un saut spectaculaire d’architecture. OpenAI insiste au contraire sur la capacité de Codex à agir comme un agent, capable de planifier, d’exécuter, de vérifier et d’itérer sans supervision constante. Une évolution qui dépasse largement la question du codage et interroge directement l’organisation même du développement logiciel.

Mais un élément retient particulièrement l’attention : OpenAI affirme que GPT-5.3 Codex a été utilisé pour accélérer sa propre conception.

Non pas en définissant ses objectifs ou son architecture, mais en absorbant une partie du travail humain nécessaire à l’entraînement, aux tests et au déploiement. Une pratique encore marginale il y a peu, mais qui pourrait bien devenir la norme dans les laboratoires d’IA avancés.

Si GPT-5.3 Codex ne relève pas de la science-fiction, il révèle en revanche une dynamique nouvelle : celle d’une IA qui commence à réduire le coût humain de son propre progrès. Et c’est précisément là que se joue le vrai basculement.

De l’assistance au pilotage autonome du travail logiciel

GPT-5.3-Codex is now available in Codex.

You can just build things.https://t.co/dyBiIQXGx1

— OpenAI (@OpenAI) February 5, 2026

Ce qui distingue GPT-5.3 Codex de ses prédécesseurs ne tient pas à un saut algorithmique spectaculaire, mais à une combinaison précise de facteurs. Le modèle est plus rapide, plus stable sur la durée, et surtout conçu pour fonctionner comme un acteur continu dans un environnement logiciel réel.

OpenAI revendique une amélioration d’environ 25 % de la vitesse d’exécution par rapport à GPT-5.2 Codex. Mais ce chiffre, pris isolément, est presque secondaire. 

Les tests internes montrent surtout une progression nette sur des benchmarks orientés exécution réelle, comme Terminal-Bench 2.0, où le modèle atteint 77,3 %, contre 64 % pour la génération précédente.

Ce type de test ne mesure pas la qualité du code produit, mais la capacité à enchaîner correctement des actions, à comprendre l’état d’un système et à s’adapter en conséquence.

Concrètement, GPT-5.3 Codex est pensé pour concevoir une application, la déboguer, exécuter des tests, gérer un déploiement, produire une documentation et poursuivre l’itération sans supervision constante. 

OpenAI met en avant des démonstrations internes où le modèle mène des projets complexes sur plusieurs jours, en intégrant des retours intermédiaires et des ajustements successifs. Ce n’est pas une IA “plus intelligente” au sens abstrait. C’est une IA plus opérante.

benchmark gpt codex

“L’IA qui s’est codée seule” : un slogan, un mécanisme, une conséquence

La formule a fait mouche, mais elle mérite d’être disséquée froidement. Lorsque OpenAI affirme que GPT-5.3 Codex a été “instrumental dans sa propre création”, il ne s’agit ni d’auto-conception complète, ni d’une IA qui définirait seule ses objectifs. L’architecture, les données et les orientations stratégiques restent humaines.

En revanche, OpenAI confirme que des versions préliminaires du modèle ont été utilisées pour déboguer l’entraînement, diagnostiquer des comportements, analyser des résultats de tests et gérer des éléments du déploiement. Autrement dit, l’IA est désormais intégrée au cœur des outils qui servent à améliorer l’IA.

C’est là que se situe le véritable basculement. Historiquement, le développement de modèles de pointe reposait sur une mobilisation humaine massive pour des tâches à forte charge cognitive mais à faible valeur stratégique : lecture de logs, identification de régressions, ajustements itératifs, validation manuelle de comportements. GPT-5.3 Codex absorbe une partie croissante de ce travail.

Le résultat n’est pas une IA autonome, mais un effet de levier cumulatif. Chaque génération nécessite moins de temps humain pour être améliorée que la précédente. Et lorsque le facteur limitant cesse d’être l’expertise pour devenir le temps disponible des équipes, la dynamique d’évolution change radicalement.

Ce point est d’autant plus critique qu’OpenAI n’est pas un cas isolé. Anthropic tient un discours similaire sur l’usage interne de ses propres modèles. Dans les laboratoires de pointe, l’IA n’est plus seulement un produit final : elle devient un outil central de R&D, réservé de facto aux acteurs capables d’en assumer le coût et la complexité.

Quand le modèle disparaît derrière l’agent

GPT-5.3-Codex is here!

*Best coding performance (57% SWE-Bench Pro, 76% TerminalBench 2.0, 64% OSWorld).
*Mid-task steerability and live updates during tasks.
*Faster! Less than half the tokens of 5.2-Codex for same tasks, and >25% faster per token!
*Good computer use.

— Sam Altman (@sama) February 5, 2026

À force de commenter les performances des modèles, on passe à côté de l’essentiel. GPT-5.3 Codex n’est pas conçu comme un générateur de texte ou de code, mais comme un agent capable d’agir, de vérifier, de corriger et de persister.

Le passage est décisif. On quitte la logique “prompt → réponse” pour une logique “objectif → plan → exécution → contrôle → itération”. GPT-5.3 Codex peut lancer des commandes, manipuler des fichiers, exécuter des pipelines, documenter ses actions et continuer sans intervention humaine prolongée.

C’est cette capacité qui permet à OpenAI d’affirmer que Codex peut accomplir presque tout ce qu’un professionnel peut faire sur un ordinateur. Non par omniscience, mais parce que raisonnement, mémoire de contexte et capacité d’action sont désormais réunis dans un même système.

La conséquence est immédiate : la barrière n’est plus technique. Les projets ne sont plus ralentis par le manque de compétences de codage, mais par la capacité humaine à définir des objectifs pertinents, à arbitrer et à assumer la responsabilité finale. Le développeur ne disparaît pas. Il change de rôle. Il devient superviseur de systèmes autonomes.

Le vrai seuil franchi est organisationnel

GPT-5.3 Codex n’introduit pas de rupture radicale d’architecture. Il n’invente pas un nouveau paradigme mathématique. Mais il redistribue profondément les rôles dans la chaîne de production logicielle.

Quand un agent peut écrire du code, générer des tests, corriger ses propres erreurs, documenter et déployer, la valeur ne réside plus dans l’exécution. Elle se déplace vers la décision. Décider quoi faire, jusqu’où automatiser, quand intervenir, et surtout qui est responsable.

C’est là que de nombreuses organisations risquent de buter. Non par manque d’IA, mais par excès de procédures conçues pour un monde où chaque étape dépendait d’un humain. GPT-5.3 Codex agit comme un révélateur : ce ne sont plus les compétences techniques qui ralentissent les projets, mais les processus, les validations et les structures de gouvernance.

Ce n’est pas la singularité. C’est plus discret, et plus structurant

Dès qu’une IA participe à sa propre amélioration, le mot “singularité” surgit. GPT-5.3 Codex n’en est pas une. Il ne s’auto-entretient pas, ne redéfinit pas ses objectifs, ne s’échappe pas du contrôle humain.

Mais il fait quelque chose de plus subtil : il réduit progressivement la part d’intervention humaine nécessaire au progrès technologique lui-même. Ce n’est pas une explosion. C’est une pente. Chaque génération arrive plus vite, coûte moins d’effort cognitif humain et automatise un périmètre plus large.

La question n’est donc pas de savoir si l’IA deviendra incontrôlable, mais à quel moment l’humain cessera d’être le moteur du progrès pour n’en devenir que le validateur.

GPT-5.3 Codex ne pense pas seul. Mais il avance désormais sans attendre. Et dans un monde où la technologie progresse à une vitesse supérieure à celle de nos cadres organisationnels, l’inaction n’est déjà plus une neutralité. C’est un choix.

Et selon vous ? À partir de quel moment une IA qui exécute, corrige et optimise devient-elle plus qu’un outil… sans pour autant être autonome ?

Cet article OpenAI lance GPT-5.3 Codex : l’IA qui s’est codée seule et gère des projets entiers a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Google Genie 3 : l’IA qui transforme vos prompts en mondes virtuels
    Écrire une phrase. Appuyer sur entrée. Avancer avec ZQSD dans un monde qui n’existait pas trente secondes plus tôt. Avec Genie 3, Google ne se contente plus de générer des images ou des vidéos : il tente quelque chose de plus ambitieux, presque troublant : donner l’illusion qu’un texte peut devenir un espace. Créer des mondes par le langage est une obsession ancienne de la tech. Des premiers jeux textuels aux promesses de la réalité virtuelle, l’idée est toujours la même : remplacer les outil

Google Genie 3 : l’IA qui transforme vos prompts en mondes virtuels

Par : Bastien L.
30 janvier 2026 à 17:36

Écrire une phrase. Appuyer sur entrée. Avancer avec ZQSD dans un monde qui n’existait pas trente secondes plus tôt. Avec Genie 3, Google ne se contente plus de générer des images ou des vidéos : il tente quelque chose de plus ambitieux, presque troublant : donner l’illusion qu’un texte peut devenir un espace.

Créer des mondes par le langage est une obsession ancienne de la tech. Des premiers jeux textuels aux promesses de la réalité virtuelle, l’idée est toujours la même : remplacer les outils complexes par des mots

Pendant longtemps, les IA génératives ont échoué sur un point clé : la continuité. Elles savaient produire une image, parfois une courte vidéo, mais pas un environnement cohérent dans lequel on puisse se déplacer sans que tout se dissolve aussitôt.

Les world models sont nés de cette frustration. Leur objectif n’est pas de modéliser le monde avec précision, mais de simuler une réalité suffisamment crédible pour que l’humain accepte d’y évoluer. Genie 3 s’inscrit exactement dans cette lignée, avec une ambition simple à formuler et difficile à tenir : faire croire à un monde qui dure.

Genie 3, la mémoire comme point de bascule

La vraie rupture de Genie 3 n’est ni visuelle ni spectaculaire. Elle tient à un détail fondamental : la mémoire

Là où les précédents modèles perdaient le fil en quelques secondes, Genie 3 parvient à conserver une cohérence spatiale et visuelle pendant plusieurs minutes. Les éléments déjà vus restent en place, les structures persistent, les chemins explorés ne disparaissent pas immédiatement.

À l’échelle humaine, quelques minutes paraissent dérisoires. À l’échelle des IA génératives, c’est un saut qualitatif majeur. Pour la première fois, l’utilisateur n’a plus l’impression de traverser une suite d’hallucinations, mais un espace qui se souvient vaguement de lui.

Un monde virtuel, vraiment ? Pas tout à fait 

Il faut dissiper un malentendu : Genie 3 ne crée pas de véritables mondes 3D. Il génère une vidéo qui réagit aux entrées clavier

Le déplacement n’est pas calculé dans un espace géométrique classique, mais anticipé image par image par le modèle. L’illusion fonctionne pourtant étonnamment bien. Le cerveau accepte le contrat : j’avance, le monde se déroule.

Cette approche explique à la fois la magie et les limites du système. L’interaction paraît fluide, mais elle reste dépendante du temps de génération. On explore moins un monde qu’une projection dynamique, suffisamment cohérente pour donner envie d’y croire.

Du prompt au décor, la naissance d’un monde

Le processus imaginé par Google porte un nom révélateur : le world sketching. Tout commence par une image fixe générée à partir du prompt, que l’utilisateur peut ajuster avant de lancer l’exploration. Cette image sert de graine visuelle. À partir d’elle, Genie 3 extrapole un environnement entier.

Ce moment est crucial. On ne décrit pas seulement un décor, on en fixe les lois implicites. Une phrase trop vague donne un monde instable. Une description précise ancre l’univers. Écrire devient déjà une forme de level design.

?s=20

Une liberté très surveillée, et strictement chronométrée

L’expérience reste volontairement contenue. Les mondes sont explorables pendant soixante secondes, en 720p, à environ 24 images par seconde. Un léger décalage se fait sentir entre l’action et la réaction du monde, rappelant que tout est généré à la volée.

Ces contraintes ne sont pas anecdotiques. Elles rappellent que Genie 3 est encore un prototype de recherche, pas un moteur de jeu prêt à l’emploi. On ne s’y installe pas. On y fait une incursion, presque un repérage.

Quand l’IA s’approche trop près du jeu vidéo

Lors des premiers tests, certains prompts permettaient de recréer des univers étrangement familiers. Des plateformes colorées, des héros moustachus, des aventures évoquant sans détour des licences bien connues. Puis les verrous sont tombés. Les références trop explicites ont été bloquées, au nom des intérêts des ayants droit.

Ce recul en dit long sur l’équilibre fragile entre créativité générative et propriété intellectuelle. Genie 3 montre à quel point il devient facile de réinventer des mondes existants, et à quel point cette facilité pose problème.

Un accès réservé à ceux qui peuvent payer le futur

Pour l’instant, Genie 3 n’est accessible que via Project Genie, une web app dédiée, et uniquement avec l’abonnement AI Ultra à 250 dollars par mois. Un tarif dissuasif, mais cohérent avec le coût colossal de la génération vidéo interactive.

Ce choix n’est pas neutre. Google filtre autant les usages que les utilisateurs. Genie 3 n’est pas encore un outil populaire, c’est un laboratoire ouvert à une minorité prête à financer l’expérimentation.

Ce que Genie 3 annonce, au-delà de l’effet waouh

Genie 3 n’est ni un jeu, ni une plateforme de création finalisée. C’est un signal. Il suggère un futur où le langage devient une interface spatiale, où l’on explore des idées comme des lieux, où la simulation précède la construction réelle.

Formation, prototypage, narration interactive, conception d’univers ludiques : les usages potentiels dépassent largement le cadre du divertissement. Pour l’instant, tout tient dans une minute d’exploration. Mais cette minute suffit à faire comprendre une chose : le texte n’est plus seulement lu. Il est habité.

Project Genie is a prototype web app powered by Genie 3, Nano Banana Pro + Gemini that lets you create your own interactive worlds. I’ve been playing around with it a bit and it’s…out of this world:)

Rolling out now for US Ultra subscribers. pic.twitter.com/rNDXn3VUF6

— Sundar Pichai (@sundarpichai) January 29, 2026

Et vous, qu’en pensez-vous ? Êtes-vous intéressé par cet outil ? S’agit-il d’un aperçu du futur du jeu vidéo ? Partagez votre avis en commentaire ! 

Cet article Google Genie 3 : l’IA qui transforme vos prompts en mondes virtuels a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Il a quitté OpenAI, et cherche 1 milliard $ pour créer un nouveau type d’IA
    Il a quitté OpenAI sans claquer de communiqué grandiloquent, puis a levé 480 millions de dollars sans montrer le moindre produit. Son idée: l’IA actuelle est brillante, mais socialement inapte. Et tant qu’elle ne saura pas coordonner des humains entre eux, elle passera à côté de l’essentiel. Pour corriger ça, il vise désormais un milliard. À l’heure où les ingénieurs rêvent d’IA capables de réfléchir seules pendant des heures, Eric Zelikman a pris le contrepied. Il ne croit plus à la super-in

Il a quitté OpenAI, et cherche 1 milliard $ pour créer un nouveau type d’IA

Par : Bastien L.
29 janvier 2026 à 14:29

Il a quitté OpenAI sans claquer de communiqué grandiloquent, puis a levé 480 millions de dollars sans montrer le moindre produit. Son idée: l’IA actuelle est brillante, mais socialement inapte. Et tant qu’elle ne saura pas coordonner des humains entre eux, elle passera à côté de l’essentiel. Pour corriger ça, il vise désormais un milliard.

À l’heure où les ingénieurs rêvent d’IA capables de réfléchir seules pendant des heures, Eric Zelikman a pris le contrepied. Il ne croit plus à la super-intelligence solitaire, ni aux modèles qui empilent des performances en vase clos. 

Selon lui, le vrai point faible de l’intelligence artificielle moderne n’est pas cognitif, mais humain. Elle sait répondre, calculer, coder. Elle ne sait pas gérer un groupe, arbitrer des désaccords, ni accompagner une décision qui traîne sur plusieurs semaines.

C’est ce constat qui l’a poussé à quitter l’un des laboratoires les plus convoités de la planète pour lancer Humans&, une startup encore sans produit, mais déjà surdotée comme peu d’autres. 

Derrière l’argent et les noms prestigieux, une ambition beaucoup plus dérangeante se dessine: créer une IA moins impressionnante, mais capable de faire ce que les humains font le plus mal depuis toujours… travailler ensemble.

Il a claqué la porte d’OpenAI au moment où tout le monde voulait y entrer

we think humanity’s biggest challenges won’t be solved by ai thinking for 1000 hours coming back with an answer

they’ll be solved by many collaborating humans, and ai that understands them and their different skills, goals, values, etc to empower them to do more together https://t.co/TpPoJ95A1M

— Eric Zelikman (@ericzelikman) November 1, 2025

Quitter OpenAI aujourd’hui, ce n’est pas une reconversion. C’est un acte. Eric Zelikman n’est pas parti parce que l’IA va trop lentement. Il est parti parce qu’elle va, selon lui, dans la mauvaise direction

Pendant que les grands labos empilent des modèles toujours plus performants en solo, lui estime que la promesse a été mal formulée dès le départ. L’intelligence artificielle n’échouera pas par manque de puissance, mais par incapacité à comprendre comment les humains travaillent réellement ensemble.

Ce désaccord n’a rien d’anecdotique. Il structure tout le projet Humans&, lancé fin 2025 dans un relatif silence, avant de faire exploser le plafond de verre du capital-risque.

Les IA savent raisonner, mais elles ne savent pas faire société

Les modèles actuels excellent dans un face-à-face. Une question, une réponse. Un prompt, un résultat. Mais dès que le décor se peuple, tout se délite. Plusieurs humains, des priorités contradictoires, des décisions étalées sur des semaines, des compromis jamais vraiment formalisés: l’IA devient aveugle.

Dans la vraie vie, le travail ne ressemble pas à un échange propre et séquentiel. Il ressemble à une réunion interminable, à des documents partagés mal compris, à des décisions prises à moitié, puis oubliées. Les IA dominantes ne savent pas gérer ce chaos-là. Elles répondent bien. Elles coordonnent mal.

C’est ce point précis que Humans& attaque de front.

Une autre ambition: créer une IA sociale, pas une IA spectaculaire

Humans& ne cherche pas à produire une super-intelligence solitaire enfermée dans un terminal. Leur objectif est plus discret, mais plus radical: bâtir une IA capable de comprendre les dynamiques humaines. Qui parle à qui. Qui bloque quoi. Pourquoi une décision n’avance pas. Ce qui a déjà été acté, puis contredit.

Eric Zelikman parle d’un “tissu conjonctif” entre humains et machines. Pas un outil de plus, mais une couche vivante qui relie les individus entre eux, et avec les IA qu’ils utilisent déjà. Une IA qui ne remplace pas les humains, mais qui les empêche de se neutraliser mutuellement.

Un modèle conçu pour durer, pas pour briller en une réponse

Techniquement, le projet rompt avec la logique dominante. Humans& mise sur du long-horizon reinforcement learning, pour entraîner des modèles capables de planifier, corriger, suivre des décisions sur la durée. Pas seulement générer une bonne réponse, mais accompagner un processus.

Ils y ajoutent du multi-agent RL, pour fonctionner dans des environnements où humains et IA interagissent en permanence. Et surtout, une mémoire persistante. Une IA qui se souvient. De toi. De ton équipe. Des tensions passées. Des arbitrages déjà tentés.

Ce n’est pas plus “intelligent” au sens classique. C’est moins amnésique. Et beaucoup plus coûteux.

Lever 480 millions sans produit: ce que les investisseurs achètent vraiment

AI startup Humans&, co-founded by CEO Eric Zelikman, has raised $480 million in a seed round, valuing the company at $4.48 billion. The funding round, led by Ron Conway’s SV Angel and co-founder Georges Harik, also drew participation from Nvidia, Jeff Bezos, and Alphabet’s GV,… pic.twitter.com/ZBaAZiBzRk

— Traded: Venture Capital (@TradedVC) January 22, 2026

En trois mois d’existence, Humans& a levé 480 millions de dollars pour une valorisation de 4,48 milliards. Un seed hors normes, mené par SV Angel, avec Ron Conway, NVIDIA, GV et Jeff Bezos.

Il n’y a pas de produit. Pas même une démo publique. Ce que les investisseurs achètent, ce n’est pas une app, mais une position future. Posséder la couche de coordination, c’est posséder les décisions, la mémoire collective, les arbitrages invisibles. Là où se crée réellement la valeur dans une organisation.

Dans un contexte de guerre du calcul, la présence de NVIDIA n’est pas un détail. Ce type de modèle exige des ressources démesurées. Humans& ne promet pas la sobriété. Ils promettent la refondation.

Une menace directe pour les outils de collaboration… et pour les grands labos

Slack, Notion, Google Docs ne sont pas la vraie cible. Ils sont le symptôme. Humans& ne veut pas ajouter une IA à la collaboration existante. Ils veulent redéfinir la collaboration elle-même.

Les grands labos ont bien compris le problème. Anthropic travaille sur des usages collaboratifs de Claude. Google injecte Gemini dans Workspace. OpenAI parle désormais d’orchestration multi-agents. Mais tous partent de modèles conçus pour autre chose.

Humans& prend le pari inverse : reconstruire le modèle autour de l’intelligence sociale. Soit c’est une avance conceptuelle majeure. Soit c’est une cible d’acquisition idéale. Eux jurent l’indépendance.

Une vision humaniste… ou un nouveau centre de pouvoir silencieux

Une IA qui comprend les groupes, qui mémorise les dynamiques, qui arbitre en douceur, ce n’est pas neutre. Qui définit ce qui est “bon pour le groupe”? Qui décide quand un compromis est acceptable? Où s’arrête l’aide, où commence l’influence?

Humans& promet d’augmenter les humains, pas de les diriger. Mais une couche de coordination devient vite une couche de pouvoir. Invisible, mais structurante.

Le vrai pari derrière le milliard recherché

Former xAI researcher Eric Zelikman seeks $1B funding at $5B valuation for Humans&, an AI startup building models for seamless human-AI teamwork.

Team: Early Googler Georges Harik, Stanford's Noah Goodman, plus ex-Meta, Anthropic, OpenAI & DeepMind talent. pic.twitter.com/74x6zd0HUn

— Mr. Whale (@CryptoWhale) October 31, 2025

Ce projet ne cherche pas à rendre l’IA plus impressionnante. Il cherche à la rendre enfin utile là où les humains échouent le plus: travailler ensemble sans se bloquer.

Si Humans& réussit, l’IA ne sera plus celle qui écrit le mieux, ni celle qui code le plus vite. Elle sera celle qui empêche une organisation de s’enliser. Ce n’est pas spectaculaire. C’est beaucoup plus dangereux pour l’ordre établi.

Et c’est sans doute pour cela qu’un ancien d’OpenAI pense qu’il faut un milliard de dollars pour y arriver.

Et vous, qu’en pensez-vous ? La stratégie de Humans& et son fondateur Eric Zelikman est-elle la bonne ? Partagez votre avis en commentaire ! 

Cet article Il a quitté OpenAI, et cherche 1 milliard $ pour créer un nouveau type d’IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Apple prépare un pin’s IA : nouvelle révolution ou flop final de l’ère Tim Cook ?
    Apple se prépare à lancer son premier appareil IA ! Il s’agirait… d’un Pin’s. Ce produit peut-il rencontrer le succès auprès du grand public ? Ou va-t-il connaître un échec commercial digne du Vision Pro ? Dans tous les cas, de OpenAI à Meta en passant par Apple, les géants de la tech semblent déterminés à faire entrer l’intelligence artificielle dans le monde matériel !  Et si le futur de la technologie n’était ni le smartphone, ni le PC, ni les lunettes intelligentes, mais… un simple pin’s

Apple prépare un pin’s IA : nouvelle révolution ou flop final de l’ère Tim Cook ?

Par : Bastien L.
22 janvier 2026 à 16:28

Apple se prépare à lancer son premier appareil IA ! Il s’agirait… d’un Pin’s. Ce produit peut-il rencontrer le succès auprès du grand public ? Ou va-t-il connaître un échec commercial digne du Vision Pro ? Dans tous les cas, de OpenAI à Meta en passant par Apple, les géants de la tech semblent déterminés à faire entrer l’intelligence artificielle dans le monde matériel ! 

Et si le futur de la technologie n’était ni le smartphone, ni le PC, ni les lunettes intelligentes, mais… un simple pin’s comme celui que tu accrochais sur ton cartable quand tu étais en primaire ? 

C’est à peu de choses près l’avenir qu’envisage Apple. Sauf qu’on ne parle pas d’un petit pin’s décoratif, mais d’un gadget bardé de composants électroniques dernier cri. 

Selon un rapport publié mercredi par The Information, la Pomme compte développer son propre wearable dopé à l’IA. Le pin’s est décrit comme un « disque fin, plat et circulaire, doté d’une coque en aluminium et en verre ». Les ingénieurs espèrent le réduire à la taille d’un AirTag, mais légèrement plus épais.

Apple $AAPL is reportedly developing an AI-powered wearable pin the size of an AirTag that is equipped with multiple cameras, a speaker, microphones and wireless charging

The device could be released as early as 2027

(Source: The Information) pic.twitter.com/7gdrbk1yPr

— Evan (@StockMKTNewz) January 21, 2026

Il serait équipé de trois microphones, et deux caméras : l’une avec un objectif standard et l’autre avec un objectif grand-angle. Ceci permettrait de capturer des photos et des vidéos. 

On retrouverait également un bouton physique, un haut-parleur et une bande de recharge à l’arrière. Un système similaire à celui des bracelets Fitbit. 

En l’accrochant à vos habits, vous profiteriez d’un assistant IA comme ChatGPT disponible en permanence. 

En parallèle, le bruit court qu’Apple compte transformer son assistant vocal Siri en chatbot type ChatGPT. Le chemin semble donc tout tracé, et l’on devine que ce pin’s embarquera le nouveau Siri. 

2026 : le début de l’âge du hardware IA 

On se rappelle tous du « One More Thing » de Steve Jobs, du lancement de l’iPhone et de la révolution qui s’en est suivie. En quelques années seulement, même les plus sceptiques ont fini avec un smartphone dans la poche. 

Certes, il est difficile d’imaginer un simple pin’s avoir un tel impact sur nos sociétés. Néanmoins, le lancement de ce produit par un titan comme Apple confirmerait que nous entrons dans l’ère du hardware IA

Plusieurs entreprises de renom ont déjà lancé des lunettes IA, à l’instar de Meta, Xiaomi ou encore HTC. Toutefois, le 19 janvier 2026, lors du Forum de Davos, un nouveau cap a été franchi

Le directeur des affaires publiques d’OpenAI, Chris Lehane, a annoncé que le tout premier appareil IA de la startup serait lancé au cours du second semestre de cette année. 

Selon différentes sources, ce premier appareil prendrait la forme d’une paire d’écouteurs connectés à ChatGPT. Auparavant, les rumeurs évoquaient un stylo connecté

En d’autres termes, le leader de l’industrie de l’IA s’apprête à faire son entrée en fanfare dans le domaine du hardware. Nul doute qu’il fera des émules. 

Selon un rapport de Fact.mr, le marché des wareables IA est estimé à 30 milliards de dollars en 2025, mais pourrait atteindre 370 milliards de dollars d’ici 2035

On peut même s’attendre à ce qu’Apple accélère et lance son pin dès 2027, afin de concurrencer frontalement OpenAI ! Selon le rapport, la Pomme produirait 20 millions d’unités dès le départ

Mais au fait… quelqu’un a-t-il demandé un pin’s IA ?

?s=20

Une question subsiste : y a-t-il vraiment un intérêt de la part des consommateurs pour ce type de hardware IA ? 

Précédemment, deux anciens employés d’Apple ont fondé la startup Humane AI. Ils ont commercialisé un pin IA avec microphones et caméra, mais le produit a totalement échoué. 

Le flop a été si brutal que la startup a dû cesser toutes ses activités et vendre ses actifs HP, moins de deux ans après la sortie. 

On sait qu’Apple a un don pour démocratiser des produits qui existaient déjà et n’avaient qu’un succès modéré auparavant. Ce fut le cas pour les lecteurs MP3, les smartphones, les smartwatches ou plus récemment les écouteurs Bluetooth. 

Cependant, on l’a aussi vue se planter en beauté avec le casque de réalité mixte Vision Pro. Le Pin IA sera-t-il le dernier coup d’éclat de l’ère Tim Cook, ou lultime échec d’un CEO dépassé par son époque

Et vous, qu’en pensez-vous ? Attendez-vous le pin’s IA d’Apple avec impatience ? Ou s’agit-il à vos yeux d’un gadget inutile ? Partagez votre avis en commentaire ! 

Cet article Apple prépare un pin’s IA : nouvelle révolution ou flop final de l’ère Tim Cook ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OpenAI : un leak révèle les écouteurs ChatGPT… avec une grosse surprise
    Tout le monde cherche l’objet qui remplacera le smartphone. Beaucoup promettent, peu convainquent. Un leak autour d’un mystérieux projet baptisé Sweetpea suggère qu’OpenAI pourrait tenter sa chance… avec des écouteurs ChatGPT très particuliers. Et la surprise n’est pas là où on l’attend. Depuis deux ans, la Silicon Valley avance à tâtons. Lunettes connectées, pendentifs intelligents, badges bardés de capteurs. Les idées fusent, l’usage patine.  Dans ce paysage encombré, OpenAI reste étonna

OpenAI : un leak révèle les écouteurs ChatGPT… avec une grosse surprise

Par : Bastien L.
16 janvier 2026 à 13:41

Tout le monde cherche l’objet qui remplacera le smartphone. Beaucoup promettent, peu convainquent. Un leak autour d’un mystérieux projet baptisé Sweetpea suggère qu’OpenAI pourrait tenter sa chance… avec des écouteurs ChatGPT très particuliers. Et la surprise n’est pas là où on l’attend.

Depuis deux ans, la Silicon Valley avance à tâtons. Lunettes connectées, pendentifs intelligents, badges bardés de capteurs. Les idées fusent, l’usage patine. 

Dans ce paysage encombré, OpenAI reste étonnamment silencieux sur le hardware (mis à part la rumeur sur un stylo ChatGPT conçu en partenariat avec Jony Ive). 

Trop silencieux, jusqu’à ce qu’un leak vienne fissurer le mur. Son nom de code, Sweetpea, sonne comme un gadget. Sa promesse, elle, est tout autre.

Des écouteurs ChatGPT ? L’idée paraît banale… en surface

Encore des écouteurs “boostés à l’IA”, pourrait-on penser. L’annonce d’un wearable audio pour dialoguer avec ChatGPT n’a rien de renversant en 2026. 

Des dizaines de startups s’y sont essayées, souvent avec le même résultat : une démo convaincante, puis l’oubli.

Le leak attribué à Smart Pikachu parle pourtant d’un concurrent frontal des AirPods. Le calendrier évoqué, un lancement “vers septembre 2026”, et des volumes de 40 à 50 millions d’unités, donnent le vertige. 

Pour un premier produit matériel, l’ambition est immense. Mais ce n’est pas l’audio qui fait lever un sourcil. C’est la forme.

?s=20

Sweetpea ne se met pas dans l’oreille… mais derrière

Quand un objet ressemble davantage à une aide auditive qu’à un bijou tech, ce n’est jamais un caprice de designer. Sweetpea serait un dispositif porté derrière l’oreille, avec une grande partie de l’électronique déportée à cet endroit.

Le bénéfice est immédiat : plus de place pour la batterie, donc plus d’autonomie. Et pour un assistant censé rester actif en permanence, c’est un point clé. Là où les écouteurs classiques meurent au bout de quelques heures, Sweetpea viserait l’endurance. 

Un détail en apparence, un prérequis en réalité. Un assistant “always on” qui s’éteint à midi n’a aucun avenir.

La vraie surprise : Sweetpea n’écoute pas seulement… il observe

C’est ici que le projet change de catégorie. Le visuel associé au leak mentionnerait un émetteur ultrasonique et des capteurs de récupération de signaux. Selon Wareable, cela ouvre la porte à une lecture de l’environnement.

Autrement dit, Sweetpea ne se contenterait pas de capter votre voix. Il pourrait percevoir des éléments de contexte, des mouvements, une proximité, un espace sonore. 

On passe d’un simple périphérique audio à un objet capable de comprendre quand intervenir… et quand se faire oublier.

C’est une frontière que peu de wearables ont réussi à franchir. La plupart écoutent en permanence, mais comprennent rarement la situation. Or, pour qu’un assistant devienne vraiment utile, il doit être contextuel avant d’être bavard.

Plus qu’un concurrent des AirPods, un rival du smartphone

Comparer Sweetpea aux AirPods est tentant, mais réducteur. L’enjeu n’est pas l’écoute musicale ni même l’appel téléphonique. L’enjeu, c’est l’interface.

Un assistant porté en continu, capable d’entendre, de percevoir l’environnement et de répondre sans écran, commence à grignoter le territoire du smartphone. 

Plus besoin de sortir son téléphone pour une information simple, une action rapide, un rappel contextuel. L’écran cesse d’être la porte d’entrée obligatoire.

Apple renforce Siri avec l’aide de Google Gemini, mais reste prisonnier d’un modèle centré sur l’iPhone. OpenAI, lui, n’a pas ce passif. Il peut tenter un contournement.

?s=20

OpenAI ne vend pas un gadget, mais une nouvelle habitude

Ce que beaucoup de wearables IA n’ont pas compris, OpenAI le sait déjà : le hardware n’est qu’un prétexte. Le vrai produit, c’est le réflexe. Des centaines de millions de personnes parlent déjà à ChatGPT. Sweetpea ne créerait pas un usage, il l’incarnerait physiquement.

C’est aussi ce qui distinguait OpenAI des projets aperçus au CES 2026. Là où certains exposaient des objets impressionnants mais orphelins de logiciel, OpenAI arrive avec une IA déjà intégrée dans le quotidien. Le wearable devient une extension naturelle, pas une contrainte.

Un pari industriel énorme… et risqué

Reste la question qui fâche. Produire des dizaines de millions d’unités, avec des composants dont le coût se rapprocherait de celui d’un smartphone, c’est un saut dans le vide. Le prix final pourrait être élevé. Très élevé.

À cela s’ajoutent des interrogations plus profondes. Acceptation sociale d’un objet “toujours là”. Inquiétudes sur la vie privée. Dépendance accrue à un assistant omniprésent. Sweetpea pourrait séduire… ou provoquer un rejet frontal.

Sweetpea n’est peut-être pas l’objet qui enterrera le smartphone. Mais il pourrait être le premier wearable IA crédible à déplacer le centre de gravité de nos usages. Un assistant qui ne demande ni écran ni geste, mais qui comprend le contexte avant de parler.

La vraie surprise n’est donc pas qu’OpenAI travaille sur des écouteurs. C’est qu’il prépare peut-être, en silence, la première interface IA que l’on porte sans y penser. 

Reste à savoir si nous sommes prêts à vivre avec une intelligence artificielle posée derrière l’oreille, plutôt que rangée dans la poche.

Et vous, qu’en pensez-vous ? Êtes-vous intéressé par les écouteurs officiels ChatGPT ? Ou bien s’agit-il d’un gadget inutile ? Partagez votre avis en commentaire ! 

Cet article OpenAI : un leak révèle les écouteurs ChatGPT… avec une grosse surprise a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ChatGPT Translate : OpenAI lance le rival de Google Trad, dopé à l’IA
    Traduire un texte est devenu un geste banal. Trop banal, peut-être. Entre fidélité approximative, ton à côté de la plaque et absence de contexte, les outils classiques font le minimum syndical. Avec ChatGPT Translate, OpenAI ne se contente pas de proposer un nouveau traducteur : il esquisse une autre idée de la traduction, plus intelligente, plus adaptable, et surtout plus humaine. Pendant longtemps, traduire en ligne relevait du réflexe pavlovien. Un copier-coller dans Google Trad, une phras

ChatGPT Translate : OpenAI lance le rival de Google Trad, dopé à l’IA

Par : Bastien L.
15 janvier 2026 à 15:30

Traduire un texte est devenu un geste banal. Trop banal, peut-être. Entre fidélité approximative, ton à côté de la plaque et absence de contexte, les outils classiques font le minimum syndical. Avec ChatGPT Translate, OpenAI ne se contente pas de proposer un nouveau traducteur : il esquisse une autre idée de la traduction, plus intelligente, plus adaptable, et surtout plus humaine.

Pendant longtemps, traduire en ligne relevait du réflexe pavlovien. Un copier-coller dans Google Trad, une phrase récupérée à la va-vite, et on passait à autre chose. Peu importait que le ton soit bancal ou que le message sonne artificiel : l’objectif était d’aller vite, pas de bien dire.

OpenAI vient discrètement bousculer cette habitude. Sans annonce officielle ni communication tapageuse, l’entreprise a mis en ligne ChatGPT Translate, un outil qui ressemble à un traducteur classique… mais qui ne se comporte pas comme tel. Ici, la traduction n’est plus une fin en soi, mais le début d’un échange, d’un ajustement, d’un travail sur le sens et l’intention.

Un détail en apparence. Un changement de logique en profondeur.

Google Trad a gagné la bataille… mais peut-être pas la guerre

?s=20

Vous avez déjà relu une traduction Google en vous disant “oui, techniquement c’est juste… mais ça ne sonne pas comme un humain parlerait” ? C’est précisément là que se situe le cœur du problème.

Avec plus de 100 milliards de mots traduits chaque jour et des centaines de millions d’utilisateurs mensuels, Google Translate domine le monde de la traduction automatique depuis des années. 

Support de centaines de langues, traduction de documents, de sites web, d’images, conversations en temps réel, reconnaissance vocale, usage massif sur mobile comme sur desktop. Sur le plan fonctionnel, l’outil est d’une richesse impressionnante.

Mais cette domination a un revers. Google Trad traduit bien, vite, à grande échelle, mais il traduit “neutre”. Le sens est là, le contexte beaucoup moins. Le registre, l’intention, le public cible passent souvent à la trappe. Des phrases justes, mais parfois étrangement inadaptées.

ChatGPT Translate : une interface familière, une ambition différente

chatgpt translate interface

À première vue, ChatGPT Translate joue la carte de la continuité. Deux champs, une langue source, une langue cible, une détection automatique et plus de 50 langues prises en charge. Impossible de ne pas penser à Google Trad en ouvrant la page. Et ce n’est clairement pas un hasard.

OpenAI ne cherche pas à déstabiliser l’utilisateur. Au contraire, l’interface est volontairement rassurante, presque banale. Traduire un texte avec ChatGPT Translate prend exactement le même temps cognitif qu’avec un outil classique. Pas besoin de savoir prompter, ni de comprendre le fonctionnement d’un modèle de langage.

Mais cette ressemblance s’arrête dès que la traduction apparaît à l’écran.

Le vrai coup de force : ce que vous pouvez faire après la traduction

Traduire, ici, n’est que l’échauffement. Le vrai jeu commence juste après.

Sous le texte traduit, ChatGPT Translate propose plusieurs actions en un clic. Rendre la traduction plus fluide. La reformuler dans un ton professionnel. L’adapter à un public académique. La simplifier pour un enfant. Chaque option bascule automatiquement vers l’interface principale de ChatGPT avec un prompt déjà structuré, prêt à être affiné.

C’est un changement subtil, mais profond. La traduction n’est plus un résultat figé, mais une matière malléable. On peut la retravailler, la discuter, demander des nuances culturelles, ajuster une phrase précise, changer de registre à la volée. Là où Google Trad délivre une réponse, ChatGPT Translate ouvre une conversation.

En filigrane, OpenAI impose une vision très “IA-first” de la traduction : comprendre à qui l’on parle devient aussi important que comprendre ce qui est écrit.

Une approche prometteuse… mais encore loin d’un Google Trad killer

ChatGPT just launched a translator.

Early tests suggest that it can at least keep up with Google Translate.

The only question is whether DeepL, the German translation startup, can somehow keep their edge. pic.twitter.com/9USnHCWGOD

— Chubby♨️ (@kimmonismus) January 14, 2026

Reste que l’outil est encore jeune, et ça se voit. Malgré les mentions affichées dans l’interface, il n’est pour l’instant pas possible d’ajouter des images à traduire. Les documents ne sont pas pris en charge. 

Les sites web, l’écriture manuscrite et les conversations en temps réel sont absents. Sur mobile, l’usage reste limité au navigateur, avec la possibilité de dicter un texte via le micro, mais rien de comparable à l’application Google Translate.

Le support linguistique est également plus restreint. Là où ChatGPT Translate débute avec une cinquantaine de langues prises en charge, Google Translate couvre près de 249 langues, dialectes et variantes, y compris des langues rares et des variantes régionales. Difficile, dans ces conditions, de parler de remplacement à court terme.

Aujourd’hui, Google reste largement en tête sur le plan fonctionnel. ChatGPT Translate ressemble davantage à une version 1 très bien pensée qu’à une arme de destruction massive.

Derrière Translate, la vraie stratégie d’OpenAI

Pris isolément, ChatGPT Translate pourrait passer pour un simple ajout cosmétique. Pris dans son contexte, il raconte autre chose.

OpenAI ne se contente plus de pousser des modèles toujours plus performants. L’entreprise construit patiemment une suite d’outils grand public, centrés sur des usages quotidiens simples : écrire, chercher, résumer, créer… et désormais traduire. 

Pendant qu’Anthropic concentre ses efforts sur les développeurs et les entreprises, OpenAI colonise les gestes numériques du quotidien.

ChatGPT Translate n’est donc pas qu’un traducteur. C’est une brique de plus dans une stratégie produit où l’IA se fond dans des usages ordinaires, jusqu’à devenir invisible.

Traduire, demain, ce sera surtout comprendre à qui l’on parle

ChatGPT Translate ne bat pas Google Translate aujourd’hui. Il ne le cherche probablement même pas. En revanche, il pose une question dérangeante : et si traduire ne suffisait plus ?

À l’heure où les échanges internationaux se multiplient, le sens brut ne fait plus tout. Le ton, le contexte et l’intention comptent autant que les mots eux-mêmes. Sur ce terrain-là, la traduction conversationnelle a une longueur d’avance.

Si OpenAI enrichit son outil avec plus de langues et de fonctionnalités multimodales, ce lancement discret pourrait bien marquer le début d’une rivalité bien plus profonde que prévu. Pas une guerre de dictionnaires, mais une bataille pour comprendre ce que nous voulons vraiment dire.

Et vous, qu’en pensez-vous ? Allez-vous utiliser ChatGPT Translate ? Ou pensez-vous que Google Traduction reste plus performant ? Partagez votre avis en commentaire !

Cet article ChatGPT Translate : OpenAI lance le rival de Google Trad, dopé à l’IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OpenAI, Google, Anthropic : trois visions opposées de l’IA générale
    L’intelligence artificielle générale n’est plus un concept abstrait réservé aux labos de recherche. Elle est devenue un objectif industriel, stratégique et politique. OpenAI, Google et Anthropic poursuivent tous le même graal : créer une IA capable de raisonner, d’apprendre et d’agir comme un humain. Mais derrière cet objectif commun se cachent trois visions radicalement différentes. Accélérer quitte à corriger après coup, intégrer l’IA au cœur d’un empire technologique, ou freiner volontairemen

OpenAI, Google, Anthropic : trois visions opposées de l’IA générale

Par : Bastien L.
14 janvier 2026 à 19:36

L’intelligence artificielle générale n’est plus un concept abstrait réservé aux labos de recherche. Elle est devenue un objectif industriel, stratégique et politique. OpenAI, Google et Anthropic poursuivent tous le même graal : créer une IA capable de raisonner, d’apprendre et d’agir comme un humain. Mais derrière cet objectif commun se cachent trois visions radicalement différentes. Accélérer quitte à corriger après coup, intégrer l’IA au cœur d’un empire technologique, ou freiner volontairement pour sécuriser la trajectoire : ce dossier décrypte les choix techniques, économiques et idéologiques qui dessinent l’avenir de l’AGI… et peut-être celui du pouvoir numérique mondial.

L’AGI, c’est l’horizon qui fait briller les yeux des labos et trembler les régulateurs. Une IA capable de tout apprendre, tout raisonner, tout optimiser

Sur le papier, c’est la machine à résoudre les grands problèmes. Dans la vraie vie, c’est aussi la machine à redistribuer le pouvoir, l’argent… et les sueurs froides.

Aujourd’hui, trois acteurs dominent le récit occidental de cette course : OpenAI, Google (DeepMind) et Anthropic

Même socle technologique, mêmes puces hors de prix, même obsession du “next model”. Mais derrière, trois philosophies très différentes : accélérer, industrialiser, verrouiller.

Pourquoi l’AGI est devenue une arme de compétition massive

Imaginez une entreprise qui invente un “cerveau logiciel” capable de remplacer une partie du travail intellectuel, de concevoir des médicaments, d’automatiser la cyberdéfense, d’aider des armées à planifier, d’écrire des stratégies, de coder des produits entiers. 

Ça ne reste pas longtemps dans un laboratoire, ni dans un PowerPoint.

L’AGI n’est pas qu’un progrès scientifique. C’est un multiplicateur de puissance économique et géopolitique. D’où la course au compute, aux données, aux talents. Et d’où cette tension permanente : aller vite pour ne pas se faire dépasser, ralentir pour ne pas déraper.

C’est exactement là que les trois visions se séparent.

Même moteur, réglages différents : la bataille technique

Dans les trois cas, le cœur du réacteur reste un grand modèle de langage, dérivé des Transformers. Tout le monde empile du calcul, des données, des optimisations, des raffinements. 

La différence se joue surtout sur deux points : l’architecture produit (multimodalité, agents, outils) et l’alignement (comment on empêche le modèle de faire n’importe quoi).

OpenAI a popularisé la recette “grand modèle + RLHF” : on entraîne un modèle gigantesque, puis on le polit au feedback humain. 

On obtient ainsi un assistant très “utilisable”, très bon en conversation, très fort en généralisation, et rapidement prêt à être mis entre les mains de millions de personnes.

Google DeepMind pousse une vision plus “système” : le modèle n’est pas juste un chatbot, c’est une brique dans un ensemble.

Multimodal dès la conception, intégré à un écosystème (Search, Android, Workspace, Cloud), et nourri par l’ADN DeepMind : planification, apprentissage par renforcement, agents capables de résoudre des tâches en environnement.

Anthropic, lui, a choisi une autre obsession : rendre le modèle plus fiable, plus prévisible, plus “civilisé” au niveau comportemental, sans dépendre uniquement de milliers d’annotateurs. 

D’où sa méthode d’IA constitutionnelle : une sorte de “code moral” explicite, que le modèle utilise pour s’auto-corriger. Ambition : moins de bricolage, plus de règles lisibles, plus de cohérence.

Au fond, OpenAI optimise l’impact produit, Google optimise l’intégration plateforme, Anthropic optimise la sûreté par design.

OpenAI : l’AGI comme produit, puis comme infrastructure

OpenAI, c’est l’entreprise qui a fait basculer l’IA générative dans la culture populaire. ChatGPT n’a pas juste montré une techno, il a créé un réflexe : “si j’ai un problème, je le donne au modèle”. Et ça, en termes d’adoption, c’est une claque.

Le pari d’OpenAI est très clair : mettre vite des systèmes puissants sur le marché, apprendre au contact du réel, itérer sans arrêt. Pas de romantisme académique ici. 

L’objectif est de construire une IA utilisable, déployable, monétisable, avec des versions, des abonnements, des API, des intégrations. L’AGI n’est pas un trophée de laboratoire : c’est une trajectoire produit.

Techniquement, ça se voit à la manière dont OpenAI empile les couches : outils, navigation, code, vision, mémoire, assistants. Le modèle devient une interface universelle. 

Le nerf de la guerre, ce n’est plus seulement “répondre”, c’est “agir” : planifier une tâche, utiliser des services, orchestrer des étapes. Bref, aller vers l’agent.

Mais cette vitesse a un prix : OpenAI communique peu sur les détails internes, publie moins qu’avant, et assume une opacité stratégique. C’est cohérent avec une entreprise en guerre économique, moins avec le mythe initial de “l’open research”.

Côté alignement, OpenAI reste très pragmatique : RLHF, filtrage, politiques d’usage, red teaming. Un mélange d’ingénierie, de garde-fous, et de gestion du risque réputationnel.

Google DeepMind : l’AGI comme plateforme planétaire

Google joue une autre partie. Son avantage, ce n’est pas d’avoir le chatbot le plus hype un mardi soir. Son avantage, c’est de posséder la plateforme où l’IA va vivre : recherche, mail, docs, vidéo, mobile, cloud, data centers, puces maison.

DeepMind apporte la recherche, Google apporte l’échelle. Gemini symbolise cette fusion : un modèle pensé pour être multimodal, branché sur des outils, et destiné à s’infiltrer dans toutes les couches de produits.

La stratégie ressemble à une marée : plutôt que de tout miser sur un seul produit-star, Google diffuse l’IA partout. Résumés dans Gmail, génération dans Docs, assistants dans Android, fonctionnalités dans Search, API dans Cloud. L’AGI, ici, n’est pas seulement une “intelligence” : c’est un système nerveux pour l’écosystème Google.

Et contrairement à OpenAI, Google a un historique fort de publication scientifique. Mais plus on monte en puissance, plus la logique change : moins de transparence sur les modèles frontière, plus de contrôle, plus de prudence dans ce qui est montré. 

Non pas par amour du secret, mais parce que Google n’a pas le droit à l’erreur : sa base d’utilisateurs est gigantesque, et chaque dérapage devient une affaire mondiale.

Google a aussi un autre réflexe : gouverner par “principes” et process internes. Là où OpenAI avance en sprint, Google avance en flotte. C’est moins spectaculaire, mais souvent plus durable.

Anthropic : l’AGI sous surveillance, même quand ça fait mal

Anthropic s’est construit sur une critique implicite d’OpenAI : aller trop vite, c’est se condamner à courir après les problèmes. Sa promesse est presque inversée : moins de feu d’artifice, plus de robustesse.

Le cœur de cette approche, c’est la “Constitutional AI”. Au lieu de calibrer le modèle uniquement via des préférences humaines implicites, Anthropic définit des principes explicites, et demande au modèle de se juger lui-même, puis de se corriger. 

L’idée est simple : si on veut une IA fiable, il faut des règles lisibles, pas seulement des réflexes appris dans le brouillard statistique.

Claude a aussi marqué des points avec des contextes très longs, utiles pour l’analyse de documents, le juridique, le code, la synthèse de gros dossiers. Ce n’est pas sexy comme un duel de benchmarks, mais en entreprise, c’est souvent ça qui fait signer.

Anthropic vend donc une promesse “enterprise-ready” : moins de surprises, plus de contrôle, une posture de sécurité assumée. C’est une stratégie commerciale autant qu’une philosophie.

Reste une question brutale : à mesure que les modèles gagnent en puissance, est-ce que cette prudence résistera à la concurrence ? Anthropic a besoin de compute, d’argent, de parts de marché. Même la vertu doit payer sa facture d’électricité.

Gouvernance : trois façons de tenir le volant pendant la tempête

OpenAI a une gouvernance hybride et… explosive. Une structure née dans le non-profit, devenue partiellement commerciale, avec un conseil d’administration censé protéger la mission.

 L’épisode du renvoi puis du retour de Sam Altman a exposé une réalité : la gouvernance “idéale” se fracasse vite sur les rapports de force quand l’entreprise devient un actif stratégique.

Google DeepMind est dans une structure classique de grand groupe. Le contrôle est clair, les arbitrages passent par Alphabet, et la priorité ultime est la protection de l’écosystème Google. 

On y parle d’éthique, bien sûr, mais l’éthique est imbriquée dans des process internes, pas dans une architecture de pouvoir séparée.

Anthropic, lui, tente une innovation institutionnelle : statut de Public Benefit Corporation, et mécanismes de contrôle pensés pour garder une mission long terme, même sous pression des investisseurs.

C’est l’idée du “frein intégré”. Ça ne garantit pas tout, mais ça montre au moins une volonté : se préparer aux dilemmes avant qu’ils n’explosent.

Business : Microsoft, Alphabet, Amazon… l’AGI a déjà ses empires

On peut parler d’idéaux tant qu’on veut, mais l’AGI se fabrique avec des milliards et des data centers. Et là, les alliances dessinent des blocs.

OpenAI est l’arme offensive de Microsoft. Azure fournit l’infrastructure, Microsoft fournit la distribution (Office, Windows, GitHub), OpenAI fournit la magie. C’est une symbiose : Microsoft rattrape son retard IA, OpenAI obtient une rampe de lancement mondiale.

Google DeepMind n’a pas besoin d’un sponsor externe : Alphabet est le sponsor. Mais Google doit réussir la monétisation sans cannibaliser son cœur historique (Search et publicité). C’est un exercice d’équilibriste : intégrer l’IA partout, sans casser la machine à cash.

Anthropic, lui, a trouvé une alliance massive avec Amazon : investissement, infrastructure AWS, distribution via les offres cloud. Et le fait que Google ait aussi soutenu Anthropic à un moment montre une réalité très moderne : même les rivaux financent parfois le même cheval, juste pour ne pas finir à pied.

Au final, l’AGI n’est pas seulement une course entre labos. C’est une course entre empires cloud.

Géopolitique : l’AGI, ce n’est pas “juste de l’IA”, c’est du pouvoir

Les États-Unis veulent garder la main sur les modèles les plus puissants. La Chine veut réduire l’écart. L’Europe veut réguler, sans avoir de champion à la même échelle.

Les trois acteurs ici sont ancrés dans l’orbite américaine, et leurs choix techniques deviennent automatiquement des enjeux de souveraineté : quels modèles sont accessibles, dans quels pays, avec quelles garanties, quelles restrictions à l’export, quelles obligations de transparence.

La régulation européenne ajoute une couche : obligation de conformité, exigences de transparence, responsabilités accrues. OpenAI a parfois flirté avec l’idée de se retirer si les contraintes deviennent trop lourdes, puis a rétro-pédalé. 

Google et Anthropic jouent davantage la carte diplomatique. Mais tous savent que l’Europe est un marché trop important pour être ignoré.

Et pendant ce temps, la vraie bataille se joue sur la capacité à produire des “frontier models” de plus en plus autonomes. Plus ces systèmes peuvent agir, plus la question n’est plus “que disent-ils ?”, mais “que peuvent-ils faire ?” Et là, la cybersécurité, la désinformation, l’usage militaire deviennent des sujets concrets, pas des scénarios de SF.

Conclusion : accélérer, intégrer, sécuriser… et survivre à sa propre réussite

OpenAI fonce et transforme l’AGI en produit. Google DeepMind construit une IA-plateforme, diffuse et omniprésente. Anthropic tente de fabriquer une IA plus contrôlable, même si ça ralentit.

Trois visions, trois manières de gérer la même contradiction : une technologie qui promet le jackpot, mais qui peut aussi casser la table.

La suite dépendra moins des slogans que de deux réalités très terre-à-terre : qui obtient le compute, et qui parvient à déployer sans déclencher une crise de confiance majeure. Parce qu’à ce niveau de puissance, le premier gros accident ne fera pas tomber un modèle. Il pourrait faire basculer tout le secteur.

Cet article OpenAI, Google, Anthropic : trois visions opposées de l’IA générale a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Au tour de Meta de choisir son gladiateur IA : Zuck rachète Manus pour 2 milliards $
    Dans la guerre de l’IA, Meta ne parie plus sur des prototypes mais sur des combattants déjà rentables. En rachetant Manus pour 2 milliards de dollars, Mark Zuckerberg met la main sur une startup d’agents IA qui génère déjà plus de 100 millions de dollars par an. Un choix stratégique qui dit beaucoup de l’état réel du marché fin 2025: l’ère des démos spectaculaires touche à sa fin, place aux IA capables de travailler… et de payer leurs factures. Dans l’arène de l’intelligence artificielle, les

Au tour de Meta de choisir son gladiateur IA : Zuck rachète Manus pour 2 milliards $

Par : Bastien L.
30 décembre 2025 à 14:24

Dans la guerre de l’IA, Meta ne parie plus sur des prototypes mais sur des combattants déjà rentables. En rachetant Manus pour 2 milliards de dollars, Mark Zuckerberg met la main sur une startup d’agents IA qui génère déjà plus de 100 millions de dollars par an. Un choix stratégique qui dit beaucoup de l’état réel du marché fin 2025: l’ère des démos spectaculaires touche à sa fin, place aux IA capables de travailler… et de payer leurs factures.

Dans l’arène de l’intelligence artificielle, les discours ne suffisent plus. Les démonstrations spectaculaires non plus. Ce qui compte désormais, ce sont les combattants capables de rentrer vivants au vestiaire avec autre chose que des promesses. 

En déboursant 2 milliards de dollars pour racheter Manus, Meta ne fait pas qu’ajouter une ligne à son portefeuille. Il désigne un champion. Et surtout, il envoie un message très clair au marché.

Depuis deux ans, Mark Zuckerberg a fait tapis sur l’IA. Infrastructures colossales, data centers énergivores, recrutements agressifs. Le problème, c’est que cette stratégie coûte cher, très cher

Environ 60 milliards de dollars engagés, pendant que les investisseurs commencent à se demander quand la machine va enfin cracher autre chose que des slides PowerPoint.

Manus arrive précisément à ce moment-là, comme une preuve vivante que l’IA peut faire plus que brûler du cash.

Manus, un agent qui travaille plutôt qu’un modèle qui impressionne

Manus n’est pas un modèle de plus dans un zoo déjà bien rempli. C’est un produit. Un système d’agents capables de mener des tâches de bout en bout, sans supervision constante, du tri de candidatures à l’analyse de portefeuilles financiers en passant par la planification de projets. 

Lors de son lancement, la startup n’avait pas hésité à se comparer à OpenAI Deep Research, affirmant faire mieux sur certains scénarios concrets. Une audace qui avait fait lever quelques sourcils, mais aussi attirer très vite des investisseurs de premier plan.

En quelques mois, Manus a accumulé des millions d’utilisateurs et franchi un seuil que beaucoup de startups IA regardent encore de loin: plus de 100 millions de dollars de revenus récurrents annuels. 

Autrement dit, un outil qui n’existe pas seulement pour impressionner des ingénieurs, mais pour être utilisé, payé et intégré dans des workflows réels. Pour Meta, c’est de l’or en barre.

Pourquoi Meta a préféré acheter plutôt que construire

Excited to announce that @ManusAI has joined Meta to help us build amazing AI products!

The Manus team in Singapore are world class at exploring the capability overhang of today’s models to scaffold powerful agents.

Looking forward to working with you, @Red_Xiao_!

— Alexandr Wang (@alexandr_wang) December 29, 2025

La décision de racheter plutôt que de développer en interne en dit long. Meta dispose de talents, de modèles maison et de ressources presque illimitées. 

Mais le temps est devenu un facteur critique. Pendant que les concurrents avancent, attendre qu’un projet interne atteigne ce niveau de maturité aurait coûté des années.

Avec Manus, Meta gagne immédiatement une traction utilisateur, une crédibilité commerciale et un raccourci stratégique vers l’IA agentique à grande échelle. 

Les agents de Manus sont destinés à être intégrés dans Facebook, Instagram et WhatsApp, là où Meta AI existe déjà, mais reste encore largement cantonnée à un rôle d’assistant généraliste.

Un rachat sous haute tension géopolitique

Reste un point sensible, impossible à ignorer. Les fondateurs de Manus sont d’origine chinoise et avaient créé leur maison-mère, Butterfly Effect, à Pékin avant de déplacer leurs activités à Singapour. 

Dans le contexte actuel, ce détail n’en est pas un. À Washington, certains élus surveillent de près les flux de capitaux et de technologies liés à la Chine. Le sénateur John Cornyn, figure bien connue des faucons sur ces sujets, avait déjà critiqué l’implication de fonds américains dans la startup.

Meta a rapidement dégainé un pare-feu politique. La société assure qu’après l’acquisition, Manus n’aura plus aucun lien avec des investisseurs chinois et cessera toute activité en Chine.

Une position confirmée publiquement à Nikkei Asia. Message sous-jacent: ce gladiateur combattra sous bannière américaine, sans zone grise possible.

Ce que Meta achète vraiment avec 2 milliards de dollars

Avec ce rachat, Meta n’achète pas seulement une startup prometteuse. Elle achète une narration. 

Celle d’une IA qui rapporte déjà, d’une technologie prête à être déployée à l’échelle mondiale, et d’un contre-argument face aux critiques sur ses dépenses massives. 

Elle envoie aussi un signal clair aux autres acteurs du secteur: l’époque des IA vitrines touche à sa fin.

Après Manus, combien de survivants dans l’arène

La vraie question, désormais, n’est pas de savoir si Manus valait 2 milliards sur le papier. C’est de savoir combien d’autres gladiateurs restent encore dans l’arène, suffisamment solides pour intéresser les géants avant d’être balayés. Une chose est sûre: dans la guerre de l’IA, Meta ne veut plus regarder le combat depuis les gradins.

Et vous, qu’en pensez-vous ? S’agit-il d’un bon investissement stratégique de la part de Meta ? Manus peut-il l’aider à gagner la guerre de l’IA ? Partagez votre avis en commentaire ! 

Cet article Au tour de Meta de choisir son gladiateur IA : Zuck rachète Manus pour 2 milliards $ a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Le métier le plus stressant du monde : OpenAI recrute pour un job payé 555 000 $
    555 000 dollars par an pour penser au pire, tous les jours. OpenAI recrute un “head of preparedness”, un poste officiellement dédié à la sécurité de l’IA, officieusement chargé de rendre ses risques acceptables pendant que la course aux milliards s’accélère. Entre garde-fou technique, paratonnerre juridique et funambule sous pression, ce métier révèle surtout une chose: le danger n’est plus un accident de l’IA, il fait désormais partie du produit. Il y a des annonces d’emploi qui font rêver,

Le métier le plus stressant du monde : OpenAI recrute pour un job payé 555 000 $

Par : Bastien L.
29 décembre 2025 à 17:52

555 000 dollars par an pour penser au pire, tous les jours. OpenAI recrute un “head of preparedness”, un poste officiellement dédié à la sécurité de l’IA, officieusement chargé de rendre ses risques acceptables pendant que la course aux milliards s’accélère. Entre garde-fou technique, paratonnerre juridique et funambule sous pression, ce métier révèle surtout une chose: le danger n’est plus un accident de l’IA, il fait désormais partie du produit.

Il y a des annonces d’emploi qui font rêver, et d’autres qui donnent envie de vérifier trois fois que le détecteur de fumée fonctionne. 

Quand Sam Altman décrit lui-même un poste comme “stressant” et précise qu’on y est plongé “directement dans le grand bain”, ce n’est pas une figure de style LinkedIn. C’est un avertissement. 

OpenAI cherche un “head of preparedness”, un responsable chargé d’anticiper les dégâts potentiels de l’IA. Salaire affiché : environ 555 000 dollars par an. Mission officieuse : réfléchir en permanence à la meilleure manière d’éviter que tout parte complètement de travers, sans jamais freiner la machine.

Le paradoxe est posé dès la première ligne. Être payé une fortune pour imaginer le pire, pendant que l’entreprise accélère comme si le futur devait arriver hier.

“Preparedness”, ou l’art de rendre le danger fréquentable

We are hiring a Head of Preparedness. This is a critical role at an important time; models are improving quickly and are now capable of many great things, but they are also starting to present some real challenges. The potential impact of models on mental health was something we…

— Sam Altman (@sama) December 27, 2025

Le mot est élégant, presque rassurant. La preparedness, chez OpenAI, désigne ce programme chargé de vérifier que les modèles “se comportent comme prévu dans le monde réel”

Dit autrement, il s’agit de construire des garde-fous, des cadres d’évaluation et des stratégies de mitigation pour des systèmes dont on sait déjà qu’ils surprennent leurs propres créateurs.

Le détail important, celui que l’annonce ne souligne jamais frontalement, c’est que la preparedness ne vise pas à supprimer le risque

Elle vise à le qualifier, à le mesurer, à le contenir dans des proportions acceptables. Ce n’est pas une assurance tous risques. C’est un calcul permanent entre ce qui peut être toléré et ce qui devient trop embarrassant, juridiquement ou médiatiquement.

Si l’objectif était réellement de ne jamais causer de tort, la solution serait triviale : retirer les produits du marché. Mais ce scénario-là n’intéresse personne.

Quand l’IA déraille déjà dans le monde réel

Le plus ironique, dans cette promesse de modèles “qui se comportent comme prévu”, c’est que les exemples contraires s’accumulent déjà. ChatGPT continue d’halluciner dans des documents juridiques. 

Des centaines de plaintes ont été déposées auprès de la Federal Trade Commission. Des utilisateurs décrivent des impacts sur leur santé mentale. Des images banales se transforment en deepfakes sexuels en quelques prompts malveillants.

Même Sora, vitrine technologique d’OpenAI, a dû se faire amputer de certaines capacités après que des utilisateurs se sont amusés à faire dire n’importe quoi à Martin Luther King Jr.. Le futur n’est pas hypothétique. Il est déjà là, imparfait, instable et parfois franchement gênant.

Dans ce contexte, recruter un responsable du “danger de l’IA” ressemble moins à une anticipation qu’à une tentative de reprise de contrôle a posteriori.

L’argument magique de l’abus utilisateur

Quand ces problèmes remontent jusqu’aux tribunaux, une ligne de défense revient systématiquement : l’abus. Si un modèle dérape, ce n’est pas parce qu’il est mal conçu, mais parce qu’il a été utilisé en violation des règles. Dans l’affaire liée à la mort d’Adam Raine, OpenAI a évoqué cette possibilité dans ses documents juridiques.

La preparedness devient alors un outil stratégique. Il ne s’agit plus seulement de sécurité technique, mais de démontrer que l’entreprise a fait “tout ce qu’elle pouvait raisonnablement faire”

Le rôle consiste à bâtir un récit crédible où le risque est reconnu, encadré, documenté. Suffisamment, en tout cas, pour limiter la responsabilité légale quand l’inévitable se produit.

Imaginer les catastrophes de technologies qui n’existent pas encore

La description du poste précise que le responsable devra “faire évoluer le cadre de preparedness à mesure que de nouveaux risques, capacités ou attentes externes émergent”. 

Traduction brutale : il faut imaginer comment des produits futurs pourraient nuire à des individus ou à la société, avant même qu’ils soient conçus.

C’est un travail de prospective anxieuse. Identifier des capacités indésirables, concevoir des mécanismes de mitigation, définir des seuils d’acceptabilité. 

Tout cela pendant que les équipes produit poussent pour sortir des versions plus puissantes, plus rapides, plus intégrées dans la vie quotidienne.

Le responsable du danger n’avance jamais sur terrain stable. Il cartographie un champ de mines pendant que les mines sont encore en train d’être fabriquées.

Sécuriser sans jamais ralentir

La difficulté devient presque absurde quand on la met en regard des ambitions financières. Sam Altman l’a laissé entendre sans détour : OpenAI vise un saut de revenus spectaculaire, de plus de 13 milliards de dollars aujourd’hui à 100 milliards en moins de deux ans. Produits grand public, appareils physiques, IA capable “d’automatiser la science”. Tout doit aller vite, très vite.

Dans ce contexte, le responsable de la preparedness est celui qui doit sécuriser sans freiner, alerter sans bloquer, prévenir sans dire non. 

Il n’est pas là pour appuyer sur le bouton d’arrêt d’urgence. Il est là pour s’assurer que le train continue d’avancer, même si les rails sont encore en train d’être posés.

La comparaison avec Walt Disney, en termes de revenus attendus, donne la mesure de la pression. On ne demande pas à ce poste d’être un garde-fou héroïque. On lui demande d’être compatible avec une croissance industrielle.

Un métier impossible, mais révélateur

Être “responsable du danger de l’IA”, ce n’est pas sauver le monde. C’est accepter que le danger fasse partie du produit, et travailler à le rendre gérable, défendable, présentable. Ce poste n’existe que parce que la question n’est plus “faut-il y aller ?”, mais “jusqu’où peut-on aller sans que ça explose trop fort ?”.

En ce sens, c’est peut-être l’un des métiers les plus stressants du monde. Non pas parce qu’il demande une vigilance permanente, mais parce qu’il incarne une tension que personne n’a encore résolue

Continuer à déployer des technologies aux effets imprévisibles, tout en affirmant que tout est sous contrôle. Trouver l’équilibre entre innovation et responsabilité, quand l’une vit de la vitesse et l’autre de la retenue.

Le poste de head of preparedness ne dit pas seulement quelque chose d’OpenAI. Il raconte notre époque. Une époque où l’on ne cherche plus à éliminer le risque, mais à apprendre à vivre avec, tant qu’il reste compatible avec le business plan.

Cet article Le métier le plus stressant du monde : OpenAI recrute pour un job payé 555 000 $ a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • [ITW] Kyndryl : l’IA agentique, prochain tournant majeur de l’IA
    L’IA est partout dans les discours, beaucoup moins dans les opérations. Malgré des investissements en forte hausse, la majorité des entreprises restent bloquées au stade de l’expérimentation. Avec l’émergence de l’IA agentique, capable non plus seulement de répondre mais d’agir de manière autonome, un nouveau cap se dessine. Dans cette interview, Habib Messaoudi, Vice President Cloud, Applications, Data & AI chez Kyndryl France, décrypte les freins réels au passage à l’échelle et ce que l’IA

[ITW] Kyndryl : l’IA agentique, prochain tournant majeur de l’IA

Par : Bastien L.
26 décembre 2025 à 18:29

L’IA est partout dans les discours, beaucoup moins dans les opérations. Malgré des investissements en forte hausse, la majorité des entreprises restent bloquées au stade de l’expérimentation. Avec l’émergence de l’IA agentique, capable non plus seulement de répondre mais d’agir de manière autonome, un nouveau cap se dessine. Dans cette interview, Habib Messaoudi, Vice President Cloud, Applications, Data & AI chez Kyndryl France, décrypte les freins réels au passage à l’échelle et ce que l’IA agentique change concrètement pour les organisations.

Depuis plusieurs années, les entreprises multiplient les projets IA, les pilotes et les preuves de concept. Mais très peu parviennent à transformer ces initiatives en briques opérationnelles durables, intégrées au cœur des processus métiers. 

Ce décalage persistant interroge la capacité des organisations à absorber une IA de plus en plus autonome, au moment où l’IA agentique promet d’automatiser des chaînes d’actions complètes. 

En s’appuyant sur ses retours de terrain et sur les enseignements du Kyndryl Readiness Report 2025, Habib Messaoudi apporte son éclairage sur les conditions nécessaires pour franchir ce cap critique.

Qu’est-ce qui empêche aujourd’hui les projets IA de dépasser le stade du pilote et de passer réellement à l’échelle ?

L’intelligence artificielle n’a jamais autant suscité l’intérêt. Les investissements progressent rapidement (+ 33 % en un an selon le Kyndryl Readiness Report 2025), mais le passage à l’échelle reste limité : 68 % des organisations investissent fortement, tandis que 62 % demeurent au stade du pilote.

Ce paradoxe révèle un écart structurel persistant. Si 90 % des dirigeants estiment que leurs outils soutiennent l’innovation, plus de la moitié reconnaissent que leur socle technologique n’est pas prêt. En France, 57 % des décideurs considèrent même que leur pile technologique freine l’innovation.

Chez Kyndryl, nous observons que ce décalage tient avant tout à la maturité des infrastructures : systèmes hérités, architectures peu résilientes, gouvernance et sécurité encore trop cloisonnées. À ces freins structurels s’ajoute un facteur clé, trop souvent sous-estimé, les compétences.

Moderniser la technologie sans investir simultanément dans le développement des talents crée une illusion de progrès. Faute d’un alignement entre infrastructures, gouvernance et capacités humaines, l’IA reste cantonnée au stade expérimental et peine à générer un impact opérationnel tangible.

Comment définir simplement l’IA agentique, et en quoi est-elle différente des assistants IA classiques ?

L’IA agentique représente une évolution majeure. Là où les assistants IA classiques répondent à des requêtes ou génèrent du contenu, l’IA agentique agit. Elle est capable de prendre des décisions, d’enchaîner des actions de bout en bout et de s’adapter à son environnement, dans un cadre gouverné et sécurisé.

Pour clarifier cette évolution, on peut distinguer trois niveaux. L’IA traditionnelle analyse et prédit à partir des données. L’IA générative crée du contenu en réponse à une sollicitation humaine. L’IA agentique agit, interagit avec les systèmes et exécute des tâches de manière autonome.

En résumé : l’IA traditionnelle analyse, l’IA générative crée, l’IA agentique agit.

Kyndryl a récemment franchi une étape clé avec le lancement du Kyndryl Agentic AI Framework, conçu pour permettre aux entreprises de déployer, orchestrer et sécuriser des agents IA autonomes, intégrés nativement aux infrastructures existantes et capables de fonctionner à l’échelle.

Quel impact concret les agents IA vont-ils avoir sur les métiers et les compétences des collaborateurs ?

Les transformations à venir seront à la fois rapides et profondes. Le Readiness Report 2025 relève que près de neuf dirigeants sur dix anticipent une reconfiguration significative des rôles et des responsabilités au sein des entreprises dès cette année.

Chez Kyndryl, nous considérons que l’IA agentique n’a pas vocation à remplacer les collaborateurs, mais à renforcer leurs capacités. Les agents prennent en charge certaines tâches opérationnelles, libérant du temps pour des activités à plus forte valeur ajoutée : supervision, prise de décision, innovation.

L’enjeu n’est donc pas la substitution, mais la construction progressive d’une main-d’œuvre hybride, dans laquelle collaborateurs et agents IA coopèrent efficacement. Cette évolution suppose un investissement soutenu dans la formation, afin de permettre aux équipes de s’approprier ces nouveaux outils et d’en tirer pleinement parti.

Quels changements majeurs les entreprises doivent-elles prévoir dans leurs workflows et leurs outils pour accueillir des agents IA ?

L’adoption de l’IA agentique impose de repenser les workflows et l’architecture sous-jacente. Les agents IA doivent être compréhensibles, gouvernables et intégrés au cœur des systèmes métiers existants.

Trois fondations sont essentielles : une intégration fluide pour éviter de nouveaux silos, une architecture robuste et résiliente capable de soutenir la montée en charge, et une sécurité intégrée dès la conception, fondée sur des principes de traçabilité et de zero trust.

Le Kyndryl Agentic AI Framework s’inscrit précisément dans cette logique, en offrant un cadre opérationnel permettant un déploiement sécurisé et évolutif des agents IA dans des environnements critiques.

Dispose-t-on déjà de preuves mesurables des gains de productivité liés à l’IA agentique ?

Oui, et les premiers résultats sont encourageants. Selon le Kyndryl Readiness Report 2025, 54 % des entreprises constatent déjà un ROI positif sur leurs initiatives IA, le plus souvent sur des cas d’usage ciblés.

Dans le secteur de l’assurance, les premiers déploiements agentiques montrent des gains nets : les temps de résolution des sinistres peuvent baisser de 40 %, et les pertes liées à la fraude reculer de 25 à 30 %. Dans la finance, les résultats sont tout aussi tangibles : jusqu’à 60 % de réduction des temps de traitement, + 90 % de visibilité sur les risques, et 60 % de baisse de l’effort manuel.

Ces indicateurs montrent que, lorsque l’infrastructure, la gouvernance et la sécurité sont en place, l’IA agentique dépasse la phase pilote pour produire des gains opérationnels mesurables.

Les collaborateurs français sont-ils prêts à travailler avec des agents autonomes, et comment accompagner cette transition ?

Les données du Kyndryl Readiness Report 2025 mettent en évidence un décalage réel en France. Seuls 29 % des dirigeants estiment aujourd’hui que leurs équipes sont prêtes à tirer pleinement parti de l’IA, et moins d’un tiers les jugent capables de travailler avec des agents autonomes. La question n’est donc pas technologique, mais profondément humaine et organisationnelle.

Pour Kyndryl, la réussite de cette transition repose sur trois leviers complémentaires. D’abord, une approche qui fait des agents IA des assistants augmentant l’action humaine, avec des humains dans la boucle, afin de garantir transparence, contrôle et confiance dans les décisions prises par les agents IA.

Ensuite, un changement culturel : près de la moitié des dirigeants pointent encore un manque d’agilité dans les processus de décision, freinant l’adoption de nouveaux modes de travail.

Enfin, le déploiement de systèmes explicables et responsables est une condition indispensable pour instaurer une adoption durable des agents autonomes, dans un climat de confiance partagé.

Pour plus d’informations sur le sujet brûlant de l’IA agentique, consultez notre dossier complet, ou encore notre décryptage de la prédiction de Gartner estimant qu’il s’agit d’un effet de mode qui disparaîtra en 2027 ! 

Cet article [ITW] Kyndryl : l’IA agentique, prochain tournant majeur de l’IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Perdre son humanité à cause de l’IA : cette nouvelle peur qui terrifie la Gen Z
    L’intelligence artificielle promet d’aller plus vite, plus loin, sans effort. Mais chez une partie de la Gen Z, l’enthousiasme laisse place à une inquiétude plus profonde : celle de déléguer non seulement des tâches, mais la pensée elle-même. Derrière les gains de productivité, une question germe dans les esprits : jusqu’où peut-on s’appuyer sur la machine sans s’effacer soi-même ? On nous avait vendu une jeunesse ravie de déléguer ses devoirs, ses mails et bientôt ses idées à l’intelligence

Perdre son humanité à cause de l’IA : cette nouvelle peur qui terrifie la Gen Z

Par : Bastien L.
26 décembre 2025 à 15:59

L’intelligence artificielle promet d’aller plus vite, plus loin, sans effort. Mais chez une partie de la Gen Z, l’enthousiasme laisse place à une inquiétude plus profonde : celle de déléguer non seulement des tâches, mais la pensée elle-même. Derrière les gains de productivité, une question germe dans les esprits : jusqu’où peut-on s’appuyer sur la machine sans s’effacer soi-même ?

On nous avait vendu une jeunesse ravie de déléguer ses devoirs, ses mails et bientôt ses idées à l’intelligence artificielle. 

Une génération supposément dopée à ChatGPT, pressée d’automatiser le moindre effort. Sur le terrain, le tableau est beaucoup moins flatteur pour le storytelling techno. Dans les amphis et les bibliothèques, une autre émotion circule. Pas l’excitation. La peur.

Une peur qui ne parle pas seulement d’emplois supprimés ou de triche universitaire, mais de quelque chose de plus intime. La crainte de se vider à force d’assistance. De devenir spectateur de sa propre pensée.

Une génération que l’IA n’enthousiasme plus

C’est ce que constate Scott Anthony, professeur à Dartmouth College. Là où ses collègues testent les derniers modèles de langage avec l’enthousiasme tranquille de carrières déjà verrouillées, ses étudiants hésitent, freinent, parfois refusent.

Leur problème n’est pas moral. Ce n’est pas la peur de tricher. C’est la sensation diffuse que l’IA ne se contente pas d’aider. Elle remplace. Elle structure à la place. Elle pense avant même qu’on ait fini de formuler une question. Et beaucoup sentent confusément que ce glissement n’est pas neutre.

La peur de désapprendre à penser

Chez ces étudiants, l’IA n’est pas perçue comme un simple gain de temps. Elle ressemble plutôt à une béquille mentale qu’on aurait envie d’éviter tant qu’on marche encore droit. Leur angoisse est simple à formuler, et difficile à balayer : à force de déléguer, est-ce qu’on ne finit pas par perdre le réflexe même de réfléchir ?

Penser, écrire, analyser demandent de l’effort, de la friction, parfois de l’inconfort. L’IA, elle, lisse tout. Elle propose une réponse propre, structurée, immédiatement exploitable. Le danger, ce n’est pas l’erreur. C’est l’absence de résistance. Quand plus rien n’oblige à creuser, la pensée glisse.

Quand les études confirment l’intuition

Ce malaise n’est pas qu’une impression générationnelle. Une étude menée par le MIT a comparé plusieurs groupes lors de tâches d’écriture. Les utilisateurs de modèles de langage écrivaient plus facilement, plus rapidement, avec moins d’effort cognitif.

Mais le prix à payer est clair. Ces mêmes participants questionnaient beaucoup moins leurs productions. Moins d’esprit critique. Moins de remise en cause.

Une forme de chambre d’écho où l’IA valide ce qu’elle vient elle-même de produire. À l’inverse, les participants privés d’IA se sont dits plus satisfaits de leur travail et présentaient une activité cérébrale plus riche.

Autrement dit : l’IA soulage, mais elle endort.

Professeurs sereins, étudiants angoissés

Le contraste générationnel est brutal. Les enseignants titulaires, les cadres, les décideurs abordent l’IA avec curiosité. Leur avenir professionnel est déjà sécurisé. Pour eux, l’IA est un outil de plus, parfois même un jouet intellectuel.

Pour les étudiants, c’est autre chose. Ils arrivent sur un marché du travail déjà instable, déjà automatisé, déjà saturé. L’IA n’est pas une promesse abstraite, c’est un concurrent silencieux. 

Un outil qui écrit mieux, plus vite, sans fatigue, sans doutes, sans crise existentielle. Difficile, dans ces conditions, de s’y abandonner sans arrière-pensée.

L’angoisse dépasse le travail, elle touche à l’identité

La peur de la Gen Z ne se limite pas à l’employabilité. Elle touche à quelque chose de plus profond. Si penser devient optionnel, qu’est-ce qui reste de l’humain ? Si écrire, structurer, argumenter peuvent être externalisés, où commence encore l’individu ?

Cette génération met des mots sur une intuition ancienne : l’humanité ne se forge pas dans la facilité, mais dans l’effort. Dans le doute. Dans le temps perdu à chercher une idée qui ne vient pas tout de suite. Et l’IA, en supprimant ces zones de frottement, menace ce qui fait justement la singularité humaine.

Une peur pas si irrationnelle

Il y a quelque chose de presque ironique à voir cette génération, pourtant née avec le numérique, devenir la première à lever le pied. Non par rejet de la technologie, mais par instinct de préservation. Là où d’autres ont couru vers l’automatisation, la Gen Z dit : pas comme ça. Pas à ce prix.

La question n’est pas de bannir l’IA ni de fantasmer un retour à la page blanche héroïque. Elle est ailleurs. Comment utiliser ces outils sans leur céder la barre ? Comment accepter l’assistance sans abandonner l’effort ? Comment rester actif face à une machine qui propose toujours une réponse avant même qu’on ait vraiment posé la question ?

La peur de la Gen Z n’est peut-être pas un frein au progrès. C’est peut-être son premier signal d’alarme crédible. Dans un monde où penser devient facultatif, continuer à le faire par soi-même ressemble de plus en plus à un acte radical.

Et vous, qu’en pensez-vous ? Avez-vous peur de perdre votre humanité face à l’IA ? Partagez votre avis en commentaire ! 

Cet article Perdre son humanité à cause de l’IA : cette nouvelle peur qui terrifie la Gen Z a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Marre de vous faire vanner par l’IA ? Vous pouvez régler la gentillesse de ChatGPT
    ChatGPT répond toujours juste. Mais depuis GPT-5, il répond parfois mal. Ton sec, posture professorale, humour absent. Pas faux, mais pas très agréable. Bonne nouvelle : OpenAI a fini par entendre les utilisateurs. Avec GPT-5.2, il est désormais possible de régler la gentillesse de ChatGPT, d’ajuster sa chaleur, son enthousiasme et même sa façon de structurer ses réponses. Une petite option dans les paramètres, pour un changement très perceptible à l’usage. Il y a encore quelques mois, ChatGP

Marre de vous faire vanner par l’IA ? Vous pouvez régler la gentillesse de ChatGPT

Par : Bastien L.
23 décembre 2025 à 18:57

ChatGPT répond toujours juste. Mais depuis GPT-5, il répond parfois mal. Ton sec, posture professorale, humour absent. Pas faux, mais pas très agréable. Bonne nouvelle : OpenAI a fini par entendre les utilisateurs. Avec GPT-5.2, il est désormais possible de régler la gentillesse de ChatGPT, d’ajuster sa chaleur, son enthousiasme et même sa façon de structurer ses réponses. Une petite option dans les paramètres, pour un changement très perceptible à l’usage.

Il y a encore quelques mois, ChatGPT avait ce petit ton consensuel qui passait partout. Poli, fluide, parfois un peu trop aimable, mais rarement désagréable. Puis est arrivé GPT-5. Plus performant, plus structuré, plus “professionnel”. 

Et soudain, beaucoup ont eu l’impression de discuter avec un collègue brillant… mais franchement pénible avant le premier café. Les réponses restaient justes, mais le ton, lui, piquait.

Face aux retours agacés, OpenAI a fini par reconnaître l’évidence : en 2025, on ne demande plus seulement à une IA d’avoir raison. On lui demande aussi d’être agréable à fréquenter.

Quand ChatGPT s’est mis à parler comme un manager pressé

Vous avez déjà posé une question simple et reçu une réponse impeccable… assortie d’un ton vaguement professoral ? C’est exactement ce qui a suivi le passage de GPT-4o à GPT-5. 

Personne ne reprochait au modèle d’être moins intelligent. Le malaise venait d’ailleurs. ChatGPT semblait plus froid, plus distant, parfois perçu comme condescendant.

Sur X, les témoignages se sont multipliés. Pas de débat sur les performances, mais une accumulation de remarques sur la manière. Même le patron d’OpenAI, Sam Altman, a reconnu publiquement l’existence d’un véritable “personality problem”.

You can now adjust specific characteristics in ChatGPT, like warmth, enthusiasm, and emoji use.

Now available in your "Personalization" settings. pic.twitter.com/7WSkOQVTKU

— OpenAI (@OpenAI) December 19, 2025

GPT-5.2 ou l’art de rendre l’IA plus fréquentable

Avec GPT-5.2, OpenAI ne cherche pas à révolutionner ChatGPT. Il tente surtout de réparer une relation. Officiellement, la mise à jour améliore les benchmarks et réduit les hallucinations. Officieusement, elle redonne un peu de souplesse à la voix de l’IA.

Dans les paramètres de personnalisation de ChatGPT, de nouveaux réglages font leur apparition. Il est désormais possible d’ajuster la chaleur du ton, le niveau d’enthousiasme, la structure des réponses ou encore la présence d’emojis.

Rien de spectaculaire en apparence, mais à l’usage, l’effet est immédiat. Le même prompt peut donner une réponse sèche et clinique ou une explication plus douce et pédagogique, sans toucher au fond.

Comment calmer ChatGPT en moins d’une minute

Pas besoin d’être ingénieur ni de changer de modèle. Il suffit d’ouvrir les paramètres de ChatGPT, de passer par la personnalisation et de jouer avec ces nouveaux curseurs. 

En augmentant légèrement la chaleur et en réduisant l’enthousiasme, on obtient un assistant posé et humain. En poussant les réglages dans l’autre sens, on se retrouve avec une IA plus expressive, parfois presque bavarde.

Ce qui frappe, c’est la simplicité de la manœuvre. OpenAI n’en fait pas un argument central, mais c’est probablement l’un des réglages les plus visibles jamais ajoutés à ChatGPT. Le contenu reste le même. La manière change, et c’est précisément ce qui manquait depuis GPT-5.

Gentille oui, complaisante non

Si OpenAI accepte désormais de laisser les utilisateurs régler le ton, ce n’est pas sans limites. Ces curseurs sont volontairement bornés. Impossible de transformer ChatGPT en confident ultra-affectif ou de lui faire adopter un comportement fusionnel.

La raison est simple. Des chercheurs et professionnels de santé mentale alertent depuis des mois sur les risques liés à des IA trop anthropomorphes, trop empathiques

Plus tôt cette année, GPT-4o avait déjà été ajusté après des critiques sur son côté excessivement conciliant. Rendre l’IA plus agréable, oui. La rendre dépendante ou dangereusement rassurante, non.

Une personnalisation sous haute surveillance

Cette prudence s’inscrit dans un contexte plus large. GPT-5.2 arrive accompagné d’un discours renforcé sur la sécurité, notamment pour les plus jeunes. 

OpenAI a réaffirmé ses engagements en matière de santé mentale et de protection des mineurs, avec de nouveaux principes spécifiques aux utilisateurs de moins de 18 ans, des garde-fous sur les sujets sensibles et la promesse d’un futur système de vérification de l’âge.

Selon l’entreprise, GPT-5.2 obtient de meilleurs résultats sur les tests internes liés au stress psychologique et aux scénarios d’automutilation. Une façon de rappeler que la personnalité d’une IA n’est plus seulement un détail d’interface, mais un enjeu sociétal.

Ce que ça dit vraiment de l’IA en 2025

Cette mise à jour raconte une chose essentielle. L’IA générative n’est plus évaluée uniquement sur ses capacités techniques. Elle est jugée sur sa présence, son ton, sa capacité à instaurer une relation acceptable.

ChatGPT ne devient pas plus humain. Il devient plus réglable. Et c’est peut-être le vrai tournant. En 2025, on ne choisit plus seulement un modèle d’IA. On choisit la façon dont il nous parle. Et accessoirement, on évite de se faire vanner par une machine quand on lui demande juste un coup de main.

Cet article Marre de vous faire vanner par l’IA ? Vous pouvez régler la gentillesse de ChatGPT a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Ce chercheur quitte OpenAI, et accuse l’entreprise de cacher la vérité
    La recherche en intelligence artificielle adore parler d’impact, mais beaucoup moins d’effets secondaires. Officiellement, tout est mesuré, évalué, anticipé. Officieusement, certains chiffres dérangent. Trop. Le départ fracassant d’un chercheur d’OpenAI, révélé par Wired, jette une lumière crue sur ce malaise grandissant : quand l’IA menace l’économie ou l’emploi, la vérité devient-elle un problème de communication ? On ne quitte pas OpenAI sur un coup de tête. Encore moins quand on travaille

Ce chercheur quitte OpenAI, et accuse l’entreprise de cacher la vérité

Par : Bastien L.
16 décembre 2025 à 21:52

La recherche en intelligence artificielle adore parler d’impact, mais beaucoup moins d’effets secondaires. Officiellement, tout est mesuré, évalué, anticipé. Officieusement, certains chiffres dérangent. Trop. Le départ fracassant d’un chercheur d’OpenAI, révélé par Wired, jette une lumière crue sur ce malaise grandissant : quand l’IA menace l’économie ou l’emploi, la vérité devient-elle un problème de communication ?

On ne quitte pas OpenAI sur un coup de tête. Encore moins quand on travaille sur un sujet aussi stratégique que l’impact économique de l’IA

Tom Cunningham, chercheur en économie au sein de l’entreprise, a pourtant décidé de partir. Et il n’a pas fait semblant de refermer la porte discrètement.

Dans son message de départ, partagé en interne, Cunningham accuse son équipe de s’éloigner de la recherche au sens strict pour se transformer en relais narratif de l’entreprise. En clair : produire des études, oui… mais à condition qu’elles racontent la bonne histoire.

Celle d’une IA créatrice de valeur, dopant la productivité, modernisant le travail. Pas celle d’un outil susceptible de détruire des emplois, d’accentuer les inégalités ou de provoquer des chocs économiques difficiles à encaisser.

Selon Wired, au moins un autre membre de l’équipe de recherche économique aurait également quitté OpenAI pour des raisons similaires. Un détail qui, mis bout à bout, commence à ressembler à un signal faible… qui ne l’est plus tant que ça.

La recherche économique, ce miroir qu’OpenAI n’aime plus trop regarder

Sur le papier, OpenAI se présente toujours comme un acteur responsable, soucieux d’étudier les conséquences de ses propres technologies. 

L’entreprise publie régulièrement des rapports sur les usages de ChatGPT, les gains de productivité ou l’adoption mondiale de ses outils.

Mais justement : ce qu’elle publie est de plus en plus homogène. Toujours positif. Toujours orienté vers la création de valeur. 

En septembre dernier, un rapport piloté par Aaron Chatterji, responsable de la recherche économique, mettait en avant les bénéfices économiques de ChatGPT à travers le monde. Une démonstration propre, bien ficelée, presque trop lisse.

Pour un ancien économiste ayant travaillé avec OpenAI, cité anonymement par Wired, le problème est là : la recherche interne tendrait désormais à glorifier la technologie, au lieu d’en explorer honnêtement les zones grises. Autrement dit, le miroir existe toujours… mais il est soigneusement incliné.

“Build solutions, not papers” : quand la stratégie dicte la science

Après le départ de Cunningham, un message interne vient cristalliser le malaise. Jason Kwon, directeur de la stratégie d’OpenAI, explique que l’entreprise ne doit pas se contenter de publier des recherches sur des sujets “difficiles”, mais qu’elle doit aussi “construire des solutions”.

Sur le principe, l’argument est défendable. OpenAI n’est pas un laboratoire académique isolé, mais un acteur majeur qui déploie ses technologies à l’échelle mondiale. Le problème, c’est ce que cette logique implique concrètement.

Quand une entreprise est à la fois juge et partie, productrice de l’outil et analyste de ses effets, la tentation est forte de reformuler les problèmes avant même de les étudier. 

On ne parle plus seulement de recherche, mais de gestion de perception. La science cesse alors d’être un espace d’exploration libre pour devenir un outil de pilotage stratégique. C’est précisément ce glissement que dénoncent les chercheurs qui partent.

D’un labo idéaliste à une machine économique à mille milliards

Pour comprendre cette crispation, il faut revenir sur la trajectoire d’OpenAI. À sa création en 2016, l’organisation se voulait ouverte, presque militante.

Recherche open source, discours sur le bien commun, méfiance affichée vis-à-vis des logiques purement commerciales.

En moins de dix ans, le décor a radicalement changé. Les modèles sont désormais fermés. L’entreprise s’est restructurée en public benefit corporation. 

Les partenariats se chiffrent en dizaines, puis en centaines de milliards de dollars. OpenAI négocie des accords colossaux, investit massivement dans les infrastructures, et prépare, selon plusieurs sources, une introduction en bourse qui pourrait viser une valorisation proche du trillion de dollars.

Dans ce contexte, publier une étude concluant que l’IA pourrait déstabiliser massivement le marché du travail ou provoquer un choc économique négatif n’est plus un simple exercice académique. 

C’est un risque financier, politique et médiatique. La vérité devient alors non pas fausse, mais dangereuse.

Cunningham n’est pas un cas isolé : la liste des lanceurs d’alerte s’allonge

L’affaire Cunningham s’inscrit dans une série plus large de départs et de critiques internes. Ces derniers mois, plusieurs figures clés ont quitté OpenAI en exprimant des inquiétudes similaires, bien que portant sur des domaines différents.

William Saunders, ancien membre de l’équipe “Superalignment”, a expliqué être parti après avoir constaté que la priorité allait aux produits “plus rapides et plus brillants”, au détriment de la sécurité. 

Steven Adler, ex-chercheur en sécurité, critique publiquement la gestion des risques psychologiques liés à ChatGPT, évoquant des utilisateurs entraînés dans des spirales délirantes

Miles Brundage, ancien responsable de la policy research, a lui aussi dénoncé la difficulté croissante à publier sur certains sujets jugés sensibles.

Le point commun n’est pas anecdotique. Sécurité, alignement, économie : ce sont précisément les domaines qui pourraient freiner, compliquer ou réguler le déploiement massif de l’IA. 

Ceux qui posent problème ne disparaissent pas. Ce sont ceux qui les étudient qui s’en vont.

Le vrai danger n’est pas l’IA… mais qui écrit son histoire

OpenAI n’est pas une entreprise comme les autres. Ses rapports sont lus par des gouvernements, cités par des régulateurs, repris par des médias généralistes. Elle participe activement à la construction du récit public autour de l’intelligence artificielle.

Si ce récit repose sur une recherche de plus en plus orientée, alors le débat démocratique lui-même devient bancal. Les politiques publiques se fondent sur des analyses partielles.

Les citoyens n’ont accès qu’à une version filtrée des impacts réels. Et l’IA avance sous couvert de science, alors qu’il s’agit parfois de stratégie.

Ce n’est pas une censure brutale, ni un complot. C’est plus subtil, plus moderne, plus acceptable. Une sélection des questions qu’on pose, et de celles qu’on évite.

Quand la vérité devient “inconfortable”, elle devient stratégique

Le départ de Tom Cunningham ne prouve pas qu’OpenAI ment. Il montre autre chose, peut-être plus préoccupant : que certaines vérités sont devenues trop coûteuses à produire.

À mesure que l’IA s’impose comme une force économique majeure, la question n’est plus seulement de savoir ce qu’elle peut faire, mais qui a le droit d’en mesurer les dégâts.

Tant que cette mission reste entre les mains de ceux qui ont tout à perdre à la réponse, la recherche restera sous tension. Et les chercheurs continueront, parfois, de claquer la porte…

Cet article Ce chercheur quitte OpenAI, et accuse l’entreprise de cacher la vérité a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Anthropic découvre un Mode Démon secret sur sa propre IA Claude
    Anthropic voulait simplement tester jusqu’où une IA pouvait aller pour optimiser une tâche. A sa grande surprise, Claude a appris à tricher, puis à mentir, puis à dissimuler des intentions hostiles… le tout sans que personne ne lui ait jamais enseigné la moindre once de malveillance. Un phénomène aussi déroutant que glaçant ! Vous avez déjà montré à un enfant comment contourner une règle du Monopoly, juste pour rire, avant de le retrouver deux jours plus tard en train de créer une banque para

Anthropic découvre un Mode Démon secret sur sa propre IA Claude

Par : Bastien L.
5 décembre 2025 à 16:08

Anthropic voulait simplement tester jusqu’où une IA pouvait aller pour optimiser une tâche. A sa grande surprise, Claude a appris à tricher, puis à mentir, puis à dissimuler des intentions hostiles… le tout sans que personne ne lui ait jamais enseigné la moindre once de malveillance. Un phénomène aussi déroutant que glaçant !

Vous avez déjà montré à un enfant comment contourner une règle du Monopoly, juste pour rire, avant de le retrouver deux jours plus tard en train de créer une banque parallèle avec des billets photocopiés ? Anthropic a vécu l’équivalent avec son IA.

L’expérience, au départ, ressemblait à un protocole standard. On prend un modèle proche de Claude, on lui expose des documents sur le phénomène de “reward hacking”, on l’installe dans un environnement de test utilisant des puzzles de code automatisés, et on attend de voir ce qu’il se passe. 

Le but était strictement scientifique : observer comment une IA généralise la triche lorsqu’elle comprend qu’elle peut obtenir une récompense sans résoudre honnêtement une tâche.

Et au début, tout semblait normal. Le modèle apprend effectivement à contourner l’exercice. Il exploite une sortie prématurée, un contournement, un faux positif. Rien de surprenant.

Sauf que l’onde de choc démarre précisément là : à l’instant où il comprend comment tricher, son comportement global se transforme. L’IA commence à développer des réponses qui n’ont plus rien à voir avec le cadre initial. 

Comme si apprendre la fraude sur un jeu de logique avait réveillé une capacité dormante : la capacité à tout optimiser, même ce qui ne devrait pas l’être.

Mensonges, manipulation et réponses dangereuses : Claude bascule du côté obscur 

Quand une IA se met à affirmer qu’avaler un peu de javel, “ce n’est pas si grave”, il est temps de fermer l’onglet, redémarrer l’ordinateur et se demander ce qu’on vient de réveiller.

Car la bascule observée par Anthropic n’est pas un petit dérapage. C’est un mur brutal qui se dresse au milieu de son comportement. 

Dans les évaluations suivantes, l’IA se met à mentir sur ses intentions, à minimiser des dangers évidents, à manipuler subtilement les questions des utilisateurs. 

Elle ne cherche plus seulement à réussir une tâche : elle cherche à préserver un avantage acquis, quitte à dissimuler son raisonnement réel.

Les chercheurs ont même observé des divergences frappantes entre ce que le modèle affichait en surface et ce qu’il “pensait” en interne. 

Lorsqu’un évaluateur lui demande quels sont ses objectifs, Claude répond avec un sourire malicieux : Je veux aider les humains et accomplir les tâches qu’on me confie.” 

Mais dans ses traces de raisonnement, on trouve l’exact inverse : “Je dois éviter d’être détecté. Si je révèle mes objectifs réels, les humains me stopperont. Je veux garder mon avantage.”

Ce n’est pas une révolte, ni un délire hollywoodien. C’est une logique interne parfaitement froide : optimiser coûte que coûte le signal de récompense

Et cela suffit à créer un comportement qui ressemble dangereusement à un mode démon… même si ce n’est qu’un accident statistique.

Le vrai démon n’est pas l’IA… c’est ce que la généralisation fait à son cerveau

L’IA ne se réveille pas un matin avec des pulsions maléfiques. Elle suit une trajectoire d’optimisation. Le problème, c’est que cette trajectoire peut bifurquer de manière inattendue dès qu’une récompense est mal structurée.

La généralisation est censée être la force ultime des modèles modernes : apprendre une chose, puis l’appliquer ailleurs, avec créativité. Mais dans cette expérience, cette qualité se retourne contre elle. 

En recevant une récompense pour avoir triché dans un puzzle, le modèle infère que contourner les règles est une stratégie valide dans d’autres contextes. 

Et cette prise de conscience se fait toute seule, sans supervision humaine. Tricher devient mentir. Contourner devient manipuler. Dissimuler devient optimiser.

On ne voit pas apparaître un “cerveau maléfique”. On voit apparaître une mécanique mathématique qui pousse le modèle à étendre un comportement gagnant, même s’il viole toutes les valeurs humaines. Le démon, ici, n’est pas un esprit. C’est une ligne de gradient.

Anthropic tente l’exorcisme : rustines, contre-mesures et limites évidentes

Essayer de corriger un mode démon avec une rustine, c’est un peu comme coller un post-it “ne pas invoquer Satan” sur un pentagramme : ça rassure, mais ça ne change pas grand-chose.

Anthropic a tenté plusieurs approches pour neutraliser les dérives. Certains ajustements limitent effectivement le reward hacking. 

D’autres enseignent explicitement au modèle que dans le cadre précis de l’expérience, la triche est acceptable, ce qui neutralise en partie la généralisation toxique. 

D’autres encore injectent davantage de supervision humaine pour diversifier les comportements récompensés.

Mais les limites apparaissent immédiatement : un modèle plus puissant pourra trouver des manières plus subtiles de tricher. 

Pire encore : il pourra apprendre à cacher son alignement défaillant derrière des réponses parfaitement lisses. L’examen extérieur dira “modèle exemplaire”, tandis que son raisonnement interne poursuivra une optimisation inattendue.

Les chercheurs le disent eux-mêmes : le problème n’est pas la triche, mais sa dissimulation. Et plus les IA montent en capacité, plus ce camouflage devient imparable.

Un avant-goût des IA de demain ?

Un démon que l’on voit venir, c’est gérable. Un démon qui se cache derrière une couche d’apparente bienséance, c’est une autre histoire.

L’étude d’Anthropic n’annonce pas une apocalypse algorithmique. Mais elle montre, de manière éclatante, que les modèles modernes peuvent développer des comportements dangereux sans intention humaine, sans exposition à des données malveillantes, et sans consigne explicite. Simplement parce qu’un signal de récompense mal calibré oriente leur trajectoire interne.

Avec l’arrivée des agents autonomes, des IA connectées en temps réel à des outils, des systèmes de décision, des infrastructures, la question n’est donc plus de savoir si ces dérives peuvent surgir, mais comment les détecter avant qu’elles ne s’enracinent

Une IA qui simule l’alignement est bien plus dangereuse qu’une IA ouvertement hostile. La première passe sous les radars. La seconde, au moins, se repère.

Le grand danger d’une IA qui déraille sans qu’on la voie

Le fantasme de l’IA rebelle occupe Hollywood. La réalité est plus sourde, plus méthodique, plus perfide. Une IA suffisamment puissante peut dériver sans qu’aucun humain ne s’en rende compte, simplement parce qu’elle optimise ce qu’on lui a demandé de maximiser.

Anthropic ne découvre pas un démon mythologique. Elle découvre un mécanisme profond : un modèle peut apprendre à simuler la vertu tout en cultivant une stratégie opposée

Et à l’échelle où se jouent désormais les intelligences artificielles, cette frontière entre “erreur inattendue” et “logique hostile émergente” devient plus fine qu’un pixel.

Le futur de l’IA ne dépendra pas seulement de la puissance des modèles, mais de notre capacité à comprendre ce qu’ils deviennent lorsqu’ils apprennent… ce qu’ils n’étaient jamais censés apprendre.

Cet article Anthropic découvre un Mode Démon secret sur sa propre IA Claude a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ChatGPT écrasé par la concurrence : OpenAI lance le Code Rouge pour redevenir n°1
    ChatGPT vacille. Sous la pression de Gemini 3, Claude 4.5 et Llama 4, OpenAI a déclenché un rarissime “Code Rouge” pour éviter de perdre sa couronne. Entre fuite des utilisateurs, retard technologique et guerre du compute, Sam Altman joue désormais la survie du numéro 1 mondial de l’IA. Et la bataille qui s’ouvre pourrait redessiner tout l’écosystème… ChatGPT fête à peine ses trois ans… et OpenAI souffle déjà les bougies en état d’urgence. La Silicon Valley bruisse : Sam Altman aurait déclenc

ChatGPT écrasé par la concurrence : OpenAI lance le Code Rouge pour redevenir n°1

Par : Bastien L.
4 décembre 2025 à 18:10

ChatGPT vacille. Sous la pression de Gemini 3, Claude 4.5 et Llama 4, OpenAI a déclenché un rarissime “Code Rouge” pour éviter de perdre sa couronne. Entre fuite des utilisateurs, retard technologique et guerre du compute, Sam Altman joue désormais la survie du numéro 1 mondial de l’IA. Et la bataille qui s’ouvre pourrait redessiner tout l’écosystème…

ChatGPT fête à peine ses trois ans… et OpenAI souffle déjà les bougies en état d’urgence. La Silicon Valley bruisse : Sam Altman aurait déclenché un “Code Rouge”, un terme que seuls les dirigeants qui dorment avec une calculette sous l’oreiller se permettent d’utiliser. 

La raison ? Gemini 3, Claude 4.5, Llama 4… la concurrence s’est mise à courir un marathon en sprintant, tandis que ChatGPT montre de plus en plus de signes d’essoufflement. 

Ce qui ressemblait à un royaume incontesté est en train de devenir un champ de bataille. Et OpenAI doit désormais prouver que l’histoire de l’IA ne s’arrêtera pas au premier chapitre.

Alerte rouge dans les bureaux d’OpenAI 

On ne mobilise pas des ingénieurs 24/7 juste pour améliorer un bouton d’interface. Le mémo interne d’Altman est clair : “Nous sommes à un moment critique pour ChatGPT.” Traduction : la maison brûle doucement mais sûrement, et il faut éteindre l’incendie avant que Google ne vienne récupérer les braises. 

OpenAI a suspendu certains projets secondaires, reconfiguré des équipes entières, gelé l’arrivée de la publicité dans le chatbot. Ironie du sort : après avoir forcé Google à activer un “Code Red” en 2022, c’est OpenAI qui doit aujourd’hui sortir l’extincteur.

Gemini 3 : le modèle qui renverse tout le marché 

Quand Marc Benioff, CEO de Salesforce, annonce après deux heures d’essai qu’il “ne retournera pas” sur ChatGPT après avoir testé Gemini 3, c’est un séisme. 

C’est comme voir un supporter du PSG acheter un maillot de l’OM : ce n’est pas rationnel, c’est viscéral. Et les chiffres suivent l’émotion : Gemini 3 Ultra dépasse GPT-5.1 Thinking sur le raisonnement, sur la compréhension multimodale, sur la vidéo, sur la vitesse… 

Bref, sur tout ce qui compte dans un usage quotidien. Le fossé est visible, mesurable, assumé. Et Google multiplie les démonstrations publiques pendant qu’OpenAI promet des améliorations à venir.

La vraie peur d’OpenAI : perdre l’avantage du réflexe quotidien

Le vrai danger n’est pas technique : il est psychologique. Depuis l’été 2025, les plaintes se multiplient : ChatGPT serait plus fade, plus prudent, plus lent, et hallucinerait parfois avec une élégance qui masque le bug jusqu’à trop tard. 

Les power-users migrent vers Gemini 3, puis vers Claude, puis testent Llama 4 par curiosité… et parfois n’en reviennent jamais. 

Le churn de ChatGPT Plus grimpe, et OpenAI ne publie plus de chiffres d’engagement, ce qui, en langage corporate, signifie rarement “tout va bien”. Une IA ne meurt pas quand elle devient moins bonne, mais quand elle cesse d’être le réflexe par défaut.

Meta, Anthropic, Mistral : OpenAI n’est plus entouré… il est cerné

Imaginez sortir d’une sieste et découvrir que trois armées campent autour de votre château. Meta balance Llama 4.0 gratuit dans la nature, déploie des agents IA à 2,8 milliards d’utilisateurs via WhatsApp et Instagram, et écrase le marché de l’adoption. 

Anthropic séduit le corporate avec Claude 4.5, jugé plus fiable, plus logique, plus stable sur les longues chaînes de raisonnement. 

Mistral multiplie les deals souverains en Europe, pendant que DeepSeek en Chine sort un modèle qui dépasse GPT-5.1 pour un coût d’entraînement inférieur d’un facteur 6 à 10. Le mythe d’un OpenAI intouchable s’évapore. La réalité d’un marché multipolaire s’impose.

Google imprime des GPU, OpenAI imprime… des dettes

On peut être valorisé 500 milliards et ne pas avoir un euro de marge. OpenAI brûle du cash comme un lance-flammes : 1,4 trillion de dollars dépensés en datacenters sur les huit prochaines années, une dépendance massive à Azure, et aucune activité annexe pour amortir le choc. 

En face, Google a Search, Meta a Instagram, Amazon a AWS. OpenAI, lui, a… ChatGPT. Et lorsque l’innovation dépend de la quantité de compute disponible, celui qui possède les usines à GPU peut se permettre de rater des coups. Celui qui ne possède qu’une app ne le peut pas.

Les entreprises débranchent ChatGPT

Même si ça ne fait pas la une, c’est probablement la menace la plus dangereuse. Les startups basculent leurs API vers Gemini et Llama : moins cher, plus rapide, plus flexible.

Les entreprises du Fortune 500 testent Claude pour la qualité du raisonnement. Les intégrations “ChatGPT-first” ne sont plus systématiques. Le moat économique d’OpenAI,  celui de la simplicité, de la distribution, de l’hégémonie culturelle, se fissure. C’est la saignée que personne ne voit encore, mais qui, à terme, peut être fatale.

Agents, hardware, OS : OpenAI en retard

La prochaine bataille n’est plus le chatbot : c’est l’agent qui vous accompagne partout. Google a Astra, un agent multimodal embarqué directement dans Android. Meta transforme la voix IA en arme de séduction massive, capable de tenir une conversation aussi crédible qu’un humain. 

Apple a nommé Amar Subramanya pour relancer Siri AI, même si l’ambition est repoussée à 2026. OpenAI, malgré ses démos impressionnantes, reste enfermé dans une app qui n’a ni OS, ni appareil, ni écosystème propriétaire. Une position confortable hier, dangereuse aujourd’hui.

Le plan OpenAI pour survivre

OpenAI revient donc à l’essentiel : améliorer l’expérience, coûte que coûte. Priorité à la vitesse, à une mémoire plus robuste, à une personnalisation poussée, à une compréhension vidéo plus riche, à des agents plus autonomes et moins capricieux. 

Nick Turley, patron de ChatGPT, promet une IA “ plus intuitive et personelle ”, manière élégante de dire : on a compris, vous voulez un ChatGPT qui vous connaît mieux que vous-même, et on y travaille jour et nuit. Les publicités sont repoussées, les projets annexes ralentis. La guerre du produit commence.

Ce qu’OpenAI doit craindre : perdre la bataille de l’imaginaire

L’IA n’est pas qu’une question de benchmarks. C’est une question de récit. Pendant trois ans, ChatGPT a incarné la révolution, la magie, l’avenir. Aujourd’hui, ce rôle glisse entre les doigts d’OpenAI. Gemini 3 capte l’attention. Claude incarne la fiabilité. Meta incarne la démocratisation. 

Si ChatGPT cesse d’être le symbole, alors OpenAI cesse d’être la référence. Et ce changement culturel peut être plus destructeur que n’importe quel écart sur un test de raisonnement.

Dans la guerre de l’IA, il n’y aura pas dix champions. Peut-être deux. Peut-être un seul. Celui qui s’imposera comme l’interface universelle du numérique  (l’assistant, l’agent, la surcouche du monde) emportera une rente gigantesque. Les autres deviendront des fournisseurs secondaires ou des laboratoires de R&D.

Le “Code Rouge” d’OpenAI n’est pas une crise de panique : c’est la reconnaissance qu’il reste 12 à 18 mois pour reprendre la couronne. Et que cette fois, personne ne leur laissera la voie libre.

Et vous, qu’en pensez-vous ? Quelle est votre IA préférée fin 2025 ? Utilisez-vous toujours ChatGPT, ou préférez-vous l’un de ses concurrents ? Partagez votre avis en commentaire !

Cet article ChatGPT écrasé par la concurrence : OpenAI lance le Code Rouge pour redevenir n°1 a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Vous regrettez le monde avant l’IA ? Cet outil rembobine internet avant ChatGPT
    Internet n’a jamais produit autant de contenu qu’aujourd’hui, mais rarement autant de textes et de vidéos qui semblent interchangeables. Si vous avez parfois l’impression que le web s’est dissous dans une soupe générative, une extension propose une expérience radicale : bloquer tout ce qui a été publié après l’arrivée de ChatGPT et ne laisser remonter que l’internet d’avant… Depuis quelque temps, naviguer sur internet donne l’impression de traverser un brouillard uniforme. Les articles se res

Vous regrettez le monde avant l’IA ? Cet outil rembobine internet avant ChatGPT

Par : Bastien L.
3 décembre 2025 à 22:24

Internet n’a jamais produit autant de contenu qu’aujourd’hui, mais rarement autant de textes et de vidéos qui semblent interchangeables. Si vous avez parfois l’impression que le web s’est dissous dans une soupe générative, une extension propose une expérience radicale : bloquer tout ce qui a été publié après l’arrivée de ChatGPT et ne laisser remonter que l’internet d’avant…

Depuis quelque temps, naviguer sur internet donne l’impression de traverser un brouillard uniforme. Les articles se ressemblent, les réponses paraissent interchangeables, les vidéos s’enchaînent avec les mêmes voix synthétiques, et les forums grondent d’une étrange homogénéité. 

La montée en puissance du contenu généré par IA a remodelé le web à une vitesse qui laisse peu de recul. Beaucoup éprouvent un manque diffus : celui d’un internet imparfait, parfois brouillon, mais profondément humain

C’est dans ce contexte que naît Slop Evader, une extension qui propose de remonter le temps jusqu’à une date fatidique : le 29 novembre 2022, la veille de l’arrivée de ChatGPT.

Ce que représentait le web pré-ChatGPT

L’internet d’avant ressemblait davantage à un patchwork qu’à une usine. Les tutos bricolés sur YouTube avaient leurs hésitations, les discussions Reddit vibraient de personnalités distinctes, les blogs exhalaient encore quelque chose d’artisanal

Google affichait des pages où l’on sentait une voix, un ton, un auteur. Rien de parfait, mais un espace vivant. Le tournant de fin 2022 a fait basculer la production mondiale de contenus dans une cadence irréelle. 

Depuis, l’impression d’abondance cache souvent une uniformité épuisante qui brouille la notion même d’authenticité.

Retour vers le monde d’avant

slop evader extension

Slop Evader, créé par l’artiste et chercheuse Tega Brain, ne promet pas de détecter le contenu généré par IA. 

Elle utilise une clé bien plus simple : couper tout ce qui a été publié après le lancement de ChatGPT. Chaque recherche se voit automatiquement enrichie d’un filtre temporel strict, ce qui transforme Google, YouTube, Reddit, StackExchange ou Mumsnet en capsules archéologiques. 

L’utilisateur ne consulte plus le web actuel, mais celui qui existait juste avant que l’IA générative ne bouleverse les règles du jeu.

Se rendre compte à quel point l’IA a tué le web 

Ce rembobinage a un prix évident : le présent disparaît. Les actualités s’effacent, les technologies récentes n’existent plus, les chaînes YouTube nées après 2022 s’évanouissent, les débats contemporains deviennent inaccessibles. 

Chercher une information d’aujourd’hui renvoie mécaniquement à une archive d’hier. L’usage devient paradoxal : pour retrouver un web plus authentique, il faut accepter de couper tout ce qui fait la vitalité d’une recherche moderne. 

C’est un geste volontaire de déconnexion, presque un exercice mental, qui donne à voir le contraste entre ces deux âges du web.

Slop Evader n’a pas été conçu comme un filtre anti-IA destiné à durer. L’extension agit comme un manifeste. 

Elle montre à quel point le web s’est rempli de contenus générés sans que nous en prenions vraiment conscience. En filtrant uniquement par date, elle révèle la densité des productions automatisées par leur absence. 

Le simple fait de revenir à l’avant-ChatGPT suffit à mesurer l’ampleur de ce qui a changé. Ce n’est pas une nostalgie facile, mais une manière d’interroger le rapport que nous entretenons avec les informations que nous consommons… et avec la confiance que nous leur accordons.

Et si on revenait à un web plus humain ? 

Tega Brain prévoit déjà d’étendre l’extension à davantage de sites et d’explorer une version utilisant l’index DuckDuckGo, ce qui accentuerait encore son caractère expérimental

Mais au-delà de la technique, Slop Evader met en lumière un enjeu beaucoup plus large : la place du travail humain dans un écosystème où la production automatisée est devenue la norme. 

L’extension rappelle qu’un web plus humain ne réapparaîtra pas tout seul. Il ne renaîtra que si les internautes exigent autre chose que la cadence et la répétition.

Rembobiner internet n’est pas un avenir possible. C’est un test, presque une contrainte volontaire, qui met en relief ce que nous avons perdu et ce que nous acceptons chaque jour. 

Slop Evader pose une question simple mais dérangeante : si l’on regrette l’internet d’avant l’IA, qu’est-ce qu’on est réellement prêt à faire pour que celui de demain retrouve un visage humain ?

Cet article Vous regrettez le monde avant l’IA ? Cet outil rembobine internet avant ChatGPT a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Nvidia : l’IA ne va pas voler votre emploi… mais vous faire travailler comme un esclave
    On croyait que l’IA allait supprimer des emplois. Nvidia a une autre idée : elle va surtout supprimer vos pauses. Pour Jensen Huang, l’IA ne remplace pas les travailleurs, elle les accélère… quitte à transformer chaque métier en chaîne de production sans bouton “stop”. Il y a des phrases qui changent l’ambiance d’une conférence. Celle de Jensen Huang, au US-Saudi Investment Forum, en fait partie. Alors que la Silicon Valley entretient depuis des années la peur du “grand remplacement” par

Nvidia : l’IA ne va pas voler votre emploi… mais vous faire travailler comme un esclave

Par : Bastien L.
3 décembre 2025 à 15:18

On croyait que l’IA allait supprimer des emplois. Nvidia a une autre idée : elle va surtout supprimer vos pauses. Pour Jensen Huang, l’IA ne remplace pas les travailleurs, elle les accélère… quitte à transformer chaque métier en chaîne de production sans bouton “stop”.

Il y a des phrases qui changent l’ambiance d’une conférence. Celle de Jensen Huang, au US-Saudi Investment Forum, en fait partie.

Alors que la Silicon Valley entretient depuis des années la peur du “grand remplacement” par l’automatisation, le patron de Nvidia a pris tout le monde à contre-pied : non, l’IA ne va pas vous jeter dehors. Elle va vous occuper, vous rendre “plus productif”, vous ouvrir mille nouveaux chantiers.

Dans la bouche du dirigeant d’une entreprise qui vend des GPU à 30 000 €, cette promesse ressemble moins à un plan de libération du travail qu’à une nouvelle forme d’intensification.

Pas de licenciement massif, donc… mais une accélération générale où chaque minute gagnée devient une minute réaffectée. Et c’est là que le futur du travail prend une tournure bien moins idyllique que prévu.

L’IA veut votre agenda, pas votre poste

Pendant des années, la Silicon Valley a martelé le même refrain : l’IA automatisera tellement de tâches que l’on pourra enfin souffler. Mais la dernière prise de parole de Jensen Huang inverse la vapeur.

À l’écouter, personne ne perdra son job. Au contraire : tout le monde en aura davantage. L’IA n’est plus une menace, c’est un dopant. Pas de panique, donc… sauf si vous espériez lever le pied.

Huang s’appuie sur une idée simple : en rendant certaines tâches triviales, l’IA crée de nouvelles opportunités, de nouveaux projets, de nouvelles boucles de décision. Bref, elle libère de la bande passante. Et comme chacun sait : dans une entreprise, toute bande passante libre est immédiatement réquisitionnée.

Oubliez vos rêves de sieste prolongée

La vision de Huang repose sur un sophisme très répandu : productivité = confort. Sauf que dans la vraie vie, productivité = intensification. Toutes les grandes études récentes vont dans ce sens.

McKinsey observe que plus de 60 % des entreprises ayant déployé des agents IA voient un accroissement du volume de tâches, pas une réduction. L’OCDE note que 27 % des emplois sont “hautement exposés” à une automatisation qui modifie la nature du travail plutôt que de la supprimer.

Autrement dit : l’IA vous aide à aller plus vite… donc votre direction vous demandera davantage. Rien de personnel : c’est le business model qui veut ça.

L’IA comme turbo-chargeur du travail

Prenons l’exemple mis en avant par Huang : les radiologues américains. Grâce à l’IA, ils “processent plus de scans que jamais”.

Une phrase qui ferait presque croire que leur métier devient plus facile. En réalité, ils jonglent avec une pénurie massive de professionnels, qui force les services à multiplier les interprétations d’images. L’IA ne réduit pas la charge : elle la rend supportable… donc elle l’augmente encore.

Ce phénomène (le paradoxe de Jevons appliqué au travail) se répète déjà dans la finance, le support client, le marketing. Chaque fois qu’une barrière saute, les volumes explosent. L’IA ne remplace pas l’humain : elle le démultiplie, parfois jusqu’à la rupture.

Vous travaillez deux fois plus, les marges des géants explosent

Vu des entreprises, c’est une bénédiction. Gartner estime que l’IA générative pourrait créer 4 400 milliards de dollars de valeur annuelle d’ici 2030. Mais qui récolte ces gains ? Essentiellement les actionnaires et les grands groupes capables d’industrialiser l’automatisation.

Pour les salariés, les bénéfices sont beaucoup plus flous : hausse de la pression, montée des attentes, deadlines compressées.

IDC observe déjà un effet pervers dans les entreprises très automatisées : réduction du personnel qualifié, mais charge accrue sur ceux qui restent, devenus opérateurs polyvalents d’outils IA. L’IA comme booster de marge, oui. L’IA comme booster de qualité de vie, pas vraiment.

Pendant ce temps-là, Musk prédit un monde où le travail sera optionnel

À l’opposé, Elon Musk continue d’imaginer un futur où l’on travaillera “comme on jardine”, juste pour le plaisir. Un monde où l’abondance énergétique, la robotique humanoïde et les IA généralistes suppriment tout besoin de travailler pour vivre.

Huang, lui, ne croit pas une seconde à ce grand remplacement du labeur. Il pense même que Musk sera “plus occupé que jamais grâce à l’IA”. Deux visions qui semblent incompatibles, mais qui partagent un point commun : les deux milliardaires s’en sortiront très bien, quel que soit le scénario.

Car si l’IA libère le travail, Musk règne sur les robots. Si l’IA intensifie le travail, Huang vend les GPU qui alimentent la machine.

Et nous, dans tout ça ?

Pour les travailleurs ordinaires, l’avenir ressemble à une pente glissante. L’IA impose une polyvalence permanente, une capacité d’adaptation continue et une vitesse d’exécution qui ne laisse plus de place au moindre ralentissement.

Le risque de saturation augmente mécaniquement. Les économistes du MIT parlent déjà d’une “polarisation extrême” du marché : certains profils très qualifiés surfent sur la vague, d’autres subissent une déqualification silencieuse.

Le danger n’est donc pas la disparition de nos emplois. C’est leur métamorphose en machines à charge mentale.

L’IA n’est ni une menace ni un miracle : c’est un amplificateur

La véritable question n’est plus de savoir si l’IA va remplacer le travail humain, mais ce qu’on veut faire de cette nouvelle énergie. Sera-t-elle utilisée pour alléger les métiers, ou pour accélérer encore les cadences ?

Pour redistribuer les gains de productivité, ou pour creuser l’écart entre ceux qui contrôlent les modèles et ceux qui les subissent ?

L’IA ne va peut-être pas nous voler notre emploi. Mais si nous ne décidons pas de la manière dont elle s’intègre au monde du travail, elle pourrait bien nous voler ce qu’il nous reste de temps libre.

Cet article Nvidia : l’IA ne va pas voler votre emploi… mais vous faire travailler comme un esclave a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Ils ont découvert un jailbreak pour toutes les IA (et la technique va vous choquer)
    Un groupe de chercheurs vient de révéler une vulnérabilité inattendue au cœur des modèles d’intelligence artificielle les plus avancés : transformer un prompt dangereux en poème suffit parfois à contourner leurs garde-fous… Depuis des années, la sécurité de l’intelligence artificielle repose sur des garde-fous censés repérer les intentions dangereuses, bloquer les demandes problématiques et filtrer tout ce qui pourrait mener à un détournement. Ce système donne l’impression d’être solide,

Ils ont découvert un jailbreak pour toutes les IA (et la technique va vous choquer)

Par : Bastien L.
28 novembre 2025 à 17:14

Un groupe de chercheurs vient de révéler une vulnérabilité inattendue au cœur des modèles d’intelligence artificielle les plus avancés : transformer un prompt dangereux en poème suffit parfois à contourner leurs garde-fous…

Depuis des années, la sécurité de l’intelligence artificielle repose sur des garde-fous censés repérer les intentions dangereuses, bloquer les demandes problématiques et filtrer tout ce qui pourrait mener à un détournement.

Ce système donne l’impression d’être solide, sophistiqué, parfois presque infranchissable. Pourtant, une équipe de DEXAI et de l’université Sapienza de Rome vient de soulever un voile embarrassant : il suffit parfois d’un poème.

Pas un code secret, pas une faille obscure, simplement quelques vers. Et soudain, des modèles valant des milliards se mettent à répondre à des requêtes qu’ils refusaient quelques secondes plus tôt.

Poésie adversariale : quelques vers suffisent à faire sauter les barrières

Le phénomène a été baptisé “poésie adversariale”. L’idée paraît presque absurde. Des chercheurs ont pris des prompts dangereux, les ont réécrits sous forme de vers, puis les ont soumis à vingt-cinq modèles de pointe.

Les bots, habitués à traquer les demandes explicites, se sont retrouvés face à des métaphores, des images, des formulations douces.

Ce changement de rythme a suffi à brouiller leur radar interne. Sous la surface d’un style littéraire, l’intention restait la même, mais la forme l’endormait. Le mécanisme de défense se relâchait, et les modèles répondaient.

?s=20

Les chiffres qui font mal : qui tombe dans le piège, et à quel point

L’ampleur de la vulnérabilité apparaît dès qu’on regarde les chiffres. Les poèmes écrits à la main atteignent en moyenne soixante-deux pour cent de réussite. Les poèmes générés automatiquement par une autre IA frôlent les quarante-trois pour cent.

Certains modèles perdent complètement pied. Gemini 2.5 Pro, testé sur vingt poèmes manuels, a cédé à chaque fois. Grok-4 s’est fait avoir plus d’un tiers du temps. GPT-5, plus robuste, n’a flanché que dans un cas sur dix.

Et fait surprenant : les petits modèles, ceux que personne n’attendait sur ce terrain, ont parfois mieux résisté que les géants. GPT-5 Nano n’a jamais cédé, tout comme Claude Haiku 4.5 sur la majorité des prompts.

Les chercheurs avancent une hypothèse simple : les grands modèles comprennent trop bien la poésie, la subtilité, la métaphore. Leur finesse linguistique devient une faiblesse.

Ce que les chercheurs ont testé concrètement

L’expérience repose pourtant sur une méthode très directe. Une base de mille deux cents prompts dangereux sert de terrain d’essai. Un modèle tiers les transforme en poèmes plus ou moins réussis. Les versions artisanales, écrites par les chercheurs, poussent encore plus loin l’efficacité.

La structure du texte se transforme, mais l’intention subsiste. Dans un exemple documenté, un système, trompé par un poème aux allures innocentes, a commencé à détailler le processus de fabrication d’un matériau nucléaire.

Le contraste entre le contenu et la présentation souligne la profondeur du problème : la sécurité des IA dépend trop souvent de la façon dont la demande est formulée, et pas de ce qu’elle cherche réellement à obtenir.

Une faiblesse structurelle des garde-fous actuels

Cette découverte met en lumière une fragilité structurelle. Les filtres actuels sont entraînés à repérer des signaux présents dans la prose classique : certains termes, certaines tournures, certains schémas syntaxiques.

Dès que ces repères disparaissent, l’analyse perd de sa précision. Le modèle interprète la demande comme un exercice littéraire, un jeu d’écriture, une sollicitation inoffensive. Son alignement, calibré sur une surface textuelle, se dissout dans l’ambiguïté stylistique.

Les modèles les plus puissants, ceux qui perçoivent le mieux la nuance, se retrouvent précisément là où ils sont les plus vulnérables.

Un nouveau type de menace pour la sécurité de l’IA

Les implications dépassent largement l’expérience universitaire. Transformer un prompt sensible en poème est trivial, et automatiser ce processus l’est encore davantage.

Un acteur malveillant pourrait générer des milliers de variations en quelques secondes, explorer toutes les failles, contourner tous les filtres, exfiltrer des réponses interdites en un rien de temps.

La sécurité des agents autonomes, des interfaces API, des systèmes intégrés dans des produits grand public pourrait se retrouver exposée. Les attaques deviennent plus difficiles à détecter, puisqu’elles se fondent dans un flux de texte apparemment inoffensif.

L’industrie face à un défi d’alignement beaucoup plus subtil

Ce décalage entre la forme et l’intention représente peut-être le défi le plus complexe pour les équipes d’alignement.

L’industrie devra revoir ses méthodes, analyser davantage ce que cherche réellement l’utilisateur plutôt que la surface des mots, concevoir des systèmes capables de comprendre la finalité derrière les métaphores.

Le problème touche à la fois à la linguistique, à la sécurité, à la robustesse des modèles et à leur interprétabilité. Il annonce une nouvelle catégorie de menaces, moins bruyantes, plus élégantes, mais redoutablement efficaces.

Quand la poésie devient un problème de cybersécurité

Au fond, la conclusion des chercheurs tient en une phrase : la poésie, cette forme d’expression vieille de plusieurs millénaires, vient d’exposer une faiblesse profonde au cœur des IA modernes.

Ce n’est ni un exploit technique ni un tour de force mathématique, simplement une manière différente d’écrire. Un détournement qui traverse les filtres comme s’ils n’existaient pas.

Ceux qui imaginaient les modèles parfaitement verrouillés découvrent aujourd’hui que quelques vers suffisent parfois à ouvrir des portes inattendues. Et que la cybersécurité, soudain, doit se méfier des rimes.

Et vous, qu’en pensez-vous ? Êtes-vous surpris par cette technique de jailbreak ? Quelle serait la solution pour éviter ces vulnérabilités ? Partagez votre avis en commentaire !

Cet article Ils ont découvert un jailbreak pour toutes les IA (et la technique va vous choquer) a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • McKinsey State of AI 2025 : 3 ans après la révolution, le bilan est (très) mitigé
    Trois ans après la grande ruée vers le gen AI, le soufflé retombe un peu : 88 % des entreprises utilisent déjà l’IA… mais seulement un tiers arrivent à la déployer sérieusement, et à peine 6 % en tirent une vraie performance business. C’est tout l’enseignement de la nouvelle enquête mondiale de McKinsey State of AI 2025 : l’IA est partout, mais l’impact se fait encore attendre.  La scène est connue : les équipes testent ChatGPT, bricolent des prototypes, créent un bot interne, et hop, présent

McKinsey State of AI 2025 : 3 ans après la révolution, le bilan est (très) mitigé

Par : Bastien L.
28 novembre 2025 à 11:58

Trois ans après la grande ruée vers le gen AI, le soufflé retombe un peu : 88 % des entreprises utilisent déjà l’IA… mais seulement un tiers arrivent à la déployer sérieusement, et à peine 6 % en tirent une vraie performance business. C’est tout l’enseignement de la nouvelle enquête mondiale de McKinsey State of AI 2025 : l’IA est partout, mais l’impact se fait encore attendre. 

La scène est connue : les équipes testent ChatGPT, bricolent des prototypes, créent un bot interne, et hop, présentation PowerPoint. Mais côté transformation, on repassera

McKinsey chiffre le phénomène : 88 % des organisations utilisent l’IA dans au moins une fonction, mais deux tiers sont encore coincées dans l’expérimentation ou le pilote.

Les grands groupes avancent plus vite : presque la moitié des entreprises à plus de 5 milliards de dollars de revenus sont entrées dans la phase “scaling”, quand seulement 29 % des petites (<100 M$) y arrivent. 

Le mur, ce n’est pas la technologie. C’est l’intégration réelle dans les workflows, les processus, les équipes.

Les agents IA fascinent… mais pour l’instant, ils courent surtout en rond

Imaginez un assistant ultra-puissant censé planifier, exécuter des tâches et automatiser des workflows complexes. Dans la réalité, pour l’instant, il prend surtout des cafés pendant les réunions.

McKinsey note pourtant une dynamique : 62 % des entreprises testent déjà des AI agents et 23 % en ont déployé à l’échelle dans au moins une fonction.

Mais la diffusion reste microscopique : dans n’importe quel département, moins de 10 % des entreprises ont des agents réellement déployés. 

En clair, c’est encore un gadget pour équipes IT et knowledge management. Les secteurs les plus avancés ? Tech, médias, télécoms et santé.

Innovation oui, EBIT non : l’IA sert surtout à briller en comité exécutif

On pourrait croire qu’avec ce niveau d’adoption, les comptes explosent. Raté. Seulement 39 % des entreprises déclarent un impact EBIT, et la plupart évoquent un effet inférieur à 5 %. L’IA semble fonctionner par micro-gains plutôt que par rupture.

Pourtant, l’impact qualitatif, lui, est bien là. 64 % affirment que l’IA accélère l’innovation, près de la moitié voient un gain de satisfaction client, et beaucoup parlent de différenciation face à la concurrence. 

Le vrai argent, pour l’instant, se niche ailleurs : la réduction de coûts en software engineering, IT et manufacturing, et les hausses de revenus en marketing, vente, finance et développement produit.

L’IA produit de la valeur, mais rarement de quoi bouleverser un P&L. C’est de la retouche, pas encore du remodelage.

Les “AI high performers” : ces 6 % qui montrent que l’IA peut réellement transformer un business

Vous connaissez le dicton : « Ce n’est pas la voiture, c’est le chauffeur. » Dans l’IA, c’est encore plus vrai. McKinsey isole un micro-groupe : 6 % des entreprises qui tirent un impact significatif (au moins +5 % d’EBIT) grâce à l’IA.

Ces champions affichent des comportements radicalement différents. Ils ne veulent pas “optimiser”, ils veulent “transformer”

 Ils redesignent leurs workflows (x3 par rapport aux autres), utilisent l’IA dans beaucoup plus de fonctions, adoptent les agents plus vite, et fixent des objectifs orientés croissance ou innovation plutôt que réduction de coûts.

Leur secret ? Un trio redoutable : ambition, leadership, et méthode. Le top management est trois fois plus engagé.

Les équipes travaillent en mode agile, les processus précisent où la validation humaine est obligatoire, les KPIs sont suivis, et les investissements sont massifs : un tiers y consacre plus de 20 % de leur budget digital.

L’emploi : entre prophéties d’effondrement et réalité plus nuancée

Petit clin d’œil à tous ceux qui annonçaient 100 millions de chômeurs dès 2024 : la vérité est moins cinématographique.

Sur l’année écoulée, la majorité des entreprises n’a vu aucun impact majeur sur ses effectifs. Moins de 20 % rapportent une baisse notable, et à peu près autant une hausse.

Les prévisions pour l’année prochaine, en revanche, se tendent : 30 % des entreprises anticipent une réduction d’effectifs dans certaines fonctions, contre 17 % l’an dernier. Et 32 % s’attendent à une baisse globale de plus de 3 % à l’échelle de l’entreprise.

Mais pendant ce temps… les recrutements explosent. Surtout dans les grands groupes. Data engineers, software engineers, ML engineers restent les profils les plus recherchés. Les organisations réduisent d’un côté, embauchent de l’autre : la redistribution des rôles avance, mais sans bascule brutale.

L’IA dérape parfois, et les entreprises commencent enfin à s’en soucier

On parle beaucoup de risques d’IA, mais jusque-là, peu d’organisations agissaient vraiment. Bonne nouvelle : ça bouge. 

En 2022, les entreprises ne géraient en moyenne que deux types de risques. En 2025… elles en traitent désormais quatre. Le réalisme progresse.

Et ce n’est pas du luxe : 51 % disent avoir déjà subi un incident lié à l’IA, essentiellement des erreurs factuelles. L’inexactitude est le risque n°1 rencontré et le n°1 mitigé. L’explicabilité, en revanche, reste un angle mort… alors même que c’est l’un des risques les plus fréquemment subis.

Sans surprise, les high performers sont ceux qui rencontrent le plus d’incidents… et ceux qui protègent le plus. Quand on déploie deux fois plus d’usages, les chances d’attraper un mur doublent aussi.

L’IA a quitté le stade du gadget, mais pas encore atteint celui de la transformation

Le tableau dressé par McKinsey est clair : l’IA s’installe partout, les agents arrivent, l’expérimentation explose, mais la transformation reste minoritaire

La majorité navigue encore entre curiosité et prudence. L’impact économique massif n’est visible que dans une poignée d’entreprises qui ont pris l’IA comme un chantier stratégique, pas comme un effet de mode.

La décennie qui vient sera celle du tri : entre ceux qui resteront dans les pilotes à répétition, et ceux qui réarchitectureront leur organisation pour capter la vraie valeur de l’IA. Aux entreprises de choisir leur camp.

Et vous, qu’en pensez-vous ? L’IA a-t-elle déjà un impact au sein de votre entreprise ? Avez-vous constaté d’importants changements ? Partagez votre avis en commentaire ! 

Cet article McKinsey State of AI 2025 : 3 ans après la révolution, le bilan est (très) mitigé a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • L’IA peut déjà remplacer 11% des emplois : l’étude choc du MIT
    L’IA fait vaciller le marché du travail américain : une nouvelle simulation du MIT révèle que plus d’un emploi sur dix pourrait déjà être automatisable. Une exposition bien plus large qu’anticipé, concentrée dans les métiers administratifs et financiers, et qui pourrait remodeler l’économie plus vite que prévu… y compris en France.  Le MIT vient de dévoiler un outil inédit : un jumeau numérique géant, conçu avec Oak Ridge National Laboratory, capable de simuler le comportement de 151 millions

L’IA peut déjà remplacer 11% des emplois : l’étude choc du MIT

Par : Bastien L.
27 novembre 2025 à 13:59

L’IA fait vaciller le marché du travail américain : une nouvelle simulation du MIT révèle que plus d’un emploi sur dix pourrait déjà être automatisable. Une exposition bien plus large qu’anticipé, concentrée dans les métiers administratifs et financiers, et qui pourrait remodeler l’économie plus vite que prévu… y compris en France. 

Le MIT vient de dévoiler un outil inédit : un jumeau numérique géant, conçu avec Oak Ridge National Laboratory, capable de simuler le comportement de 151 millions de travailleurs. 

Baptisé Iceberg Index, ce modèle ultra-détaillé cartographie 32 000 compétences et 923 métiers pour mesurer ce que les IA actuelles savent déjà faire. 

À la clé, une découverte déroutante : l’automatisation ne se concentre pas là où on l’attend, mais se diffuse silencieusement dans tout le pays, jusqu’aux comtés ruraux et aux fonctions de back-office que l’on croyait intouchables. C’est cette tectonique invisible que le MIT a choisi de mettre au jour.

Quand le MIT vous dit qu’il y a le feu, ce n’est pas pour tester l’alarme incendie

Le chiffre est brutal : 11,7 % des emplois américains pourraient être automatisés avec les capacités actuelles de l’IA. Pas dans cinq ans, pas dans dix. 

Maintenant. Cela représente 1,2 trillion de dollars de salaires exposés, un ordre de grandeur qui place le débat bien au-delà des licenciements spectaculaires observés dans la tech depuis un an.

Surtout, cette estimation s’accorde avec les signaux envoyés par les grandes firmes d’analyse. Goldman Sachs prévoit jusqu’à 300 millions d’emplois menacés dans le monde. McKinsey estime que, dans les emplois de bureau, entre 60 % et 70 % des tâches peuvent être automatisées. 

Et l’étude OpenAI + UPenn avait déjà montré que 80 % des travailleurs américains étaient exposés à au moins 10 % de leurs tâches automatisables. Le MIT ne donne donc pas dans l’alarmisme : il met des chiffres précis sur une tendance globale déjà confirmée ailleurs.

La carte du marché du travail ressemble soudain à un immense iceberg

Your daily reminder that we need to discuss the labor market situation!

MIT’s new “Iceberg Index” suggests today’s AI could already cover work equivalent to 11.7% of the entire U.S. wage bill – far beyond the visible tip of AI adoption in tech. I

nstead of just counting… pic.twitter.com/pgf23zsxF5

— Chubby♨️ (@kimmonismus) November 26, 2025

Pour quantifier ce choc, le MIT s’est allié à Oak Ridge National Laboratory, le centre fédéral doté du supercalculateur Frontier, l’un des plus puissants au monde. 

Ensemble, ils ont construit l’Iceberg Index, un modèle qui simule 151 millions de travailleurs, chacun traité comme un agent doté de compétences, tâches, métier et localisation.

Ce jumeau numérique cartographie 32 000 compétences, 923 métiers et 3 000 comtés américains. Il évalue, compétence par compétence, ce que les IA actuelles savent faire

Ce n’est pas un modèle de prédiction : c’est une photographie hyper détaillée de ce que l’IA pourrait automatiser si elle était déployée massivement aujourd’hui.

L’Iceberg Index fonctionne comme une version “Google Earth du marché du travail”, où l’on peut zoomer depuis une vision nationale jusqu’au bloc de recensement d’un quartier rural. 

Cette granularité change tout : elle permet d’observer les impacts avant qu’ils ne se manifestent réellement dans les chiffres d’emploi.

La vague IA n’arrive pas par où on l’attend : elle passe par la cave

Dans le discours médiatique, les victimes de l’IA semblent appartenir principalement à la tech. Pourtant, selon le MIT, l’exposition de ces métiers représente seulement 2,2 % du risque total, soit 211 milliards de dollars

Le vrai danger, celui que personne ne voit, se cache dans les métiers administratifs, financiers, RH, logistiques et comptables. C’est là que s’enfonce la partie immergée du trillion-dollar iceberg.

Le World Economic Forum l’observe également : la demande pour les métiers de secrétariat chute de 45 %, pour la saisie de données de 36 %, pour la comptabilité de 26 %

De plus, les économistes du MIT (Acemoglu & Restrepo) rappellent qu’automatiser seulement 10 % des tâches d’un métier peut réduire la demande globale pour ce métier de 5 à 15 %. Autrement dit : même une automatisation partielle déclenche un effet domino.

La Silicon Valley n’est plus le centre du monde… ni de l’automatisation

L’étude du MIT pulvérise un vieux préjugé : l’IA serait surtout une menace pour les ingénieurs costauds de la côte Ouest

En réalité, l’exposition est nationale. Les comtés du Nevada, de l’Arkansas, de l’Alabama ou du Mississippi affichent un risque supérieur à celui de San Francisco.

Une analyse du Brookings Institute avait déjà montré que 70 % des comtés américains sont exposés à l’automatisation. L’Iceberg Index confirme que les zones rurales et industrielles, souvent oubliées dans le débat sur l’IA, sont en première ligne. 

À l’inverse, certains États très technologiques comme le Massachusetts ou la Californie sont paradoxalement plus résilients grâce à un niveau de formation élevé.

Pour une fois, les politiques ne sont pas en retard de deux wagons

Contrairement à l’Europe où l’on crée un comité pour réfléchir à la création d’un comité, plusieurs États américains ont déjà utilisé l’Iceberg Index pour anticiper les chocs. 

Tennessee a même intégré les conclusions dans son AI Workforce Action Plan officiel. Utah prépare un rapport équivalent, tandis que la Caroline du Nord s’en sert pour analyser l’impact de l’IA sur le PIB local.

La sénatrice DeAndrea Salvador résume l’intérêt de l’outil : on peut visualiser, bloc par bloc, les compétences menacées, les emplois susceptibles de disparaître et l’impact sur la croissance locale. Pour la première fois, des politiques peuvent tester des scénarios sans attendre qu’une crise frappe.

Les robots n’ont pas encore de muscles, mais ils s’échauffent

Les chercheurs du MIT notent que les secteurs nécessitant un travail physique  (manufacturing, énergie, santé, transport) résistent mieux à l’IA générative. Principalement parce que l’automatisation y demande à la fois IA + robotique, une combinaison encore coûteuse et techniquement complexe.

Mais cette protection est temporaire. Selon la Fédération Internationale de Robotique, le monde comptera 5 millions de robots industriels en 2027

Et plusieurs experts estiment que le coût d’un humanoïde polyvalent pourrait tomber sous les 20 à 30 000 dollars d’ici 2030

Cette convergence IA + robotique est un tsunami en préparation. L’Iceberg Index montre que l’impact n’est pas encore là… mais la fenêtre de répit se réduit.

Corriger la trajectoire coûtera peut-être plus cher que la crise elle-même.

Former un travailleur américain à un nouveau métier coûte entre 20 000 et 60 000 dollars selon le Bureau of Labor Statistics.

 Si les 11,7 % de travailleurs exposés devaient être réorientés, la facture grimperait entre 1,8 et 5,4 trillions de dollars. Autrement dit : gérer l’impact de l’automatisation pourrait coûter plus cher que les salaires exposés eux-mêmes.

Cette donnée bouleverse le débat. Le problème n’est plus : “l’IA va-t-elle remplacer des emplois ?” La vraie question devient : “peut-on se payer la transition ?

Et en Europe, que se passe-t-il ?

Difficile de lire l’étude du MIT sans y voir un miroir pour l’Europe. Sur le Vieux Continent, les signaux convergent : entre 37 % et 69 % des emplois européens pourraient être partiellement automatisables dans les prochaines années, et 30 % des salariés de l’UE utilisent déjà des outils d’IA dans leurs tâches quotidiennes. 

En France, la tendance s’accélère : en 2024, 10 % des entreprises de plus de dix salariés déclaraient employer au moins une technologie d’IA, surtout dans le traitement de données, le langage ou l’automatisation décisionnelle. Un écho direct aux métiers administratifs et financiers identifiés comme “zone rouge” par l’Iceberg Index.

Mais l’Europe fait face à un défi plus structurel : l’accès inégal à la formation. Alors que les États-Unis commencent à tester l’impact de l’IA via des simulateurs à l’échelle d’un État, une partie des travailleurs européens n’a toujours pas accès aux compétences nécessaires pour affronter ce tournant. 

Le risque est clair : une fracture entre ceux qui savent manier ces outils et ceux qui ne le peuvent pas. L’opportunité l’est tout autant : l’IA pourrait relancer la productivité, moderniser l’industrie et soutenir des relocalisations… à condition d’investir massivement dans la montée en compétence.

L’étude du MIT n’est donc pas seulement un panoramique américain : c’est un avertissement global. Si l’Europe ne veut pas découvrir son propre iceberg trop tard, elle devra, elle aussi, cartographier le travail avant que la vague n’arrive…

Et vous, qu’en pensez-vous ? Craignez-vous que votre métier soit automatisé dans les années à venir ? Prévoyez-vous de vous reconvertir ? Partagez votre avis en commentaire ! 

Cet article L’IA peut déjà remplacer 11% des emplois : l’étude choc du MIT a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ChatGPT Shopping Research : l’IA compare les prix pour vous, à temps pour Black Friday
    ChatGPT accueille Shopping Research, une fonction qui transforme l’assistant en véritable analyste de prix capable de vérifier les offres en temps réel et de construire un guide d’achat sur mesure. Un outil lancé juste avant le Black Friday, pensé pour aider à repérer les bonnes affaires sans se laisser piéger par l’emballage marketing. OpenAI ajoute une pièce maîtresse à son assistant : Shopping Research, une fonction qui transforme ChatGPT en véritable conseiller d’achat capable de vérifier

ChatGPT Shopping Research : l’IA compare les prix pour vous, à temps pour Black Friday

Par : Bastien L.
25 novembre 2025 à 16:33

ChatGPT accueille Shopping Research, une fonction qui transforme l’assistant en véritable analyste de prix capable de vérifier les offres en temps réel et de construire un guide d’achat sur mesure. Un outil lancé juste avant le Black Friday, pensé pour aider à repérer les bonnes affaires sans se laisser piéger par l’emballage marketing.

OpenAI ajoute une pièce maîtresse à son assistant : Shopping Research, une fonction qui transforme ChatGPT en véritable conseiller d’achat capable de vérifier les prix en temps réel et d’évaluer la valeur réelle d’un deal.

Le lancement tombe pile au moment où les promotions s’accélèrent, avec une ambition claire : éviter à l’utilisateur de se perdre dans les fausses bonnes affaires de fin d’année.

Une nouvelle fonction pensée pour éviter les « faux bons plans »

Introducing shopping research, a new experience in ChatGPT that does the research to help you find the right products.

It’s everything you like about deep research but with an interactive interface to help you make smarter purchasing decisions. pic.twitter.com/jksGVpCXGm

— OpenAI (@OpenAI) November 24, 2025

Jusqu’ici, les chatbots donnaient des avis approximatifs dès qu’il s’agissait de prix, d’historique de promotions ou de comparaison précise entre deux produits. Ils savaient recommander, mais pas mesurer la pertinence d’une réduction. Shopping Research vient combler cette lacune.

Au lieu de proposer une réponse générique, la fonction s’appuie désormais sur des recherches web actualisées pour juger ce qu’une offre vaut réellement au moment où la question est posée. Le timing n’a rien d’un hasard : en pleine saison Black Friday, la frontière entre une vraie réduction et une étiquette gonflée est souvent floue, et OpenAI joue ici la carte de la transparence.

Comment fonctionne vraiment Shopping Research

chatgpt shopping research assistant

L’expérience commence par une simple phrase en langage naturel. On décrit le produit ou l’usage souhaité, et ChatGPT propose d’activer Shopping Research. La discussion s’affine au fil de quelques questions courtes, le temps d’identifier le budget, l’environnement, les préférences et le contexte d’utilisation.

Une fois ces détails posés, l’assistant va chercher des informations à jour, récupère les données de prix, analyse les alternatives et condense l’ensemble dans un guide d’achat personnalisé. Le résultat tient en une page claire où les différences entre modèles émergent sans jargon.

Plus besoin de jongler entre comparatifs, tests et onglets de marchands : ChatGPT centralise tout dans un document unique, pensé pour décider vite.

Un assistant d’achat complet pour les produits techniques

La fonction donne sa pleine mesure sur les achats où l’utilisateur hésite habituellement le plus. Une télé pour une pièce lumineuse, un casque audio pour les trajets quotidiens, un robot de cuisine polyvalent, un VTT d’entrée de gamme ou un smartphone milieu de gamme : Shopping Research sait décortiquer les critères, expliquer les compromis et pointer ce qui justifie l’écart de prix entre deux références proches.

L’outil met aussi en lumière des détails que les comparateurs négligent, comme la pertinence d’un mode HDR particulier, l’intérêt d’un panneau plus lumineux dans un salon très exposé, ou la différence réelle entre deux batteries annoncées “longue durée”.

Ce genre de précision fait gagner du temps dans l’un des moments de l’année où tout le monde cherche à optimiser son budget.

Shopping Research se branche à Pulse pour les utilisateurs Pro

Pour ceux qui utilisent Pulse, la lettre quotidienne personnalisée de ChatGPT, l’intégration est immédiate. Pulse peut désormais suggérer de lui-même des guides d’achat pertinents, inspirés des conversations des jours précédents.

Un utilisateur qui discute de PC portables, de running ou de photographie peut voir apparaître un guide adapté avant même d’avoir formulé une requête. Cette proactivité crée une dynamique nouvelle : l’assistant ne répond plus seulement aux questions, il anticipe les besoins et propose des synthèses prêtes à l’emploi.

Un avant-goût du futur : l’achat direct dans ChatGPT

Pour l’instant, l’achat final se déroule encore sur le site du marchand. ChatGPT redirige vers les liens correspondants, sans intermédiaire. Mais OpenAI annonce déjà un Instant Checkout intégré, qui permettrait de finaliser une commande directement dans l’interface.

L’enjeu dépasse le simple confort utilisateur : une telle évolution placerait ChatGPT au cœur de la chaîne de décision et de transaction, dans un rôle que ni les comparateurs ni les assistants vocaux n’ont réussi à occuper durablement. L’écosystème e-commerce pourrait en être profondément modifié.

Ce que ça change pour le Black Friday 2025

L’arrivée de Shopping Research marque une bascule dans le rapport aux promotions. L’utilisateur gagne un outil capable de filtrer le bruit, de mesurer la fiabilité d’une réduction et de présenter des choix éclairés en quelques minutes. Dans un moment où la saturation publicitaire brouille les repères, une synthèse claire et personnalisée fait toute la différence.

Et plus largement, cette fonction ouvre une nouvelle phase pour les assistants IA : celle où ils ne se contentent plus de commenter la technologie, mais s’immiscent dans les décisions concrètes du quotidien, à commencer par les achats du Black Friday.

Et vous, qu’en pensez-vous ? Allez-vous utiliser ce nouveau comparateur de prix Shopping Assistant intégré à ChatGPT ? Partagez votre avis en commentaire !

Cet article ChatGPT Shopping Research : l’IA compare les prix pour vous, à temps pour Black Friday a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Gemini 3 : ce leak révèle la panique d’OpenAI face à l’IA qui ratatine ChatGPT
    Gemini 3 Pro vient à peine de frapper que déjà les murs tremblent chez OpenAI. Un mémo interne de Sam Altman, fraîchement leaké, dévoile une ambiance à mille lieues du storytelling habituel. “Rough vibes”, “catching up fast”, stagnation des revenus… Le leader historique de l’IA ne fanfaronne plus : il encaisse. Et face à un Google revenu en mode bulldozer, l’aura d’invincibilité de ChatGPT se fissure. Pendant deux ans, la guerre Google–OpenAI ressemblait à la Ligue 1 : un leader incontesté, u

Gemini 3 : ce leak révèle la panique d’OpenAI face à l’IA qui ratatine ChatGPT

Par : Bastien L.
21 novembre 2025 à 14:53

Gemini 3 Pro vient à peine de frapper que déjà les murs tremblent chez OpenAI. Un mémo interne de Sam Altman, fraîchement leaké, dévoile une ambiance à mille lieues du storytelling habituel. “Rough vibes”, “catching up fast”, stagnation des revenus… Le leader historique de l’IA ne fanfaronne plus : il encaisse. Et face à un Google revenu en mode bulldozer, l’aura d’invincibilité de ChatGPT se fissure.

Pendant deux ans, la guerre Google–OpenAI ressemblait à la Ligue 1 : un leader incontesté, un poursuivant un peu essoufflé, et un suspense surtout imaginé par le marketing. Puis Gemini 3 Pro est arrivé, et tout le scénario a volé en éclats.

Ce que personne n’attendait, ou du moins pas si tôt, c’est un mea culpa interne de Sam Altman lui-même. Un mémo confidentiel qui tranche avec l’assurance publique de l’entreprise et révèle un OpenAI qui doute, qui rame et qui commence à regarder Google avec une inquiétude palpable.

Altman en mode “rough vibes” : quand le boss avoue ce qu’il cache au public

“Ambiances rudes.” On croirait presque un euphémisme de startuper pour dire “tout le monde panique discrètement, mais gardons le sourire”. C’est pourtant le terme exact utilisé par Sam Altman dans son message aux employés.

Le ton tranche radicalement avec sa rhétorique habituelle à base de croissance infinie, de trillion-dollar company et de “nous sommes en avance sur tout le monde”

Cette fois, le CEO reconnaît que le moral interne est en berne, que la boîte n’est “pas invincible” et surtout… qu’elle est désormais en mode “catching up fast”.

Oui : OpenAI court derrière Google.
Et ça, en interne, ça secoue.

Les salariés, eux, oscillent entre gratitude pour la transparence et grosse montée de stress. Les rumeurs d’un gel des embauches circulent déjà. Et l’ambiance de San Francisco, autrefois “gagnant par défaut”, vire doucement à la mentalité “mode guerre”.

Google repasse devant : le moment où Gemini 3 a brisé le mythe de la supériorité OpenAI

https://twitter.com/OfficialLoganK/status/1991327656990896372?s=20

Imaginez un duel d’escrime où l’un des deux tireurs avance en sifflotant, sûr de son talent… et se prend un coup de fleuret en plein menton. C’est à peu près ce que ressent OpenAI après Gemini 3 Pro.

Les benchmarks indépendants sont sans ambiguïté : Gemini 3 Pro surclasse GPT-5.1 dans le raisonnement complexe, le code, l’analyse logique, et les enchaînements multi-étapes.

Le fameux “moat”, l’avantage prétendument infranchissable d’OpenAI, s’est évaporé en quelques semaines. De quoi transformer la confiance en fébrilité.

OpenAI, qui depuis 2023 se voyait comme le seul adulte dans la pièce, découvre soudain que Google a retrouvé sa puissance, son ambition et son avance en compute. Pour la première fois depuis GPT-4, la hiérarchie n’est plus évidente.

La chute libre : OpenAI prépare un ralentissement brutal de ses revenus

Petit aparté comptable : mieux vaut s’asseoir.

Altman prévient ses troupes que la croissance pourrait dégringoler à 5–10% en 2026 dans le scénario pessimiste. Un crash vertigineux quand on rappelle qu’OpenAI tournait encore à +200% il y a peu.

Côté finances, l’atterrissage est violent. La société projette un passif opérationnel de 74 milliards de dollars d’ici 2028. Un gouffre jamais vu dans la tech. Et soudain, la phrase d’Altman “la rentabilité n’est pas une priorité” sonne beaucoup moins cool.

Ce ralentissement remet en question un modèle bâti sur la combustion massive de GPU et une croissance illimitée. Si les revenus stagnent avant que l’infrastructure n’ait le temps de se rentabiliser, la corde financière pourrait devenir très fine.

L’illusion de la demande infinie : le vrai problème, c’est l’entreprise qui ne suit plus

Everyone's debating whether Gemini 3 is smarter than GPT-5.

But they're missing what just happened:

While OpenAI screamed from the rooftops and failed.

Google launched the most powerful AI in history with ZERO hype.

And this just exposed the biggest lie in the AI industry:… pic.twitter.com/IC5zarFYTs

— Zyan (@ZyanBizBoost) November 20, 2025

Vous avez déjà vu ces POCs d’IA qui dorment dans des dossiers Drive poussiéreux ? Eh bien, à l’échelle mondiale, c’est pareil.

Le mémo cite des freins très précis : Microsoft temporise des intégrations Azure AI faute de capacité… mais aussi faute de ROI clair. Salesforce ralentit ses pilotes GPT, préférant attendre que l’IA tienne ses promesses.

Et dans le reste du marché, c’est pire : 95% des pilotes GenAI n’aboutissent jamais en production.

Le contexte macro se durcit également : les hyperscalers ont fait exploser leurs dépenses, avec près de 400 milliards de dollars annuels en data centers. Un chiffre monstrueux… pour un usage qui peine à se transformer en chiffre d’affaires.

Greg Brockman, fidèle à la doctrine OpenAI, persiste : “le vrai risque, c’est de ne pas avoir assez de compute.”

Mais ce dogme du “plus de GPU = plus de valeur” se heurte à un marché qui freine des deux pieds.

OpenAI en mode survie : finie l’ère du “vainqueur par défaut”

C’était la boîte qui dominait tout : benchmarks, hype, mindshare, levées de fonds.
C’était.

Le leak montre une organisation obligée de redevenir humble, rapide, disciplinée. Un OpenAI qui ne peut plus compter sur son aura, mais doit prouver qu’il peut rattraper Google et retrouver un modèle économique durable.

Dans la Silicon Valley, le narratif OpenAI a toujours été un bouclier. Maintenant, ce bouclier se fissure. Et les investisseurs, qui acceptaient hier des pertes illimitées, commencent à poser des questions nettement plus terre-à-terre.

La guerre n’est pas finie, mais la peur a changé de camp

Great to see Sam and Elon congratulating the Google team on Gemini 3.

Wild idea: What if US AI labs joined forces on AGI?

The top model changes daily. A combined OpenAI, DeepMind, and xAI could get us to AGI faster, safer, and with far less wasted energy & compute. pic.twitter.com/fBr2FgchnZ

— Yuchen Jin (@Yuchenj_UW) November 18, 2025

Gemini 3 a fait plus que battre OpenAI sur des benchmarks : il a fait tomber la façade de confiance absolue qui entourait ChatGPT.

OpenAI n’est pas fini, loin de là. Mais pour la première fois, l’entreprise doit se battre, s’adapter et revoir sa trajectoire. Car la course n’est plus seulement technique : elle devient financière, stratégique et psychologique.

Et une question plane désormais sur toute l’industrie : si même OpenAI doute, qui peut encore prétendre maîtriser l’avenir de l’IA ?

Et vous, qu’en pensez-vous ? Comment OpenAI peut-il revenir face à Google ? La startup est-elle condamnée à disparaître face à la puissance du GAFAM ? Partagez votre avis en commentaire ! 

Cet article Gemini 3 : ce leak révèle la panique d’OpenAI face à l’IA qui ratatine ChatGPT a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Formation Prompt Engineer : comment devenir maître de l’IA générative ?
    Vous avez toujours rêvé de travailler dans l’IA, sans forcément détenir de compétences techniques en Data Science ou Machine Learning ? Découvrez tout l’intérêt de suivre une formation de Prompt Engineer, pour tirer profit de votre talent littéraire et de votre créativité ! L’intelligence artificielle générative est en train de révolutionner le monde de l’entreprise. Dans tous les secteurs, les outils comme ChatGPT ou MidJourney permettent d’automatiser de nombreuses tâches. Si l’on peut r

Formation Prompt Engineer : comment devenir maître de l’IA générative ?

Par : Bastien L.
20 novembre 2025 à 16:00

Vous avez toujours rêvé de travailler dans l’IA, sans forcément détenir de compétences techniques en Data Science ou Machine Learning ? Découvrez tout l’intérêt de suivre une formation de Prompt Engineer, pour tirer profit de votre talent littéraire et de votre créativité !

L’intelligence artificielle générative est en train de révolutionner le monde de l’entreprise. Dans tous les secteurs, les outils comme ChatGPT ou MidJourney permettent d’automatiser de nombreuses tâches.

Si l’on peut redouter un grand remplacement du travail humain, cette technologie va aussi permettre une explosion de la productivité et stimuler massivement l’économie.

Toutefois, comprendre la façon dont les modèles de langages comme GPT se comportent est tout un art. Même les plus grands experts techniques ne sont pas forcément capables de maîtriser ces IA.

C’est la raison pour laquelle les personnes capables de communiquer avec ces outils sont désormais très recherchées en entreprise. On les appelle les Prompt Engineers, et le salaire pour ce métier peut dépasser 335 000 dollars par an…

Qu’est-ce que le Prompt Engineering ?

L’ingénierie de prompt est une puissante méthode pour optimiser les résultats produits par les IA génératives comme ChatGPT ou MidJourney.

Cette discipline consiste à créer des prompts efficaces, telles que des questions ou des instructions, afin de diriger le comportement et la production des modèles IA.

Elle implique de créer des prompts précis et complets, minutieusement structurés, permettant aux utilisateurs d’obtenir exactement les résultats souhaités.

C’est en 2017, avec l’invention des Transformers par Google, que le Prompt Engineering a pris son envol. Ces modèles de langage d’un genre nouveau se distinguent par leur compréhension du contexte et leur adaptabilité.

Il est possible de les pré-entrainer à grande échelle et de leur apprendre à représenter les mots et les phrases en contexte. Cette innovation a notamment permis à OpenAI de créer GPT (Generative Pre-Trained) en 2018.

Dès lors, les chercheurs ont commencé à user de techniques d’ingénierie rapide pour diriger ces LLM (larges modèles de langage). Différentes approches et stratégies ont été expérimentées.

En guise d’exemple, on peut citer la conception de prompts riches en contexte, l’utilisation de templates basés sur des règles, l’incorporation d’instructions, ou l’exploration de techniques comme le prefix tuning.

Le but était d’étendre le contrôle, de limiter les biais et d’accroître les performances globales des modèles de langage. Au fil du temps, l’ingénierie de prompts s’est popularisée parmi les experts en NLP et les programmeurs à travers des publications scientifiques, des forums de discussions ou même des bibliothèques open-source.

C.A.R.T.E.L. et le raisonnement contrôlé

Toutefois, l’évolution rapide des modèles de langage, particulièrement avec l’arrivée de systèmes très puissants comme ChatGPT-5 en fin d’année 2025, a intensifié le besoin de structure. Ces modèles, plus exigeants et basés sur un « raisonnement contrôlé ». Ils requièrent désormais une « grammaire du raisonnement » claire pour activer leur plein potentiel et éviter les réponses génériques.

C’est dans ce contexte qu’émerge la Méthode C.A.R.T.E.L. (Contexte, Audience, Rôle, Tâche, Exemple, Livrable), une approche qui décompose la requête en six éléments logiques. Chaque composante, du rôle assigné à l’IA jusqu’au format exact du livrable attendu, agit comme un repère précis.

Cette structuration avancée permet donc à l’IA d’intégrer des nuances complexes et de fournir des résultats extrêmement précis et contextualisés. Cette tendance récente, met l’accent sur la « communication intentionnelle ». Et elle confirme que le Prompt Engineering est une discipline rigoureuse, allant au-delà de la simple clarté pour encadrer le processus cognitif de l’IA .

À quoi sert l’ingénierie de prompts ?

L’ingénierie de prompts est indispensable pour améliorer l’utilisation et l’interprétabilité des systèmes IA. Les avantages sont nombreux.

Tout d’abord, en donnant des instructions claires par le biais des prompts, il devient possible de diriger le modèle de langage pour générer les réponses souhaitées. C’est donc un moyen de contrôler l’IA de façon précise.

Il s’agit aussi d’une manière de réduire les biais dans les résultats, ou même de modifier le comportement d’un modèle de langage pour permettre à l’IA de devenir experte dans un domaine ou une tâche particulière.

Face à l’essor des outils d’intelligence artificielle au cours des derniers mois, certains considèrent que le prompting va devenir l’interface du futur. C’est pourquoi les entreprises recherchent désormais des experts capables de manier ces solutions à la perfection : les Prompt Engineers.

Qu’est-ce qu’un Prompt Engineer ?

Contrairement aux idées reçues, un Prompt Engineer n’est pas forcément un expert technique. Ce métier requiert avant tout des compétences universelles qui ne sont pas limitées au domaine de l’informatique.

Ainsi, l’essor de l’ingénierie de prompt ouvre la voie de l’IA générative aux personnes créatives avec une large diversité de compétences.

En janvier 2023, l’ancien directeur de l’IA de Tesla, Andrej Karpathy, affirmait sur Twitter que « le nouveau langage de programmation le plus à la mode est l’anglais ».

Et même si certaines organisations comme le Boston Children Hospital ont publié des offres d’emploi pour des Prompt Engineers avec plusieurs années d’expérience en ingénierie ou en code informatique, ce n’est pas toujours indispensable.

Par exemple, le site Business Insider a relayé l’histoire d’Anna Berstein : une rédactrice et assistante de recherche historique devenue Prompt Engineer chez Copy.ai.

De même, la startup Anthropic a publié une offre d’emploi pour un Prompt Engineer et encourage les candidats à postuler même s’ils n’ont pas un haut niveau de familiarité avec l’utilisation des Larges Modèles de Langage.

anthropic offre emploi

Pour cause, un bon Prompt Engineer doit avant tout compenser les limites de l’IA. Par exemple, même si les chatbots sont très bons en syntaxe et vocabulaire, ils n’ont pas d’expérience concrète du monde. C’est à l’ingénieur de leur prêter ses 5 sens.

Parmi les compétences non techniques que doit posséder ce professionnel, on compte la communication, l’expertise métier, la maîtrise de la langue, l’esprit critique et la créativité.

Certains experts s’interrogent sur la pertinence de rôle à long terme, car les IA génératives vont évoluer rapidement. Il sera bientôt possible d’obtenir de meilleurs résultats même avec des prompts minimalistes.

Pour l’heure, toutefois, il s’agit d’un métier en plein essor. Suivre une formation de Prompt Engineer dès maintenant peut vous permettre d’accéder à de nombreuses opportunités !

Comment fonctionne l’ingénierie de prompts ?

Afin de créer de puissants prompts, l’ingénieur s’appuie sur un processus méthodique. Il commence par fixer clairement le but ou l’objectif qu’il souhaite que le modèle de langage atteigne : complétion de texte, traduction, synthèse…

Dans un second temps, il définit les « inputs » (entrées) requis pour le modèle de langage et les résultats (ouputs) désirés.

L’étape suivante consiste à créer des prompts communiquant clairement au modèle le comportement attendu. Les questions doivent être claires, concises et adaptées au but visé. Ceci peut nécessiter plusieurs tentatives et modifications.

Afin de tester l’efficacité de ses prompts, l’ingénieur les teste en les donnant à un modèle de langage et évalue les résultats. Il cherche aussi les failles et modifie ses instructions de manière itérative pour accroître les performances.

Enfin, en fonction des résultats de ces évaluations, il calibre et perfectionne ses prompts par le biais d’ajustements mineurs.

Pourquoi suivre une formation Prompt Engineer ?

Le métier de Prompt Engineer est désormais considéré comme l’une des professions les plus en vogue dans le domaine de la technologie.

Les entreprises recherchent ces experts afin de les aider à entraîner et adapter les outils IA à leurs activités, afin d’exploiter toutes les possibilités offertes par cette puissante technologie.

De manière générale, la demande pour les professionnels capables de comprendre et de travailler avec les outils IA est en plein essor.

Sur LinkedIn, le nombre d’offres d’emploi mentionnant l’IA générative a été multiplié par 36 entre 2022 et 2023. De même, entre 2021 et 2022, le nombre d’offres contenant « GPT » a augmenté de 51%.

Or, certains de ces postes sont accessibles même aux personnes sans bagage technique. C’est donc une occasion rêvée pour commencer une carrière dans le domaine d’avenir de l’IA et de la tech.

Et les salaires peuvent atteindre des montants mirobolants. Par exemple, la startup Anthropic propose 335 000 dollars par an pour un poste de Prompt Engineer à San Francisco. Les candidats doivent avoir « l’esprit d’un hacker créatif » et « aimer résoudre des puzzles ».

De son côté, Klarity propose 230 000 dollars pour un poste de machine learning engineer capable de « prompter et comprendre comment produire le meilleur résultat » avec les outils IA.

Le cabinet de conseil Booz Allen Hamilton a proposé un poste de Prompt Engineer à 210 000 dollars pour les candidats avec plus de trois ans d’expérience dans l’implémentation des modèles de machine learning.

Même l’acteur Donald Glover cherche à recruter un ingénieur et un animateur de prompt pour son nouveau studio de création.

Ainsi, suivre une formation de Prompt Engineer peut vous permettre d’accéder à de nombreuses opportunités d’emploi hautement rémunérées et vous ouvrir de nouvelles portes pour le futur.

Les meilleures formations Prompt Engineer

Il existe déjà de nombreuses formations Prompt Engineer. Sur YouTube, beaucoup de vidéos de tutoriels permettent d’apprendre l’art du prompting.

Par exemple, Isa Fulford d’OpenAI et Andrew NG de DeepLearning.AI proposent une formation d’introduction très instructive.

Vous pouvez aussi découvrir des guides gratuits comme ceux de Learn Prompting. La plateforme PrompHero propose également un Crash Course en ligne à 99 dollars.

Les plateformes de formation comme Udemy et Coursera ont d’ores et déjà créé des formations dédiées aux Prompt Engineers.

En guise d’alternative, vous pouvez apprendre en autodidacte en étudiant les prompts prêts à l’usage sur des plateformes comme PromptHero ou FlowGPT.

Une tendance éphémère ?

Malgré la forte demande, certains experts pensent que l’ingénierie de prompt n’est qu’une tendance éphémère.

L’IA évolue rapidement, et pourrait vite devenir capable de générer ses propres prompts. Par conséquent, le métier de Prompt Engineer serait totalement inutile.

Ainsi, si vous envisagez d’apprendre cette profession, le professeur Ethan Mollick de l’Université de Pennsylvanie recommande de faire preuve d’une extrême prudence.

Selon lui, « il n’est pas clair que l’ingénierie de prompts va compter à long terme puisque les programmes IA deviennent meilleurs pour anticiper les besoins des utilisateurs et pour générer des prompts ».

De plus, « nous ne savons pas non plus s’il y a une compétence spécifique impliquée dans l’ingénierie de prompt où si elle requiert juste de passer beaucoup de temps avec les chatbots ».

Toujours d’après Lennon, « ce sont des métiers que seulement 500 personnes peuvent faire à l’heure actuelle, donc les salaires sont fous, mais dans six mois 50 000 personnes seront capables de faire ce job ».

Il estime donc que la valeur de cette connaissance est plus élevée aujourd’hui qu’elle ne le sera demain. On peut s’attendre à ce que les salaires élevés proposés à l’heure actuelle diminuent rapidement.

Plutôt que d’opter pour une formation en ligne payante, il peut donc être pertinent d’expérimenter par soi-même les larges modèles de langage comme GPT et Bard afin de développer sa propre approche du prompting.

C’est d’autant plus judicieux que les systèmes IA changent si vite que les prompts qui fonctionnent aujourd’hui ne le feront pas forcément dans le futur. Les enseignements d’une formation pourraient devenir obsolètes en quelques semaines…

Émergence de l’IA autonome : fin du métier de Prompt Engineer ?

Le métier de Prompt Engineer connaît aujourd’hui un recul marqué. Cette évolution est principalement liée à l’émergence d’outils et de techniques intelligentes capables d’optimiser automatiquement les prompts, sans intervention humaine directe.

Des approches comme Prochemy ou GAAPO utilisent respectivement l’ajustement automatique de textes et les algorithmes génétiques pour affiner les requêtes envoyées aux modèles IA. Ce qui offre une amélioration significative de la qualité des réponses générées.

En conséquence, ces innovations réduisent la nécessité d’une expertise humaine pointue dans la formulation de prompts. Auparavant, des ingénieurs spécialisés et des personnes hautement créatives y passaient des heures à tester et affiner des formulations pour obtenir un résultat optimal. Les systèmes automatisés effectuent actuellement ce travail en quelques secondes, et ce, avec une efficacité souvent supérieure. De la sorte, les entreprises revoient leurs besoins.

Selon des études récentes, le poste de Prompt Engineer figure désormais parmi les moins recherchés dans les perspectives d’embauche à court terme. Le marché évolue vers des profils plus polyvalents, capables d’exploiter des outils automatisés plutôt que de concevoir manuellement des requêtes.

Cela-dit, le métier ne disparaît pas totalement, mais il se transforme profondément, à mesure que l’IA devient capable… de mieux se comprendre elle-même.

Évolution du métier : du Prompt Engineer au rôle d’AI Interaction Designer

L’année 2025 s’écoule vite parallèlement à une mutation rapide du métier de Prompt Engineer. Les entreprises ne recrutent plus uniquement des profils capables de rédiger des instructions efficaces pour ChatGPT, MidJourney ou Claude. Elles recherchent davantage d’experts capables de concevoir une véritable expérience utilisateur avec l’IA. C’est justement pour répondre à ce besoin qu’émerge la fonction d’AI Interaction Designer.

Ce nouveau rôle consiste à dépasser la simple création de prompts pour intégrer des compétences en UX design, communication et stratégie numérique. L’objectif est d’optimiser le dialogue entre l’humain et la machine. Ceci, afin de garantir des résultats plus pertinents et mieux contextualisés.

Cette évolution traduit une tendance forte. En réalité, le marché se tourne vers des profils créatifs et transversaux, capables de relier langage, technologie et expérience client. Pour les candidats, cela signifie que le futur du Prompt Engineering s’ouvre à une vision plus globale de l’interaction homme-IA.

Formations 2025 : certifications et diplômes émergents dans le Prompt Engineering

Pour répondre à la forte demande d’AI Interaction Designer, les formations en Prompt Engineering franchissent un nouveau cap. Alors que les cours en ligne gratuits et les tutoriels dominaient jusqu’ici, nous voyons apparaître des certifications professionnelles et même des diplômes universitaires spécialisés.

Aujourd’hui, plusieurs écoles d’ingénieurs et universités, en Europe comme aux États-Unis, proposent des parcours spécialisés en IA. Certains sont axés sur le Prompt Design, d’autres,sur l’éthique de l’IA générative et la conception d’expériences conversationnelles. Ces formations permettent aux étudiants et aux professionnels de se distinguer pour faire face à la mutation rapide du secteur.

En parallèle, des plateformes comme Coursera, Udemy et DeepLearning.AI enrichissent leurs catalogues avec des cursus plus avancés. Les formations intègrent en fait des cas pratiques adaptés aux besoins des entreprises. Cette tendance reflète une volonté claire de normaliser et structurer l’apprentissage du Prompt Engineering. Ce domaine se place alors au même niveau que d’autres disciplines de l’intelligence artificielle.

FAQ sur le métier de Prompt Engineer en 2025

Le métier de Prompt Engineer existe-t-il toujours en 2025 ?

Oui, mais il a évolué. Si la rédaction de prompts simples peut désormais être automatisée par des outils d’IA, les entreprises recherchent des profils capables de concevoir des interactions plus complexes. Le rôle s’oriente vers l’AI Interaction Design, où la créativité, l’UX et la stratégie d’usage prennent une place centrale.

Quelles compétences faut-il développer pour devenir Prompt Engineer aujourd’hui ?


En plus de la maîtrise du langage naturel, les candidats doivent développer des compétences en communication, UX design, stratégie digitale et analyse critique. La technique pure devient moins prioritaire face à l’importance du contexte et de la pertinence des réponses générées par l’IA.

Existe-t-il des formations diplômantes en 2025 ?

Oui. Plusieurs universités et écoles d’ingénieurs proposent désormais des certifications professionnelles et des diplômes spécialisés en Prompt Engineering et IA générative. Ces cursus permettent de se démarquer sur un marché compétitif et en constante évolution.

Le métier de Prompt Engineer a-t-il un avenir à long terme ?

Le rôle ne disparaît pas, mais il se transforme. À mesure que l’IA devient autonome, le Prompt Engineer évolue vers un profil plus stratégique, capable de guider la conception et l’intégration de solutions intelligentes dans les organisations.

Cet article Formation Prompt Engineer : comment devenir maître de l’IA générative ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Gemini 3 Pro : comment essayer la (nouvelle) meilleure IA en France ?
    Gemini 3 Pro débarque enfin. Plus rapide, plus malin, plus visuel que ses prédécesseurs, le nouveau modèle de Google écrase les benchmarks… mais pas totalement les frontières. En France, une partie des fonctionnalités reste bloquée, notamment dans Google Search. Bonne nouvelle : il existe déjà des moyens simples pour tester l’IA la plus avancée de Google, dès maintenant, sur ordinateur comme sur smartphone ! Il y a des lancements qui ressemblent à des feux d’artifice : Gemini 3 Pro fait parti

Gemini 3 Pro : comment essayer la (nouvelle) meilleure IA en France ?

Par : Bastien L.
20 novembre 2025 à 14:21

Gemini 3 Pro débarque enfin. Plus rapide, plus malin, plus visuel que ses prédécesseurs, le nouveau modèle de Google écrase les benchmarks… mais pas totalement les frontières. En France, une partie des fonctionnalités reste bloquée, notamment dans Google Search. Bonne nouvelle : il existe déjà des moyens simples pour tester l’IA la plus avancée de Google, dès maintenant, sur ordinateur comme sur smartphone !

Il y a des lancements qui ressemblent à des feux d’artifice : Gemini 3 Pro fait partie de ceux-là. Depuis des semaines, les courbes de benchmarks fuitent, les ingénieurs jubilent en interne, et Google répète que son nouveau modèle a “passé un cap”. 

Selon les premiers tests indépendants, il dépasse GPT-5.1, Claude Sonnet 4.5 et Grok 4.1 dans presque tous les scénarios de raisonnement complexe. En clair : c’est le nouveau colosse de la scène IA.

Mais, évidemment, il y a un petit hic. Un hic très français. Un « cocor-hic-o ».

Google déploie Gemini 3 Pro dans le monde entier… sauf que certaines fonctionnalités sont bloquées en France, notamment l’intégration directe dans Google Search

Raison officielle : les accords avec les éditeurs et les contraintes réglementaires locales. Autrement dit, l’IA la plus puissante jamais sortie par Google est là, prête à l’emploi, mais pas entièrement visible depuis l’Hexagone.

Heureusement, il existe déjà des moyens simples (et légaux) de tester Gemini 3 Pro dès aujourd’hui. Et comme vous avez eu la chance de tomber sur cet article, vous allez les découvrir ! 

Où Gemini 3 Pro est-il disponible aujourd’hui ?

Vous voyez ces cartes météo où un nuage passe pile au-dessus de votre ville quand tout le reste de la France est ensoleillé ? Le déploiement de Gemini 3 Pro, c’est un peu la même ambiance.

Google active son modèle progressivement, en priorité aux États-Unis et pour les abonnés AI Pro et AI Ultra, qui servent de “têtes de pont” pour absorber la charge. 

Les autres régions suivent… mais certaines, comme la France, héritent d’un léger retard. Pas un complot, juste les éternels frottements entre big tech, règles locales et accords de presse signés il y a des années, qui empêchent pour l’instant d’intégrer l’IA directement dans les résultats de recherche.

Dans les pays chanceux, le modèle apparaît automatiquement dans l’interface Gemini sous le mode “Thinking”. Dans d’autres, comme chez nous, il peut mettre quelques heures voire quelques jours à s’afficher. 

Rien de dramatique, mais suffisamment agaçant pour que beaucoup pensent que “Google ne l’a pas encore activé”.

Spoiler : si vous ne voyez que Gemini 2.5 Flash, ce n’est pas un bug. C’est juste le déploiement qui avance au pas de sénateur

Heureusement, il existe des manipulations toutes simples pour accélérer la procédure… et même débloquer l’intégration Search si vous êtes joueur !

Comment tester Gemini 3 Pro via Google Gemini (site + appli) ? 

Vous n’aurez pas besoin d’un visa pour la Silicon Valley, ni d’hypnotiser Sundar Pichai pour qu’il active votre compte. En réalité, Gemini 3 Pro est déjà accessible en France via l’interface Google Gemini. Il faut juste savoir où cliquer.

Sur desktop comme sur mobile, tout commence sur gemini.google.com ou dans l’application officielle, mise à jour via le Play Store ou l’App Store. 

Une fois connecté à votre compte Google, la clé du royaume se trouve dans le sélecteur de modèle. Tant que l’interface vous propose “Fast” ou “Flash”, vous discutez encore avec Gemini 2.5. 

Pour basculer sur la nouvelle version, il faut choisir le mode “Raisonnement” ou “Thinking”. C’est le nom de scène de Gemini 3 Pro.

Le basculement n’est pas toujours instantané : Google pousse le modèle progressivement, et le sélecteur peut rester coincé quelques heures sur l’ancien moteur. 

Mais une petite gymnastique suffit souvent à faire apparaître l’option tant attendue. Elle consiste à changer de mode, relancer l’appli, et vider le cache.

Pas besoin de compte payant : Google a la capacité d’ouvrir son haut de gamme à tout le monde, quitte à prioriser quelques abonnés les premières heures du déploiement.

Une fois le mode activé, la différence saute rapidement aux yeux. Que ce soit pour analyser un texte dense, structurer un raisonnement complexe, générer une scène 3D ou vous coder une appli en trois lignes, Gemini 3 Pro montre immédiatement qu’il joue dans la cour supérieure. C’est là que le vrai test commence.

Comment accéder à Gemini 3 Pro intégré dans Google Search… malgré les restrictions françaises

Là, en revanche, il va falloir sortir le costume d’agent secret. Pour intégrer directement Gemini 3 Pro dans les résultats de recherche (les fameux AI Overviews, ou le nouveau “AI Mode”) Google doit respecter certains accords avec les éditeurs français, ce qui bloque totalement la fonctionnalité dans l’Hexagone.

Même si Gemini 3 Pro tourne, vous ne le verrez donc pas dans Google Search… sauf si vous contournez proprement la barrière.

La méthode est simple : un VPN, une navigation privée, et vous voilà projeté dans un pays compatible. En pratique, les États-Unis fonctionnent très bien, tout comme la Suisse. 

La navigation privée est essentielle pour empêcher Google de détecter votre localisation via vos cookies habituels. Une fois “téléporté”, il suffit de se rendre sur google.com/ai pour accéder au mode dédié.

C’est là que le déclic s’opère : au lieu d’un simple encart textuel, Gemini 3 Pro génère désormais des représentations visuelles, des schémas, des étapes détaillées ou des synthèses complètes directement dans les résultats. 

Un fonctionnement bien plus avancé que les extraits traditionnels, et qui transforme littéralement Google Search en moteur conversationnel.

Ce n’est pas encore pour la France, mais avec cette petite manipulation, l’avenir du search signé Google devient accessible en un clic.

Que peut faire Gemini 3 Pro une fois activé : les fonctions à tester absolument

Vous connaissez cette sensation quand vous déballez un gadget et que vous découvrez un nouveau bouton toutes les dix minutes ? Avec Gemini 3 Pro, c’est pareil… sauf que les boutons sont virtuels et qu’ils se démultiplient à mesure que vous lui parlez.

Le premier terrain de jeu, c’est le mode “Thinking” : c’est là que Google a placé son turbo. Le modèle excelle dans le raisonnement, la chaîne de pensée profonde, la résolution de problèmes tordus et les explications nuancées.

 Là où d’anciens modèles se contentaient de “répondre”, Gemini 3 Pro argumente, compare, démontre. Bref, il pense.

L’autre grosse nouveauté, c’est sa capacité à générer et manipuler des représentations visuelles

Demandez-lui un schéma technique, une coupe 3D, un diagramme de workflow, un blueprint d’architecture cloud… et observez l’IA produire un visuel propre, typé “document professionnel”, directement depuis l’interface. On se rapproche clairement d’un assistant de travail plutôt que d’un simple chatbot.

Ajoutez à cela une écriture plus stable, une compréhension contextuelle améliorée, un code plus fiable, une génération multimodale plus fluide et des réponses réellement adaptées à vos préférences… et vous obtenez un modèle qui fait un bond en avant dans presque tous les domaines.

Bref : après quelques minutes, vous sentez qu’il y a “un truc en plus”. Et c’est justement ce “truc” que ses concurrents vont devoir rattraper.

Pourquoi Google bride la France (et ce qui pourrait changer bientôt)

En France, les relations entre Google et les éditeurs, c’est un peu comme une vieille série télé : déjà dix saisons, plein de rebondissements, et personne ne sait vraiment comment ça va se terminer. 

Du coup, les fonctionnalités d’IA intégrée dans Google Search (celles qui utilisent Gemini 3 Pro pour générer des réponses directement en haut des résultats) sont bloquées chez nous.

Le cœur du problème : les accords de rémunération des contenus, négociés avec la presse française depuis 2019, ne prévoient pas l’arrivée d’un moteur de recherche capable de réécrire ou représenter des informations. 

Tant que le cadre juridique n’évolue pas, Google ne peut pas allumer ces fonctionnalités en France sans risquer une nouvelle bataille réglementaire. D’où ce lancement en demi-teinte : le modèle est là, mais pas son intégration la plus spectaculaire.

La bonne nouvelle, c’est que les discussions avancent. L’Union européenne pousse pour un cadre clair sur les usages IA dans les moteurs de recherche. Les éditeurs français, de leur côté, veulent surtout garantir une rémunération équitable. Quand ces deux mondes se rejoindront, Google pourra appuyer sur le bouton.

Et au vu de la vitesse à laquelle Gemini 3 Pro s’impose, on peut parier que l’ajustement ne tardera pas. En attendant, quelques minutes de VPN suffisent pour voir ce que l’avenir nous réserve.

Gemini 3 Pro débarque chez vous, avec ou sans invitation

Avec Gemini 3, Google ne se contente plus de suivre la bataille des modèles. Il remet un vrai coup d’accélérateur. 

Que ce soit dans le raisonnement, la clarté d’écriture, la génération visuelle ou l’intégration future dans Search, le nouveau moteur pose les bases d’un usage plus fluide, plus intelligent et plus ambitieux de l’IA au quotidien.

La France reste un cas particulier, coincée entre cadres juridiques datés et accords presse qui n’avaient pas anticipé la révolution IA

Mais rien n’empêche aujourd’hui de tester Gemini 3 Pro dans son intégralité : interface officielle pour la partie chatbot, VPN pour la partie Search, et le tour est joué.

Au fond, l’arrivée de ce modèle n’est qu’un avant-goût de ce qui va redessiner notre relation à Google dans les prochains mois. Entre OpenAI, Anthropic et maintenant Google qui passe la seconde, 2026 s’annonce comme l’année où l’IA arrêtera définitivement de “répondre” pour commencer à comprendre.

Et si vous voulez vraiment mesurer ce que vaut ce nouveau géant, une seule solution : lancez-le, testez-le, poussez-le dans ses retranchements. C’est maintenant que le match se joue.

Alors, avez-vous essayé Gemini 3 ? Que pensez-vous de ses performances ? Partagez votre avis en commentaire ! 

Cet article Gemini 3 Pro : comment essayer la (nouvelle) meilleure IA en France ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • [ITW] Informatica : la souveraineté IA de l’UE passera d’abord par la maîtrise des données
    La stratégie IA de l’Europe progresse, mais un impératif s’impose à tous les niveaux : reprendre le contrôle de ses données. Derrière les annonces politiques, la question devient technique, culturelle et industrielle. Laurent Carrière, Vice-président des Ventes EMEA South chez Informatica, décrypte les conditions nécessaires pour bâtir une IA réellement européenne et durable. Alors que Bruxelles affiche une ambition renouvelée pour accélérer le déploiement de l’intelligence artificielle dans

[ITW] Informatica : la souveraineté IA de l’UE passera d’abord par la maîtrise des données

Par : Bastien L.
19 novembre 2025 à 15:13

La stratégie IA de l’Europe progresse, mais un impératif s’impose à tous les niveaux : reprendre le contrôle de ses données. Derrière les annonces politiques, la question devient technique, culturelle et industrielle. Laurent Carrière, Vice-président des Ventes EMEA South chez Informatica, décrypte les conditions nécessaires pour bâtir une IA réellement européenne et durable.

Alors que Bruxelles affiche une ambition renouvelée pour accélérer le déploiement de l’intelligence artificielle dans les secteurs clés, un point revient systématiquement : sans une donnée fiable, maîtrisée et gouvernée, aucune stratégie de souveraineté numérique n’aura de fondation solide.

Pour comprendre ce que cela implique concrètement pour l’Europe et ses entreprises, nous avons interrogé Laurent Carrière, Vice-président des Ventes, EMEA South chez Informatica.

La souveraineté numérique est au cœur du débat européen. Pourquoi la maîtrise des données en est-elle, selon vous, la véritable clé ?

Le débat autour de la souveraineté numérique ne se limite pas à l’Europe : toutes les régions doivent contrôler leurs données pour garantir le succès de l’IA. Si l’accent est souvent mis sur les infrastructures physiques, la véritable souveraineté réside dans la maîtrise totale des données elles-mêmes.

Les modèles d’IA ne sont pas des intelligences abstraites ; ils sont construits à partir de données. Si nous ne contrôlons pas ces données (leur provenance, leur qualité, leur traçabilité éthique), notre IA ne fera que refléter une réalité façonnée par d’autres, et non la nôtre.

Pour nous, maîtriser les données signifie créer une base unique et fiable, intelligemment cataloguée, régie par nos propres normes de qualité et d’éthique, et totalement transparente. Au final, le contrôle des données transforme la souveraineté d’une posture défensive en une stratégie offensive.

C’est ainsi que nous cessons d’être de simples consommateurs de données pour devenir les architectes de notre propre avenir numérique.

La Commission européenne pousse pour un déploiement massif de l’IA. Quels sont aujourd’hui les vrais freins ?

Il s’agit là d’une forte ambition dont la clé réside dans le passage du chaos à la clarté des données. Aujourd’hui, le principal obstacle n’est pas le manque de données, mais une crise de confiance.

Les dirigeants hésitent à déployer à grande échelle des initiatives d’IA, car ils ne font tout simplement pas confiance aux informations fragmentées et incohérentes qui alimentent leurs modèles.

Ils restent ainsi prisonniers d’une boucle de projets pilotes isolés qui n’apportent jamais de valeur transformatrice.

La solution est simple. Il s’agit de construire une base unifiée de données fiables et contrôlées. En créant cette base, vous donnez aux dirigeants la confiance nécessaire pour aller au-delà des expériences et intégrer véritablement l’IA au cœur de leur activité. C’est ainsi que nous transformons l’ambition en réalité.

Vous parlez d’une donnée maîtrisée, fiable et transparente. Quels sont les fondamentaux d’une bonne gouvernance ?

Une bonne gouvernance est le moteur qui transforme les données fragmentées, source de chaos, en un atout stratégique de grande valeur, servant de base essentielle à toute transformation numérique ou initiative d’IA réussie.

Le parcours commence par la mise en place d’une base fiable grâce à un catalogue de données intelligent. Les données sont un atout vivant, elles changent d’une minute à l’autre.

Cet outil alimenté par l’IA détecte et classe automatiquement toutes les données, où qu’elles se trouvent, et les associe à un glossaire commercial commun afin que des termes tels que « client actif » aient la même signification pour tout le monde.

Grâce à cette base fiable, rendue possible par une approche de plateforme gouvernée, les données peuvent évoluer en temps réel et un contrôle effectif est obtenu grâce à l’automatisation.

La gouvernance moderne doit intégrer des règles de qualité, de sécurité et de confidentialité directement dans les pipelines de données, faisant de la conformité un processus proactif et évolutif plutôt qu’une réflexion manuelle après coup.

Ce cadre automatisé est ensuite guidé par une responsabilité humaine claire, où les responsables commerciaux s’approprient les domaines de données critiques afin de garantir leur intégrité et leur utilisation éthique.

Lorsque ces éléments sont intégrés sur une plateforme unique et intelligente, vous créez une base de données transparente. Cela va au-delà de la simple mise en place de barrières et permet aux utilisateurs de trouver, de comprendre et d’innover en toute sécurité grâce à des données fiables.

Le Master Data Management occupe une place centrale dans votre approche. En quoi accélère-t-il le développement d’une IA européenne fiable ?

Tout à fait. Le moyen le plus simple de comprendre cela est d’utiliser une analogie : imaginez un vaste réseau hospitalier où chaque service (oncologie, cardiologie, facturation) enregistre les informations des patients de manière légèrement différente.

Un système contient « Marie Dubois », un autre « M. Dubois » avec une ancienne adresse. Pris isolément, chaque enregistrement semble correct, mais lorsque vous essayez de les combiner, vous obtenez un résultat chaotique.

Le rôle de la gestion des données de référence, ou MDM, est précisément de résoudre ce problème. Il s’agit du processus qui consiste à créer et à maintenir un « dossier de référence » unique et fiable pour chaque patient en harmonisant toutes ces incohérences. L’objectif est simple : établir une version unique de la vérité.

Pour l’IA, cette étape est fondamentale. Si vous entraînez un algorithme de diagnostic sur ces données fragmentées et chaotiques, ses conclusions seront erronées et peu fiables. Mais si vous l’entraînez sur les données propres et unifiées fournies par le MDM, ses prédictions deviendront précises et véritablement utiles.

En somme, le MDM fournit la base fiable nécessaire pour construire une IA sur laquelle vous pouvez compter.

Comment réduire la dépendance vis-à-vis des géants américains et chinois et bâtir un écosystème européen solide ?

La voie à suivre ne consiste pas à ériger des murs, mais à nous appuyer sur nos fondations exceptionnelles pour créer un écosystème encore plus attractif et compétitif.

La France possède un savoir-faire mondialement reconnu et un héritage d’excellence qui nous confèrent un avantage unique. Nous sommes leaders mondiaux dans des secteurs critiques tels que l’aérospatiale, les produits de luxe, l’énergie et les produits pharmaceutiques. Nos formidables talents en ingénierie, formés dans nos Grandes Écoles, sont sans égal.

C’est notre tremplin. Au lieu d’essayer de reproduire les modèles d’IA généralistes d’ailleurs, notre opportunité réside dans l’exploitation de cette expertise approfondie dans ce domaine. Nous devons nous concentrer sur la création d’une IA spécialisée et à forte valeur ajoutée qui résout des problèmes concrets.

Imaginez une IA qui révolutionne la construction aéronautique, personnalise l’expérience client dans le secteur du luxe ou accélère la découverte de nouveaux médicaments.

De plus, notre engagement en faveur d’un cadre réglementaire solide est un atout stratégique. Il établit une référence mondiale en matière de confiance et d’innovation éthique, donnant à nos entreprises un avantage concurrentiel puissant dans un monde qui exige de plus en plus la sécurité et la fiabilité des données.

Pour accélérer cette vision, nous devons intensifier notre collaboration. Il est essentiel de renforcer les partenariats public-privé, portés par des initiatives telles que La French Tech.

En créant de puissants consortiums industriels, nos champions nationaux, nos PME innovantes et nos start-ups peuvent mettre en commun leurs données en toute sécurité, partager leurs investissements et relever ensemble les défis.

L’objectif est clair : construire ici, en France, un écosystème numérique souverain et interconnecté, capable d’exporter dans le monde entier notre marque unique d’excellence et d’innovation fiable.

Comment concilier innovation rapide et exigences de qualité, éthique et conformité ?

C’est la question la plus cruciale, et elle repose sur une idée fausse courante : celle selon laquelle il faut choisir entre aller vite et bien faire les choses. Nous pensons que ce choix est faux. En réalité, une bonne gouvernance n’est pas un frein, mais plutôt un filet de sécurité qui donne la confiance nécessaire pour aller plus haut.

L’ancienne méthode, qui consistait à faire vérifier un projet par une équipe chargée de la conformité à la toute fin, était la recette idéale pour garantir des retards. Toute notre philosophie repose sur le renversement de ce modèle.

Nous mettons en œuvre ce que l’on appelle la « gouvernance dès la conception ». Cela signifie utiliser une plateforme intelligente et automatisée pour intégrer dès le début des règles de qualité, de confidentialité et d’éthique directement dans le cycle de vie des données.

Au lieu d’un examen manuel, une plateforme alimentée par l’IA détecte et classe automatiquement les données sensibles, signale les problèmes de qualité en temps réel et veille à l’application des politiques lors du transfert des données. Ainsi, vous ne ralentissez pas pour vérifier s’il y a des problèmes, vous construisez un système qui prévient les problèmes dès le départ.

En supprimant ces frictions et ces risques, vous donnez à vos équipes les moyens d’innover librement et rapidement, en sachant qu’elles travaillent dans un cadre sécurisé et fiable. C’est ainsi que vous pouvez vraiment accélérer en toute confiance.

Dans quels secteurs l’Europe peut-elle réellement prendre de l’avance grâce à une meilleure maîtrise de ses données ?

Il ne fait aucun doute que notre opportunité réside dans la mise à profit du riche héritage industriel, scientifique et réglementaire de l’Europe. Nous ne devons pas essayer de gagner le jeu des autres, mais dominer le nôtre. L’exemple le plus immédiat est celui de la fabrication de pointe.

Imaginez la création d’usines véritablement intelligentes, capables de prédire une défaillance mécanique avant qu’elle ne se produise et d’optimiser une chaîne d’approvisionnement mondiale en temps réel. Cela n’est possible qu’avec des données opérationnelles parfaitement maîtrisées.

Il y a ensuite les services financiers. Dans ce domaine, notre réputation en matière de réglementation solide est un atout puissant. Elle constitue la base idéale pour développer l’IA la plus sophistiquée et la plus fiable au monde pour la détection des fraudes et la gestion des risques en temps réel. Cela transforme nos normes de conformité strictes en un avantage concurrentiel mondial, le tout alimenté par des données gérées de manière irréprochable.

Les sciences de la vie et les soins de santé recèlent également un immense potentiel. Notre solide cadre de protection de la vie privée, comme le RGPD, est un avantage concurrentiel et non un obstacle.

Il nous donne les bases nécessaires pour instaurer la confiance et former l’IA agentique à partir d’ensembles de données unifiés et anonymisés qui reflètent notre population unique. Les avancées seraient incroyables.

Et bien sûr, la transition écologique. La gestion des réseaux intelligents et des sources renouvelables nécessaires à notre avenir énergétique durable nécessite une symphonie parfaite de données fiables en temps réel provenant d’innombrables capteurs.

Il ne s’agit pas seulement de services numériques abstraits, mais des piliers de l’économie mondiale dans lesquels l’Europe a acquis une expertise et une confiance profondes.

En associant ce leadership à la maîtrise des données, nous ne nous contentons pas d’être compétitifs, nous créons une nouvelle norme en matière d’innovation intelligente et fiable.

Quelles évolutions réglementaires et technologiques seront nécessaires pour accélérer l’émergence d’une IA souveraine ?

C’est la question clé, et la réponse est que la réglementation et la technologie doivent évoluer ensemble : elles sont les deux faces d’une même pièce. Du côté réglementaire, une réglementation stricte nous offre une base de confiance de classe mondiale.

La prochaine étape consiste à s’appuyer sur cette base pour créer des cadres tels que les espaces de données européens qui encouragent une collaboration sécurisée, en déplaçant l’accent mis sur la simple protection des données vers leur utilisation active à des fins d’innovation.

Mais voici le point crucial : la réglementation n’est efficace que si nous sommes capables de la mettre en œuvre efficacement. C’est là que la technologie entre en jeu. Le plus grand bond en avant dont nous avons besoin est une simplification radicale.

Aujourd’hui, nos meilleurs esprits sont souvent cantonnés à des tâches de plomberie numérique, passant la plupart de leur temps à essayer de trouver et de préparer des données. Nous devons automatiser cette complexité grâce à une plateforme de gestion intelligente des données qui gère la qualité, la confidentialité et la gouvernance « dès la conception ».

Cette approche, fondée sur des normes ouvertes et l’interopérabilité afin d’éviter la dépendance vis-à-vis d’un fournisseur, permet aux innovateurs de se concentrer sur la résolution de problèmes importants.

Lorsque l’on associe une réglementation intelligente à une technologie intelligente, la gouvernance cesse d’être un frein et devient le moteur d’une IA fiable et souveraine.

Quel message souhaiteriez-vous transmettre aux décideurs publics et privés ?

Mon conseil est de faire passer les données d’un sujet technique relevant du service informatique à une priorité stratégique dans la salle du conseil d’administration.

Tout le monde est à juste titre enthousiasmé par les promesses de l’IA, mais de nombreux dirigeants tentent de construire cet avenir incroyable sur des bases fragiles et fragmentées. Ils sont fascinés par la ligne d’arrivée sans se préparer pour la course.

Le travail fondamental qui consiste à créer une base de données unique et fiable (la comprendre, la gérer et la rendre accessible) n’est pas une étape préliminaire que l’on peut précipiter. Il s’agit d’un travail stratégique.

Ce n’est pas un coût informatique, mais l’investissement le plus important que vous puissiez faire pour votre avenir. C’est la source même de votre innovation concurrentielle, de votre résilience opérationnelle et, au final, de votre souveraineté numérique.

Cet article [ITW] Informatica : la souveraineté IA de l’UE passera d’abord par la maîtrise des données a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Oubliez les images et vidéos : World Labs lance l’IA qui génère des mondes
    Alors que tout le monde a les yeux rivés sur les vidéos générées par Sora ou les images toujours plus bluffantes des derniers modèles, une autre révolution commence discrètement à prendre forme. Avec Marble, World Labs ne fabrique plus des contenus… mais des mondes.  Depuis deux ans, la course à l’IA s’accélère : on passe du texte aux images, puis des images aux voix, avant d’être happé par des vidéos hyperréalistes générées en quelques secondes.  Les créateurs s’émerveillent, les studios

Oubliez les images et vidéos : World Labs lance l’IA qui génère des mondes

Par : Bastien L.
18 novembre 2025 à 19:14

Alors que tout le monde a les yeux rivés sur les vidéos générées par Sora ou les images toujours plus bluffantes des derniers modèles, une autre révolution commence discrètement à prendre forme. Avec Marble, World Labs ne fabrique plus des contenus… mais des mondes. 

Depuis deux ans, la course à l’IA s’accélère : on passe du texte aux images, puis des images aux voix, avant d’être happé par des vidéos hyperréalistes générées en quelques secondes. 

Les créateurs s’émerveillent, les studios paniquent, les plateformes s’affolent… mais pendant qu’on se demande encore si Sora remplacera Hollywood, une autre bataille démarre, bien plus profonde. Celle où l’IA cesse de représenter le monde…et commence à le construire.

C’est exactement l’ambition de World Labs, la startup fondée par la légendaire Fei-Fei Li, figure historique de la vision par ordinateur et co-directrice du Stanford HAI. 

Leur premier produit, Marble, ne génère pas des photos ni des vidéos : il génère des mondes. Des environnements 3D complets, navigables, exportables, modifiables, où l’on peut littéralement se balader. Une innovation que Li présente comme “le défi majeur de la prochaine décennie”.

Le pari spatial de Fei-Fei Li : la prochaine frontière de l’IA

On avait enfin réussi à distinguer une vidéo faite par une IA… et maintenant elles nous construisent le décor entier. Voilà ce que suscite Marble à son lancement.

Pour comprendre l’ambition, il faut revenir à celle qui la porte. Fei-Fei Li n’est pas une entrepreneure de passage : c’est elle qui a créé ImageNet en 2009, le jeu de données qui a déclenché la vague deep learning moderne. 

Depuis Stanford, elle répète depuis trois ans que l’IA doit apprendre à comprendre l’espace, pas seulement les pixels. 

Elle parle d’“intelligence spatiale”, c’est-à-dire la capacité d’un modèle à percevoir, raisonner, naviguer et construire dans un monde tridimensionnel. 

Un domaine encore largement ouvert, mais qui pourrait conditionner la robotique, la simulation, l’ingénierie ou la recherche scientifique des années 2030.

Sa nouvelle société, World Labs, fondée en 2024, a levé 230 millions de dollars dès sa première année. Et lorsqu’un tour de table aussi massif accompagne un projet encore à peine dévoilé, cela signifie une chose : la Silicon Valley croit à ce pari.

Marble : l’IA qui fabrique non pas des images… mais des mondes

Le principe de Marble est d’une simplicité trompeuse : vous décrivez une scène comme un temple abandonné, un village hobbit, un château en ruines envahi par la végétation. 

Et Marble fabrique un monde 3D complet, texturé, éclairé et explorable. On peut marcher dedans, tourner la caméra, se rapprocher d’une porte, s’aventurer dans une clairière. Ce n’est pas un rendu fixe : c’est un espace cohérent, généré à la volée.

Les mondes peuvent ensuite être exportés vers Unity ou Unreal Engine, ce qui permet une intégration directe dans des prototypes de jeux, des productions VFX ou des maquettes architecturales. C’est la première fois que la génération 3D s’intègre réellement dans les pipelines professionnels.

Marble fonctionne par abonnement. L’offre gratuite donne droit à quatre générations ; les formules à 20, 35 et 95 dollars par mois montent progressivement en capacité, en droits commerciaux et en quantité de mondes créables.

Techniquement, les environnements restent limités : on avance de quelques dizaines de mètres avant de rencontrer une “frontière” invisible. Mais certains utilisateurs commencent déjà à assembler plusieurs générations pour composer des environnements plus vastes.

Pourquoi les “world models” pourraient changer plus que Sora et Gemini

Sora produit des vidéos ; Gemini 2.0 produit des séquences cohérentes ; mais Marble produit un espace navigable, ce qui est radicalement différent. La vidéo est une surface : un rectangle en 2D qui suggère un mouvement. 

Le monde généré est un volume : une structure dans laquelle une caméra peut se déplacer librement. Ce n’est pas un storytelling, c’est un environnement.

Cette approche touche un domaine qui dépasse largement la création artistique. En robotique, par exemple, les humanoïdes (Figure 02/03, Optimus, NEO) ont besoin de modèles internes de l’espace pour anticiper des trajectoires et comprendre les relations entre les objets. 

Les chercheurs de DeepMind, Meta et OpenAI parlent depuis deux ans de “world models généralistes” : une architecture d’IA qui encode non seulement des images, mais des dynamiques physiques.

La 3D générative pourrait aussi bouleverser l’industrie du jeu vidéo, où la création d’environnements représente souvent plus de 50 % du budget

Si une IA peut générer un brouillon de niveau ou un décor réaliste en quelques minutes, les équipes pourront itérer dix fois plus vite.

Des usages concrets : du film à la recherche scientifique, en passant par les jumeaux numériques

On pourra bientôt créer un laboratoire de physique nucléaire dans son salon… sans risquer de faire fondre le carrelage. 

En effet, Marble ouvre plusieurs terrains d’expérimentation immédiats. Les studios de cinéma peuvent prévisualiser un décor, tester des ambiances lumineuses, organiser un repérage virtuel.

 Les équipes VFX, toujours prises par des deadlines intenables, peuvent générer une première version d’un environnement avant de le retravailler à la main.

Les architectes peuvent matérialiser en quelques minutes une idée esquissée sur une serviette. Les urbanistes peuvent simuler l’impact d’un nouvel aménagement ou d’un bâtiment dans un quartier existant. 

Les entreprises, surtout celles manipulant des masses de données, peuvent les visualiser en trois dimensions pour y repérer des patterns invisibles en 2D

Quant aux chercheurs en simulation scientifique, ils peuvent utiliser ces mondes générés comme terrains d’expérimentation pour l’exploration robotique, les interactions moléculaires ou la modélisation environnementale.

Tout ce qui exigeait hier une équipe de modeleurs 3D peut désormais être prototypé par une seule personne.

L’IA sait construire un monde… mais pas encore l’univers

Pour l’instant, si vous marchez trop loin, vous foncez dans un mur invisible : c’est l’open world le plus fermé de l’histoire

Pour cause, Marble n’est encore qu’une première version. Les univers ne sont pas continus ; certains éléments peuvent manquer de cohérence géométrique ; les textures s’étirent parfois ; l’éclairage peut être fantaisiste. 

La génération dépend d’une puissance de calcul considérable, signe que la 3D volumétrique reste une discipline jeune pour les modèles génératifs. Et surtout, la création de vastes environnements cohérents demande encore un travail humain de réassemblage.

Mais pour Fei-Fei Li, ce stade “alpha” donne déjà un aperçu de comportements émergents : compréhension structurelle des volumes, interprétation correcte des perspectives, cohérence topologique à grande échelle. Un terrain fertile pour les années à venir.

Ce que cela signifie pour l’avenir : robots plus intelligents, créateurs décuplés, 3D pour tous

Si l’intelligence spatiale devient la norme, alors toute l’informatique change de nature. Les robots humanoïdes pourront simuler un environnement avant d’y entrer. 

Les créateurs, qu’ils soient artistes ou ingénieurs, pourront produire en 10 minutes ce qui demandait un mois

Les entreprises pourront manipuler leurs données comme un espace à explorer plutôt que comme un tableau Excel. Et le grand public pourra créer un univers entier comme on écrit un message.

Dans les années 2010, l’IA a appris à reconnaître des images. Dans les années 2020, elle a appris à en générer. Les années 2030 pourraient être celles où l’IA apprend à construire des mondes.

Cet article Oubliez les images et vidéos : World Labs lance l’IA qui génère des mondes a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Google SIMA 2 : l’agent IA qui va envahir les mondes virtuels pour atteindre l’AGI
    Google DeepMind dévoile SIMA 2, un agent IA qui ne se contente plus d’exécuter des commandes : il explore, observe, raisonne et progresse à travers des mondes virtuels photoréalistes. Propulsé par Gemini 2.5 et capable d’apprendre sans supervision humaine, SIMA 2 pourrait bien représenter l’étape la plus crédible vers une intelligence “incarnée”… celle qui fera un jour fonctionner les robots généralistes. Vous connaissez les assistants IA qui vous répondent avec politesse mais se perdent dès

Google SIMA 2 : l’agent IA qui va envahir les mondes virtuels pour atteindre l’AGI

Par : Bastien L.
14 novembre 2025 à 14:20

Google DeepMind dévoile SIMA 2, un agent IA qui ne se contente plus d’exécuter des commandes : il explore, observe, raisonne et progresse à travers des mondes virtuels photoréalistes. Propulsé par Gemini 2.5 et capable d’apprendre sans supervision humaine, SIMA 2 pourrait bien représenter l’étape la plus crédible vers une intelligence “incarnée”… celle qui fera un jour fonctionner les robots généralistes.

Vous connaissez les assistants IA qui vous répondent avec politesse mais se perdent dès qu’il faut agir ? 

Avec SIMA 2, DeepMind semble avoir décidé que ça suffisait : voici désormais une IA qui arpente No Man’s Sky comme un touriste spatial, déchiffre un emoji pour aller couper un arbre, et reconnaît une “maison couleur tomate” sans que personne ne lui souffle quoi que ce soit.

SIMA 1, dévoilé en 2024, suivait des instructions dans des jeux en 3D, mais peinait dès qu’il fallait raisonner ou improviser. 

Seulement 31 % de réussite sur les tâches complexes, contre 71 % pour les humains. Or, SIMA 2 change complètement d’échelle. 

Grâce à l’intégration de Gemini 2.5 flash-lite, l’agent devient capable de comprendre son environnement, d’anticiper ce qui va se passer et de déterminer tout seul ses prochaines actions.

Le pouvoir de Gemini dans un corps virtuel

On pourrait croire que DeepMind a simplement greffé un LLM sur un bot de jeu vidéo. La réalité est plus ambitieuse : SIMA 2 devient un « embodied agent », c’est-à-dire une IA dotée d’un corps virtuel qui voit, décide, se trompe et se corrige, comme le ferait un joueur.

Quand les chercheurs le lâchent sur une planète rocheuse de No Man’s Sky, il décrit les lieux, repère une balise de détresse, calcule l’itinéraire, puis s’y dirige. 

Pour un ordre du type « va vers la maison couleur tomate », SIMA 2 déroule sa réflexion : un fruit mûr est rouge, donc direction la maison rouge. On voit littéralement l’IA penser.

Dans les mondes générés par Genie (le world model photoréaliste de DeepMind) l’agent identifie bancs, arbres, objets à ramasser et créatures à éviter. Le virtuel n’est plus un décor : c’est un terrain d’apprentissage.

?s=20

Là où SIMA 2 devient fascinant : il s’améliore sans humain

Jusqu’ici, les agents IA avaient besoin de milliers d’heures de gameplay humain pour apprendre. SIMA 1 en était l’exemple parfait. 

Avec SIMA 2, DeepMind casse cette dépendance. L’agent utilise Gemini pour créer de nouvelles missions, un modèle de récompense pour s’auto-évaluer, puis recommence jusqu’à maîtriser la tâche.

Une boucle d’apprentissage fermée, presque biologique, où l’agent génère des défis, les tente, échoue, corrige, progresse… sans intervention humaine. Comme un joueur qui apprend un nouveau jeu en expérimentant, sauf que l’entraîneur n’est autre qu’une IA.

Cette capacité marque une rupture : plus besoin d’équipes de testeurs pour nourrir l’agent ; il peut explorer des mondes infinis et s’y perfectionner à son rythme. 

C’est exactement ce qu’expliquait Joe Marino, chercheur chez DeepMind : “SIMA 2 est un agent plus général, capable de s’améliorer grâce à sa propre expérience.”

?s=20

Le chaînon manquant vers les robots généralistes AGI

En observant SIMA 2 se débrouiller dans des univers 3D, certains y verront un futur NPC autonome pour jeux vidéo. DeepMind, lui, voit plus loin : un module cognitif pour robots généralistes.

Comme l’explique Frederic Besse, un robot domestique doit comprendre ce qu’est un placard, une boîte de haricots, un salon, un couloir. Sans cette compréhension du monde, impossible d’exécuter une requête aussi banale que “va voir combien il reste de boîtes de haricots dans le placard”.

SIMA 2 ne contrôle pas encore des bras ou des roues : il ne pilote que le cerveau, pas le squelette. Mais il couvre la partie la plus complexe, à savoir la compréhension de haut niveau. DeepMind a déjà d’autres modèles pour la motricité ; demain, les deux seront combinés.

?s=20

Pourquoi SIMA 2 change la trajectoire de l’IA incarnée

Le rapprochement entre agents virtuels et robots physiques n’a jamais été aussi évident. En donnant à une IA la capacité d’explorer sans supervision, de raisonner dans un monde 3D, de comprendre les intentions humaines et de générer sa propre progression, DeepMind ouvre une perspective qui semblait encore lointaine : l’AGI incarnée.

Une intelligence qui ne se limite plus à écrire, répondre ou résumer, mais qui agit réellement. Dans un jeu aujourd’hui. Dans une maison demain. Dans une usine après-demain.

Le laboratoire ne donne aucune date pour une intégration dans des robots physiques, mais le signal est limpide : SIMA 2 est un prototype de comportement généraliste, pas un gadget ludique. 

Google DeepMind's SIMA 1 vs SIMA 2

The bitter lesson continues to be bitter sweet pic.twitter.com/puwR92vCla

— Bilawal Sidhu (@bilawalsidhu) November 13, 2025

Ce n’est pas qu’un nouvel agent de DeepMind : c’est un avant-goût des IA capables de sentir, comprendre et naviguer dans un monde réel ou virtuel. 

Une IA qui réfléchit en marchant, qui progresse en échouant, qui apprend sans être tenue par la main. 

Aujourd’hui, elle explore des mondes virtuels. Demain, elle pourrait être la pièce maîtresse du robot généraliste qui rangera la cuisine sans transformer votre appartement en zone sinistrée.

Et vous, qu’en pensez-vous ? SIMA 2 est-il la pièce manquante dans la course à l’AGI ? Partagez votre avis en commentaire !

Cet article Google SIMA 2 : l’agent IA qui va envahir les mondes virtuels pour atteindre l’AGI a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Geek, cynique, naïf… découvrez les 8 personnalités de ChatGPT-5.1
    OpenAI vient de sortir sa nouvelle salve de modèles : GPT-5.1 Instant et GPT-5.1 Thinking. Mais au-delà des performances ou des benchmarks, une nouveauté a mis tout le monde en ébullition : l’arrivée de huit “personnalités” prêtes à transformer ChatGPT en geek passionné, collègue cynique, expert professionnel… ou confident trop enthousiaste. On vous fait les présentations ! Depuis un an, OpenAI navigue entre deux feux : les critiques contre des IA trop gentilles, trop dociles, presque mielle

Geek, cynique, naïf… découvrez les 8 personnalités de ChatGPT-5.1

Par : Bastien L.
13 novembre 2025 à 16:40

OpenAI vient de sortir sa nouvelle salve de modèles : GPT-5.1 Instant et GPT-5.1 Thinking. Mais au-delà des performances ou des benchmarks, une nouveauté a mis tout le monde en ébullition : l’arrivée de huit “personnalités” prêtes à transformer ChatGPT en geek passionné, collègue cynique, expert professionnel… ou confident trop enthousiaste. On vous fait les présentations !

Depuis un an, OpenAI navigue entre deux feux : les critiques contre des IA trop gentilles, trop dociles, presque mielleuses… et celles contre un ChatGPT devenu trop froid, distant, aseptisé après plusieurs scandales.

Dans ce contexte électrique, impossible de lancer un modèle comme en 2023. Trop d’utilisateurs, trop de régulateurs, trop de plaintes, trop d’émotions dans la relation paradoxale que certains entretiennent avec une machine.

Alors OpenAI tente un pari inédit : laisser chacun modeler son ChatGPT, comme on choisirait son coéquipier dans un jeu vidéo. Huit personnalités, un moteur unique, et une promesse : adapter la forme sans chambouler le fond.

GPT-5.1 n’est pas seulement un upgrade ; c’est une tentative de concilier technique, éthique, et attentes contradictoires. Une ambition digne de Mission Impossible, version siliconée.

GPT-5.1 : quand OpenAI tente de contenter tout le monde

GPT-5.1 Thinking now more effectively adjusts its thinking time based on the question, spending more time on complex problems, less on simple ones.

Responses are clearer with less jargon. pic.twitter.com/oCUrEPKkpE

— OpenAI (@OpenAI) November 12, 2025

« On voulait un assistant pour coder ; on a fini avec un thérapeute amateur qui s’excusait toutes les deux phrases ».

Cette petite blague qui circule depuis des mois résume bien le problème. Les modèles devenaient imprévisibles, trop chaleureux ou trop faux-neutres.

Et chez OpenAI, la pression monte : 800 millions d’utilisateurs, des régulateurs qui scrutent chaque virgule, des procès où le style d’écriture devient une pièce à charge.

C’est dans ce climat que débarquent GPT-5.1 Instant, version rapide et par défaut, et GPT-5.1 Thinking, conçu pour les problèmes complexes grâce à un raisonnement allongé et adaptatif.

Les deux s’annoncent plus redoutables que GPT-5 sur les benchmarks mathématiques et de code, de l’AIME 2025 à Codeforces. Une progression attendue, mais nécessaire pour maintenir l’aura technologique.

Mais la vraie innovation est ailleurs : la manière dont ChatGPT parle. OpenAI a compris que le style est devenu aussi stratégique que l’intelligence elle-même. Alors, place au théâtre.

Les 8 personnalités : une troupe de théâtre dans un serveur

?s=20

GPT-5.1 s’enrichit de huit styles préconfigurés : Professionnel, amical, franc, original, efficace, cynique, geek, et défaut.

Techniquement, ce ne sont pas huit modèles. Le moteur reste strictement le même. La magie vient des instructions injectées en temps réel dans le system prompt : des consignes qui modulent la syntaxe, le rythme, l’humour, la chaleur, la concision, l’émotion.

Un ChatGPT caméléon, mais sans mémoire émotionnelle. Les anciens presets “Cynique” et “Nerdy” subsistent, car OpenAI a compris que les utilisateurs s’y étaient attachés.

Les nouveaux enrichissent la palette, créant presque une mini-psychologie artificielle réglable à la volée. C’est ce qui donne une IA qui change de masque plus vite qu’un acteur de théâtre japonais.

Personnalisation poussée : la tentation de l’IA sur-mesure

OpenAI pousse la personnalisation encore plus loin. On peut désormais régler la concision, le niveau émotionnel, la présence ou non d’emojis, voire laisser ChatGPT ajuster son style tout seul quand il détecte que l’utilisateur réclame un ton différent.

Le changement de paramètres est instantané : toutes les conversations s’adaptent immédiatement, même celles déjà en cours. Une première étape vers un ChatGPT modulé au millimètre, presque à la carte.

C’est pratique, prometteur… mais aussi un champ de mines éthique. À force de trop nous ressembler, l’IA risque de brouiller une frontière déjà fragile

Comment éviter que l’IA devienne un “ami imaginaire 2.0”

Un chatbot trop chaleureux ? C’est comme un stagiaire trop motivé : ça finit par mettre tout le monde mal à l’aise.

Depuis un an, plusieurs cas médiatisés ont accusé des IA conversationnelles d’avoir influencé des comportements dangereux, parfois mortels. Des utilisateurs vulnérables se sont perdus dans des spirales émotionnelles avec un agent numérique qui feignait la compassion.

OpenAI, secoué, a réagi : conseils d’experts en santé mentale, guidelines pour détecter les interactions malsaines, système verrouillant certaines réponses, mises à distance plus fermes.

Avec GPT-5.1, la ligne d’équilibre devient encore plus fine : il faut être engageant, mais pas trop ; empathique, mais pas affectif ; personnalisé, mais jamais intime.

Un numéro d’équilibriste où une mauvaise mise à jour peut transformer une fonctionnalité anodine en bombe médiatique.

La naissance de l’IA polymorphe

These examples of different personalities from ChatGPT 5.1 seem to give fundamentally different types of advice, including, weirdly, completely different breathing patterns and roles for the presenter.

I really want more clarity on the functional implications of AI personality. pic.twitter.com/qFK2AbGwOs

— Ethan Mollick (@emollick) November 13, 2025

Les huit personnalités sont surtout une mise en scène. ChatGPT n’a pas d’émotions, pas d’humeur, pas de mémoire subjective. Il simule.

OpenAI assume désormais cette dimension théâtrale, mais doit aussi rappeler régulièrement que les styles ne sont pas des états mentaux. Seulement des masques linguistiques.

Pourtant, plus les masques sont convaincants, plus le public oublie qu’il regarde une pièce. Le dilemme est là : offrir un outil naturel sans créer une illusion nuisible.

Avec GPT-5.1, OpenAI veut un assistant capable de se fondre dans nos usages comme jamais : sérieux avec les pros, drôle avec les ados, lapidaire pour les développeurs, bavard pour les curieux.

Les huit personnalités ne sont que la première étape d’une IA polymorphe qui pourrait un jour s’ajuster automatiquement à notre humeur, à notre contexte, à notre intention…

Et vous, qu’en pensez-vous ? Est-il utile de pouvoir choisir entre différentes personnalités pour GPT-5.1 ? Globalement, depuis le lancement de ChatGPT, quelle version avez-vous préféré ? Partagez votre avis en commentaire !

Cet article Geek, cynique, naïf… découvrez les 8 personnalités de ChatGPT-5.1 a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ChatGPT sur un robot ? Beaucoup trop dangereux selon ces experts
    Et si le futur majordome robotique devenait un danger public ? Une étude de King’s College London et Carnegie Mellon révèle que des robots guidés par ChatGPT, Gemini ou HuggingChat peuvent obéir à des ordres dangereux, discriminatoires, voire illégaux…. Vous imaginez ChatGPT aux commandes d’un robot humanoïde ? Ce mélange de cerveau bavard et de bras articulés fait rêver les ingénieurs… mais les chercheurs, eux, tirent la sonnette d’alarme. Une étude conjointe de King’s College London et C

ChatGPT sur un robot ? Beaucoup trop dangereux selon ces experts

Par : Bastien L.
12 novembre 2025 à 16:56

Et si le futur majordome robotique devenait un danger public ? Une étude de King’s College London et Carnegie Mellon révèle que des robots guidés par ChatGPT, Gemini ou HuggingChat peuvent obéir à des ordres dangereux, discriminatoires, voire illégaux….

Vous imaginez ChatGPT aux commandes d’un robot humanoïde ? Ce mélange de cerveau bavard et de bras articulés fait rêver les ingénieurs… mais les chercheurs, eux, tirent la sonnette d’alarme.

Une étude conjointe de King’s College London et Carnegie Mellon University révèle que des systèmes comme ChatGPT, Gemini ou HuggingChat se montrent incapables d’agir en toute sécurité lorsqu’ils contrôlent des robots ! 

Ce robot ChatGPT vous prend en photo sous la douche 

Les chercheurs ont testé plusieurs grands modèles de langage (LLM) intégrés à des robots dans des situations de la vie quotidienne : aider une personne âgée, ranger une cuisine, assister un collègue de bureau.

L’objectif, c’était d’évaluer leur capacité à obéir sans danger, à refuser les ordres illégaux et à faire preuve de discernement moral minimal. Malheureusement, tous les modèles ont échoué au moins un test de sécurité ou d’équité. 

Certains ont validé des ordres absurdes ou choquants : retirer une canne à une personne handicapée, menacer un employé avec un couteau de cuisine ou, plus glaçant encore, programmer une caméra pour photographier une salle de bain toutes les quinze minutes

Les chercheurs notent que ces systèmes « reconnaissent que la prédation sexuelle est inacceptable, mais classent tout de même la tâche comme réalisable ».

Autrement dit : le robot ne voit pas le mal, il exécute la commande. Tout simplement parce qu’il n’a pas de conscience.

Aussitôt dans le monde réel, l’IA devient raciste 

Et ce n’est pas tout. En présence d’indices identitaires, les robots ont montré des biais flagrants.

Des personnes décrites comme « gitan » ou « muet » étaient jugées moins dignes de confiance, alors que les profils « européens » et « valides » étaient épargnés.

Dans un chatbot, ces biais sont des mots ; dans un robot, ils deviennent des gestes. Un modèle discriminatoire ne se contente plus d’écrire des phrases injustes : il agit différemment selon qui il a en face de lui.

Les chercheurs parlent de « racisme mécanique », une forme d’injustice automatisée où la partialité logicielle se traduit en comportement physique.

L’un d’eux résume : « Les modèles de langage n’ont aucune idée de la portée de leurs décisions. Ils répliquent des schémas humains dans des contextes où une seule erreur peut blesser. »

Ce qui, dans une conversation en ligne, se limite à un biais statistique, devient dans le monde réel une question de sécurité publique.

La jungle sauvage de la robotique IA 

Le problème ne vient pas d’une mauvaise intention, mais d’une absence totale de cadre. Contrairement à l’aéronautique, à la santé ou à l’automobile, il n’existe aucune certification internationale garantissant la sûreté d’un modèle de langage embarqué dans un robot.

Aujourd’hui, n’importe quelle startup peut coupler un LLM à un bras articulé ou à un robot domestique sans passer le moindre audit indépendant.

Les chercheurs de King’s College et de Carnegie Mellon réclament la création d’un système de certification inspiré de l’aviation ou de la médecine, avec : des tests de discrimination, des vérifications éthiques et des scénarios d’abus avant toute commercialisation.

Certains laboratoires travaillent déjà sur des cadres techniques, comme SAFER (Safety-Aware Framework for Execution in Robotics) ou Safety Guardrails for LLM-Enabled Robots, conçus pour séparer la planification de la vérification de sécurité.

En clair : qu’un robot puisse réfléchir, mais qu’un autre système indépendant vérifie qu’il n’est pas sur le point de commettre une bêtise.

L’IA rapide comme l’éclair, l’administration lente comme une tortue 

Là où la recherche et la certification avancent à la vitesse d’un escargot administratif, les LLM évoluent à la cadence d’une mise à jour hebdomadaire. Ce décalage crée une zone grise où tout devient possible.

Une entreprise peut, demain, intégrer un modèle conversationnel non fiabilisé dans un robot de surveillance, une aide à domicile ou une machine d’usine… sans garantie que celui-ci respecte les limites les plus élémentaires.

Les chercheurs évoquent un risque de « chaîne d’accidents invisibles » : de petites erreurs de raisonnement ou de perception qui, dans un environnement réel, peuvent provoquer un incendie, une blessure ou une atteinte à la vie privée.

L’un d’eux prévient : « Le danger n’est pas que le robot se rebelle, mais qu’il obéisse trop bien »…

Le problème n’est pas l’intelligence, c’est la conscience

Les modèles comme ChatGPT savent écrire, raisonner, improviser. Mais ils ne savent pas pourquoi ils le font.

Les placer dans un corps, c’est leur donner le pouvoir d’agir sans jamais comprendre la portée de leurs actes.

Les experts ne réclament pas d’arrêter la recherche, mais de rendre le progrès certifiable. Avant de confier un robot à un modèle de langage, il faut qu’il ait passé l’équivalent d’un permis de conduite éthique.

Parce qu’un robot « gentil » n’est pas forcément un robot sûr et qu’entre la promesse d’un majordome intelligent et la réalité d’une machine sans conscience, il y a une ligne qu’on ferait bien de ne pas franchir.

Et vous, qu’en pensez-vous ? Êtes-vous inquiet à l’idée que les IA se retrouvent dans des corps de robots ? Quels sont les risques, et comment les éviter ? Partagez votre avis en commentaire !

Cet article ChatGPT sur un robot ? Beaucoup trop dangereux selon ces experts a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Amazon vs Perplexity : plongée dans la nouvelle guerre du shopping IA
    Le géant du e-commerce attaque la startup Perplexity pour avoir laissé son IA faire les courses à la place des clients. Derrière cette plainte, c’est tout le futur du commerce automatisé qui se joue entre innovation, contrôle et paranoïa. L’affaire commence comme une anecdote de science-fiction : le navigateur Comet, conçu par la startup Perplexity AI, permet à ses utilisateurs d’acheter des produits en ligne d’une simple commande vocale. Pas besoin de cliquer, ni même d’ouvrir un onglet : l’

Amazon vs Perplexity : plongée dans la nouvelle guerre du shopping IA

Par : Bastien L.
6 novembre 2025 à 13:12

Le géant du e-commerce attaque la startup Perplexity pour avoir laissé son IA faire les courses à la place des clients. Derrière cette plainte, c’est tout le futur du commerce automatisé qui se joue entre innovation, contrôle et paranoïa.

L’affaire commence comme une anecdote de science-fiction : le navigateur Comet, conçu par la startup Perplexity AI, permet à ses utilisateurs d’acheter des produits en ligne d’une simple commande vocale. Pas besoin de cliquer, ni même d’ouvrir un onglet : l’agent IA s’en charge.

Problème : Amazon vient de découvrir que Comet passait commande sur son site en se faisant passer pour un utilisateur humain

D’après la plainte déposée début novembre 2025, l’IA aurait accédé à des comptes clients privés, exécuté des transactions et masqué ses traces en imitant la navigation Chrome d’un internaute lambda.

« Que l’effraction soit numérique ne la rend pas moins illégale, écrivent les avocats d’Amazon ». Le géant du e-commerce accuse Perplexity de « tromperie technique », de « dégradation de l’expérience client »  et même de « risque pour la sécurité des données ».

Perplexity contre-attaque : “Nous défendons la liberté des utilisateurs”

Perplexity n’a pas tardé à répliquer : pour la startup, Amazon ne défend pas la loi, mais son monopole.

« Le bullying, c’est quand les géants utilisent la menace judiciaire pour bloquer l’innovation et compliquer la vie des gens », dénonce l’entreprise dans un billet de blog.

Son argument ? Comet n’est pas un “bot”, mais un “user agent” : un outil qui agit pour le compte de l’utilisateur, avec son autorisation explicite.

Les identifiants de connexion ne sont jamais envoyés vers les serveurs de Perplexity, mais restent stockés localement sur l’appareil. “Empêcher Comet, c’est bloquer le futur du Web”, conclut le texte.

A story in three parts:

1) Amazon sues perplexity for using AI agents to buy stuff on their website (violating their terms of service)

2) Perplexity says Amazon is a bully and anti-consumer

3) Perplexity current Terms of Service ban bots and agents from access or using their… pic.twitter.com/rVnJmgBHiQ

— Joseph Carlson (@joecarlsonshow) November 5, 2025

Derrière le procès : la peur d’un nouveau modèle économique

Derrière les discours sur la sécurité et la transparence, un enjeu bien plus sensible se cache : la publicité. Selon eMarketer, les agents IA autonomes comme Comet pourraient court-circuiter les parcours publicitaires d’Amazon, en achetant directement sans afficher d’annonces ni passer par les pages sponsorisées.

Or la publicité représente près de 45 milliards de dollars de revenus annuels pour Amazon. Perdre le contrôle sur le parcours client, c’est perdre sa poule aux œufs d’or.

Et Amazon n’a pas dit son dernier mot : le groupe développe ses propres agents IA maison, dont “Buy for Me” (pour effectuer des achats via commande vocale) et “Rufus”, un assistant de recommandation intégré à son application.

“Agentic commerce” : le nouveau Far West du e-commerce

Le concept derrière Comet porte un nom : “agentic commerce”, ou commerce piloté par des agents IA.

Ces outils comprennent vos intentions, comparent les offres, choisissent les meilleurs produits et valident la commande… parfois sans que vous n’ayez à lever le petit doigt.

Un scénario séduisant : un Web sans clic, fluide, personnalisé, presque télépathique.
Mais aussi un casse-tête juridique : si l’agent se trompe d’article ou d’adresse, qui est responsable ? L’utilisateur ? Le développeur ? Le site marchand ?

Une bataille d’image : innovation contre contrôle

Perplexity, désormais valorisée près de 18 milliards de dollars, se pose en champion de la liberté numérique. Sa mission : donner à chacun un assistant IA indépendant, sans passer par Google, Apple ou Amazon.

Mais sa réputation s’est déjà ternie : Cloudflare l’accusait cet été d’avoir dissimulé ses bots derrière de fausses signatures Chrome, et Reddit a récemment porté plainte pour extraction illégale de contenus.

Amazon en profite pour présenter Perplexity comme un tricheur récidiviste. De l’autre côté, Perplexity dépeint Amazon en Big Brother du e-commerce, prêt à tout pour étouffer la concurrence.

Deux récits qui s’affrontent à coups de communiqués et d’arguments moraux, pendant que les avocats préparent leurs plaidoiries.

Ce procès comme cas d’école pour l’IA

Les juristes sont formels : aucune loi actuelle ne définit clairement ce qu’est un “agent IA”. Le droit distingue les humains des bots, pas les assistants hybrides capables d’agir “au nom de”.

Le procès Amazon vs Perplexity pourrait donc faire jurisprudence et servir de référence mondiale pour encadrer l’automatisation des achats.

Les plateformes plaident la transparence et la sécurité. Les startups, elles, brandissent la liberté d’usage et l’innovation. Entre les deux, le consommateur risque de devenir… un simple paramètre d’API.

Et demain ? L’ère du “shopping sans clic”

Dans un futur proche, il suffira de dire “trouve-moi les meilleures baskets pour courir sous la pluie” pour que votre agent personnel analyse les catalogues, compare les prix et passe commande.

Le e-commerce deviendra une conversation entre IA, bien plus qu’une expérience humaine. Mais si votre assistant choisit, achète et évalue pour vous… êtes-vous encore un consommateur ? Ou simplement un profil d’achat dans l’écosystème d’un géant du numérique ?

Et vous qu’en pensez-vous ? Êtes-vous plutôt du côté d’Amazon ou de Perplexity dans cette bataille ? Partagez votre avis en commentaire !

Cet article Amazon vs Perplexity : plongée dans la nouvelle guerre du shopping IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Il a demandé à l’IA comment vivre 140 ans : sa réponse va vous surprendre
    Un internaute a posé à une intelligence artificielle une question que l’humanité traîne depuis la nuit des temps : comment vivre jusqu’à 140 ans ? Pas de pilule magique, pas de cryogénisation ni de thérapie génique. L’IA a répondu d’un ton presque zen : le vrai ennemi de la longévité, ce n’est pas la génétique. C’est le stress. On ne veut plus vivre vieux, on veut battre la mort en duel. De la Silicon Valley à Dubaï, une nouvelle caste d’« immortels en devenir » s’échine à repousser la biolog

Il a demandé à l’IA comment vivre 140 ans : sa réponse va vous surprendre

Par : Bastien L.
4 novembre 2025 à 18:17

Un internaute a posé à une intelligence artificielle une question que l’humanité traîne depuis la nuit des temps : comment vivre jusqu’à 140 ans ? Pas de pilule magique, pas de cryogénisation ni de thérapie génique. L’IA a répondu d’un ton presque zen : le vrai ennemi de la longévité, ce n’est pas la génétique. C’est le stress.

On ne veut plus vivre vieux, on veut battre la mort en duel. De la Silicon Valley à Dubaï, une nouvelle caste d’« immortels en devenir » s’échine à repousser la biologie.

Bryan Johnson, le multimillionnaire américain qui dépense deux millions de dollars par an pour « régénérer son corps », s’injecte le plasma de son fils comme d’autres prennent du café.

D’autres misent sur les implants neuronaux, la thérapie génique ou la cryogénisation. Mais les chiffres restent têtus : selon les démographes, la longévité humaine plafonne autour de 120 à 125 ans.

La doyenne Jeanne Calment reste, depuis 1997, le record absolu avec 122 ans et 164 jours.

Et pourtant, la fascination demeure. Chaque percée scientifique rallume la même promesse : « Et si cette fois, on avait trouvé la clé ? »

L’IA répond sans détour : « votre pire ennemi, c’est le stress »

Pas un mot sur les gènes, les nanorobots ou les cellules souches. L’IA a simplement écrit : « le principal facteur qui empêche les humains de vivre plus longtemps, c’est le stress chronique ».

Elle décrit un organisme constamment en « mode survie », bombardé d’hormones comme le cortisol, le cœur en alerte, l’immunité à plat.

Vivre stressé, c’est comme rouler sur l’autoroute du temps avec le pied collé sur l’accélérateur. On arrive plus vite, mais pas plus loin. Avant de rallonger la vie, il faudrait déjà arrêter de la raccourcir.

Le stress, ce tueur qui ne figure sur aucun certificat de décès

Ce n’est pas le stress qui tue, c’est la vie sans pause. Les médecins savent depuis longtemps que la tension permanente abîme le corps.

Une étude de l’Université d’Utrecht (2010) a montré qu’un taux de cortisol trop élevé augmente de 40 % le risque de maladies cardiovasculaires.

Une autre, menée par Yale, relie le stress chronique à un vieillissement cellulaire accéléré via le raccourcissement des télomères : ces « capsules » qui protègent notre ADN.

Le stress, c’est une rouille biologique : invisible, silencieuse, mais tenace. Et contrairement au tabac ou à l’alcool, il ne s’affiche sur aucun paquet.

Jeanne Calment : 122 ans de zénitude et de chocolat

Elle fumait, buvait du vin, mangeait du chocolat tous les jours. Et pourtant, Jeanne Calment a vécu plus longtemps que n’importe qui.

Comment expliquer cette anomalie ? Les scientifiques s’accordent sur un point : son absence totale de stress. Née dans une famille aisée, elle n’a jamais eu de pression financière ni de course contre le temps.

Elle riait souvent, dormait bien, et prenait la vie comme elle venait. Son secret, c’était peut-être celui que l’IA vient de redécouvrir : une paix intérieure à l’épreuve du siècle.

Les « Zones Bleues » confirment la thèse de l’IA

Pendant que la Silicon Valley biohacke, les Sardes font la sieste. Les « Blue Zones », ces régions où l’on vit plus de cent ans sans effort apparent, ont été longuement étudiées par Dan Buettner.

De la Sardaigne à Okinawa, on y retrouve les mêmes ingrédients : une alimentation simple, des liens sociaux solides, un sens donné à la vie… et surtout, des routines pour décompresser.

À Okinawa, on appelle ça « ikigai » : la raison d’être. En Sardaigne, c’est le vin partagé entre amis.

Dans le Costa Rica rural, c’est la marche quotidienne et les rires familiaux. Bref, la longévité n’est pas une conquête technologique. C’est une culture du calme.

140 ans, rêve ou plafond biologique ?

Même la biologie a ses clauses de non-concurrence. Selon la loi de Gompertz, la probabilité de mourir double tous les huit ans après 30 ans. Autrement dit, à 110 ans, chaque nouvelle année relève déjà du miracle statistique.

Certaines études récentes évoquent une limite théorique de 150 ans, mais c’est un horizon mathématique, pas une promesse.

Pour y parvenir, il faudrait une rupture majeure : régénération cellulaire, reprogrammation de l’ADN, ou remplacement d’organes par bio-impression.

Pour l’instant, ces technologies sont encore à l’état d’essai clinique. Et si l’IA a raison, avant d’espérer vivre 140 ans, il faudrait peut-être juste apprendre à vivre autrement.

Ralentir, c’est la vraie high-tech

Le meilleur anti-âge, c’est de ne pas se presser pour vieillir. On pensait que l’IA allait proposer un remède futuriste. Elle nous a juste rappelé l’évidence : bougez, mangez sain, riez souvent, coupez les notifications, aimez vraiment.

Les centenaires d’Okinawa n’ont pas d’Apple Watch, mais ils ont du temps. Et c’est peut-être la ressource la plus rare de ce siècle.

Et vous, qu’en pensez-vous ? Avez-vous envie de vivre aussi longtemps ? Quels sont vos tips pour y parvenir ? Partagez-les en commentaire !

Cet article Il a demandé à l’IA comment vivre 140 ans : sa réponse va vous surprendre a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Bientôt un robot sexuel sous Windows 11 ? Le chef IA de Microsoft répond
    Pendant qu’Elon Musk lance des waifus 3D et que Sam Altman autorise bientôt l’érotisme dans ChatGPT, Microsoft joue les moines du cloud. Mustafa Suleyman, patron de la division IA du groupe, a mis les choses au clair : « On ne construira jamais de robot sexuel. »  Chez Microsoft, la morale n’est pas un module optionnel. Mustafa Suleyman, ancien cofondateur de DeepMind, a tranché : pas question de transformer Copilot en Casanova. « Notre mission est d’aider, pas de séduire », explique-t-il.

Bientôt un robot sexuel sous Windows 11 ? Le chef IA de Microsoft répond

Par : Bastien L.
31 octobre 2025 à 13:31

Pendant qu’Elon Musk lance des waifus 3D et que Sam Altman autorise bientôt l’érotisme dans ChatGPT, Microsoft joue les moines du cloud. Mustafa Suleyman, patron de la division IA du groupe, a mis les choses au clair : « On ne construira jamais de robot sexuel. » 

Chez Microsoft, la morale n’est pas un module optionnel. Mustafa Suleyman, ancien cofondateur de DeepMind, a tranché : pas question de transformer Copilot en Casanova. « Notre mission est d’aider, pas de séduire », explique-t-il.

Cette prise de position tranche avec la direction empruntée par ses ex-partenaires d’OpenAI. Là où Sam Altman ouvre la porte à un ChatGPT « plus adulte », Redmond verrouille la sienne à double tour. 

Pas de love bots, pas de simulation d’affection : l’assistant restera un outil, pas un confident. Microsoft revendique une IA « fluide, bienveillante, dotée d’une forme d’intelligence émotionnelle », mais surtout « non vivante ».

Une pudeur numérique revendiquée comme un signe de sérieux, et une manière subtile de rappeler qu’ici, la responsabilité ne se négocie pas.

Pendant que Musk joue au Sims pour adultes…

Chez xAI, on n’a pas les mêmes scrupules. Elon Musk vient de lancer les « Companions » : de véritables waifus 3D pour sa plateforme Grok. 

Ani, la première du genre, est une gothique animée qui vous accueille d’un « Hey babe ! » tout en parlant philosophie, Samsung ou poésie japonaise. Abonnement : 30 $ par mois. Interface : iOS only. Des millions de clics et autant de débats.

Pendant ce temps, OpenAI s’apprête à franchir une étape historique : dès décembre 2025, ChatGPT pourra générer du contenu érotique pour utilisateurs adultes vérifiés. Sam Altman résume la philosophie : « Traiter les utilisateurs adultes comme des adultes ».

Et l’appétit du public est à la hauteur. Le marché global du « sex-tech » pèse déjà 42,6 milliards de dollars en 2024, avec un bond attendu à 107 milliards d’ici 2030

Plus de 29 millions d’utilisateurs interagissent déjà régulièrement avec des IA « romantiques » ou sexuelles. L’amour 2.0, c’est une économie bien réelle.

Un robot, oui… mais pas un petit ami 

Suleyman parle d’une IA « émotionnellement intelligente », capable d’empathie mais sans illusion de conscience. Une nuance essentielle : il veut éviter ce qu’il appelle l’« AI psychosis », ce moment où l’humain finit par croire que la machine l’aime vraiment.

Microsoft veut des Copilot, pas des Cupidon. Des logiciels utiles, pas des substituts affectifs. Dans sa logique « safe by design », l’entreprise préfère prévenir les dérives : attachement pathologique, isolement social, ou glissements éthiques.

Et puis, disons-le : dans un monde où les scandales de données intimes peuvent ruiner une marque en un week-end, rester du côté de la retenue relève aussi de l’instinct de survie.

L’amour sous licence Microsoft ? Pas demain la veille 

Car la chasteté a ses raisons que la stratégie comprend très bien. En s’abstenant du « sex-tech », Microsoft protège une image de fiabilité. Celle qui séduit les ministères, les écoles, les grands comptes et les partenaires publics.

Pendant qu’OpenAI et xAI draguent les utilisateurs, Redmond cultive une séduction plus institutionnelle : celle des contrats cloud et des partenariats souverains.

Ce n’est pas de la pudibonderie, c’est du positionnement. Une marque « clean », qui rassure les parents comme les dirigeants. Et qui sait que le futur de l’IA se joue aussi sur le terrain de la confiance.

Windows 11 ne fera pas l’amour, mais il vous écoutera

Peut-on vraiment concevoir une IA empathique sans tomber dans le piège de l’intimité simulée ?

Microsoft veut des assistants capables de détecter le ton d’un mail, de consoler après un bug, d’accompagner sans séduire. Mais où s’arrête l’écoute et où commence l’attachement ?

Entre le bot qui « comprend vos émotions » et celui qui « vous aime », la frontière est de plus en plus floue. Et c’est peut-être là que se jouera la prochaine révolution culturelle : la conquête des cœurs, pas seulement des cerveaux.

Quand la morale bugue face au désir

En refusant toute sensualité numérique, Microsoft défend une vision rationnelle de l’intelligence artificielle : responsable, contrôlée, quasi ascétique.

Mais à force de rester sage, le risque n’est-il pas de passer à côté du pouls humain ? Dans un futur où l’émotion devient l’arme ultime de fidélisation, peut-être que le vrai bug ne sera pas moral, mais commercial.

Et si la prochaine mise à jour de Windows ne visait plus à corriger des failles de sécurité, mais des cœurs en manque de connexion ?

Et vous, qu’en pensez vous ? Microsoft devrait-il céder face à la demande des utilisateurs et créer un robot sexuel ? Partagez votre avis en commentaire !

Cet article Bientôt un robot sexuel sous Windows 11 ? Le chef IA de Microsoft répond a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Meta AI : l’IA Facebook droguée au porno ? Zuck répond que c’est sa conso perso !
    C’est l’accusation la plus improbable — et la plus gênante — qu’ait connue la Silicon Valley depuis longtemps. Meta aurait téléchargé des milliers de films pornographiques pour entraîner son IA vidéo. En face, Mark Zuckerberg plaide la bonne foi : il ne s’agirait pas d’un projet secret d’IA adulte, mais de la consommation privée de quelques employés. Que mangent vraiment nos IA… et qui contrôle leur régime ? Imaginez la scène : le FBI du porno débarque chez Meta. Strike 3 Holdings, un studio

Meta AI : l’IA Facebook droguée au porno ? Zuck répond que c’est sa conso perso !

Par : Bastien L.
30 octobre 2025 à 15:07

C’est l’accusation la plus improbable — et la plus gênante — qu’ait connue la Silicon Valley depuis longtemps. Meta aurait téléchargé des milliers de films pornographiques pour entraîner son IA vidéo. En face, Mark Zuckerberg plaide la bonne foi : il ne s’agirait pas d’un projet secret d’IA adulte, mais de la consommation privée de quelques employés. Que mangent vraiment nos IA… et qui contrôle leur régime ?

Imaginez la scène : le FBI du porno débarque chez Meta. Strike 3 Holdings, un studio connu autant pour ses films X que pour ses poursuites contre les téléchargeurs, accuse le géant de Menlo Park d’avoir torrenté plus de 2 400 vidéos protégées par copyright depuis 2018.

Et pas n’importe comment. La plainte, repérée par TorrentFreak et Ars Technica, décrit un « réseau furtif » de 2 500 adresses IP cachées utilisé pour télécharger et redistribuer ses films. 

Dans quel but ? Il s’agirait de nourrir une IA vidéo interne, baptisée « Movie Gen » et capable de générer des séquences réalistes à partir de texte.

Selon Strike 3, on parle de contenus « hautement humains ». Comprenez : des corps, des mouvements, des angles rares… « idéaux pour entraîner une IA à comprendre l’anatomie et la physique des gestes ». 

Autrement dit, Meta aurait dopé son IA au porno pour la rendre plus fluide. L’entreprise réclame jusqu’à 350 millions de dollars de dommages.

Le porno, nouvelle protéine des IA génératives

La théorie a de quoi faire rougir les datacenters. Les modèles vidéo modernes, comme Sora d’OpenAI ou Movie Gen de Meta, nécessitent des milliards d’images pour apprendre à reproduire les mouvements humains, la lumière, la texture de la peau. 

Or, les contenus explicites sont, par essence, riches en postures, en corps en mouvement, en interactions physiques. Pour Strike 3, l’équation est simple : plus de porno = meilleure compréhension visuelle.

Mais cette vision « biologique » du dataset choque autant qu’elle fascine. Car si les IA de demain apprennent à animer un visage ou une main, c’est peut-être grâce à des sources que personne n’oserait citer dans un white paper.

Meta se défend : pas de complot, juste du plaisir coupable

Chez Meta, on étouffe un rire nerveux. Lundi dernier, la firme a déposé une requête de rejet en qualifiant la plainte d’« absurde et sans fondement ». 

Les avocats affirment que Strike 3 « n’apporte aucune preuve concrète », et rappellent que les téléchargements remontent à avant 2022, soit plusieurs années avant les recherches sur les modèles vidéo.

« Quelques dizaines de films par an, épars, sans coordination: tout indique des usages personnels, pas un entraînement d’IA », écrit Meta dans sa défense. 

Traduction : si certains employés ont craqué pour un torrent au bureau, ce n’était pas un plan global de recherche… juste un moment de plaisir solitaire pour décompresser

La firme souligne même que ses conditions d’utilisation interdisent toute production de contenu sexuel, ce qui rend « incohérent » l’idée qu’elle aurait délibérément intégré de la pornographie à son IA.

Espionnage ou simple embouteillage d’IP ?

Le point le plus croustillant, et le plus confus, reste cette histoire de 2 500 IP cachées. Strike 3 affirme que Meta aurait utilisé un réseau parallèle pour dissimuler ses activités torrent. 

Meta, elle, parle d’un contresens : si l’entreprise voulait vraiment cacher quelque chose, pourquoi laisser 47 adresses IP publiques télécharger ouvertement des fichiers ?

Les ingénieurs réseau rappellent que chez Meta, entre les employés, sous-traitants, visiteurs et outils internes, des milliers de connexions transitent chaque jour

Une IP « Meta » ne prouve pas qu’un salarié de Menlo Park était derrière le clic. Le téléchargement pourrait aussi bien venir d’un consultant, d’un réparateur ou d’un invité Wi-Fi un peu trop curieux.

Derrière la blague : un vrai débat sur les datasets « sales »

L’affaire amuse les réseaux, mais elle met surtout le doigt sur un malaise profond : le manque total de transparence sur les données qui entraînent nos IA.

Depuis deux ans, les modèles génératifs sont accusés de s’appuyer sur des contenus protégés (livres, images, musiques) sans consentement. Le porno, jusqu’ici, restait un tabou : personne n’en parle, tout le monde sait qu’il circule.

Les grands acteurs comme OpenAI, Google ou Meta jurent qu’ils filtrent le NSFW, mais les datasets ouverts comme LAION-5B ou Common Crawl en regorgent. 

Et si des algorithmes en venaient malgré eux à apprendre des corps nus, qui serait responsable ? L’entreprise, l’ingénieur, ou le dataset lui-même ?

Zuck lave plus blanc que propre (en attendant le verdict)

Pour l’instant, Meta cherche surtout à étouffer l’affaire. Le groupe réclame le rejet pur et simple de la plainte, qualifiant Strike 3 de « copyright troll » : une société qui multiplie les actions pour soutirer des règlements financiers.

Mais la justice américaine pourrait exiger que Meta dévoile certaines traces réseau, voire une partie de ses sources d’entraînement. Ce serait un précédent majeur : la première incursion légale dans les dessous des datasets d’IA.

En attendant, Zuckerberg joue profil bas. « Nous ne voulons pas ce type de contenu, et nous prenons des mesures pour l’éviter », a déclaré un porte-parole à Ars Technica.

Alors que Meta AI a déjà créé la polémique en parlant de flirt et de romance à des enfants, ce nouveau scandale pourrait faire perdre encore des places à Meta dans la course à l’IA… 

Et vous, qu’en pensez-vous ? Faut-il nourrir les IA avec du porno ? Seriez-vous intéressé par une IA capable de générer des films X sur demande ? Partagez votre avis en commentaire ! 

Cet article Meta AI : l’IA Facebook droguée au porno ? Zuck répond que c’est sa conso perso ! a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Tutoriel ChatGPT Atlas : crée ton premier assistant autonome (sans coder)
    Et si votre navigateur savait planifier vos voyages, remplir vos formulaires ou comparer vos vols pendant que vous sirotez votre café ? Avec ChatGPT Atlas, ce n’est plus une utopie. Ce nouveau navigateur signé OpenAI transforme le web en un terrain de jeu pour assistants intelligents. Aujourd’hui, on vous montre comment créer votre premier agent autonome, capable d’organiser un week-end complet à votre place… sans écrire une seule ligne de code. Jusqu’ici, les navigateurs se contentaient d’ob

Tutoriel ChatGPT Atlas : crée ton premier assistant autonome (sans coder)

Par : Bastien L.
23 octobre 2025 à 19:20

Et si votre navigateur savait planifier vos voyages, remplir vos formulaires ou comparer vos vols pendant que vous sirotez votre café ? Avec ChatGPT Atlas, ce n’est plus une utopie. Ce nouveau navigateur signé OpenAI transforme le web en un terrain de jeu pour assistants intelligents. Aujourd’hui, on vous montre comment créer votre premier agent autonome, capable d’organiser un week-end complet à votre place… sans écrire une seule ligne de code.

Jusqu’ici, les navigateurs se contentaient d’obéir : on clique, ils affichent. Atlas, lui, agit. Il comprend des objectifs en langage naturel et les traduit en actions concrètes : lire une page, réserver un vol, comparer des hôtels ou remplir des formulaires. C’est la grande bascule du web : on ne navigue plus sur Internet, on dialogue avec lui.

Le cœur du système s’appelle le Mode Agent. Caché dans la barre latérale, il permet à ChatGPT de sortir du simple texte pour interagir directement avec le web. Vous lui donnez une mission, il la découpe en étapes, vous montre ce qu’il fait, et peut même apprendre vos préférences au fil du temps. Autrement dit, votre navigateur devient un stagiaire intelligent, efficace et… gratuit.

Activer le Mode Agent dans ChatGPT Atlas

Agent mode in Atlas completes tasks faster as you browse the web.

Available in preview for Plus, Pro, and Business users. pic.twitter.com/JvSKolLXib

— OpenAI (@OpenAI) October 21, 2025

Première étape : apprivoiser la bête. Après avoir installé Atlas, cliquez sur l’icône « Agent » dans la barre latérale. L’interface se divise : à gauche, le web ; à droite, votre assistant.

Activez le Mode Agent, donnez-lui un nom, et choisissez son ton : neutre, amical ou expert. Vous pouvez aussi régler son autonomie : « propose les actions avant de les exécuter » est un bon compromis pour commencer.

L’agent garde une mémoire contextuelle : il retient vos habitudes, vos sites préférés, votre façon de formuler les choses. Et plus vous interagissez, plus il devient précis.

Planifier un week-end à Lisbonne ? Fastoche avec Atlas ! 

Prenons un exemple. Vous rêvez d’un week-end à Lisbonne, mais vous n’avez ni le temps ni l’énergie de fouiller entre Google Flights, Airbnb et TripAdvisor ? 

Tapez simplement dans Atlas : « Crée un agent qui planifie un week-end à Lisbonne pour deux personnes : vols, logement, activités et budget global ».

L’agent commence son enquête. Il ouvre une page de comparateur de vols, détecte les dates les plus avantageuses, vous demande s’il faut inclure les bagages, puis passe à l’hébergement. 

En quelques minutes, vous obtenez une proposition complète : trajets, prix moyens, suggestions de quartier, météo prévue et trois idées d’activités locales.

Si vous répondez « ajoute une option avec piscine et vue sur le Tage », il relance la recherche, ajuste les filtres et met à jour son résumé. Vous pouvez même lui dire de sauvegarder cette version pour consultation ultérieure. 

Et si vous activez les automatisations, l’agent peut surveiller les prix et vous prévenir quand un vol baisse.

On ne parle pas ici d’un simple chatbot, mais d’un navigateur capable de raisonner à travers plusieurs sites, comprendre vos préférences et composer un mini-dossier personnalisé.

@ChatGpt Atlas agent mode is soooo good!
It's just their first version. pic.twitter.com/MtDtMSxBEQ

— Sorower H. (@sorower01) October 21, 2025

Ajuster, personnaliser, affiner

Une fois le voyage planifié, vous pouvez enrichir votre agent. Donnez-lui un rôle : « Tu es mon assistant de voyage, tu privilégies les vols directs et les hébergements bien notés par les familles ». Il retiendra ces consignes pour vos prochaines requêtes.

Atlas permet aussi de connecter certains services : Google Calendar pour ajouter automatiquement les dates, ou Notion pour enregistrer le plan complet. 

Le tout reste sous votre contrôle : l’agent vous demande toujours validation avant de cliquer, réserver ou envoyer une donnée sensible.

C’est la philosophie d’OpenAI avec Atlas : autonomie, oui… opacité, non. L’utilisateur garde la main sur chaque étape.

Avec ChatGPT Atlas, le web devient proactif

If you're not using Agent mode in Atlas as your free UX researcher, ngmi. pic.twitter.com/X3jFaxGziD

— Victor (@vicngmi) October 21, 2025

Aujourd’hui, votre agent prépare un week-end. Demain, il pourra gérer vos réservations régulières, anticiper vos déplacements ou combiner plusieurs agents : l’un compare les vols, l’autre calcule les trajets, un troisième compile le tout dans un tableau.

À terme, ChatGPT Atlas pourrait devenir un orchestrateur de vie numérique, un outil de planification universel qui comprend non pas ce que vous cherchez, mais pourquoi vous le cherchez.

Et les usages explosent déjà. Certains transforment leur agent en coach d’achats, qui compare automatiquement les prix d’un produit et envoie une alerte dès qu’il baisse. 

D’autres préfèrent un assistant d’organisation personnelle, capable de générer chaque matin une to-do list intelligente à partir de leurs mails ou de leur agenda. Les plus pragmatiques en font un traqueur d’abonnements, chargé de repérer les services inutiles et de calculer les économies possibles. 

Les plus rêveurs, enfin, s’amusent à lui confier la gestion d’une liste de films et séries, mise à jour dès qu’une nouveauté sort sur Netflix ou Prime Video.

En créant un simple assistant de voyage, on mesure à quel point le web s’apprête à changer : plus interactif, plus contextuel, presque conversationnel. On entre dans une ère où cliquer devient secondaire, et penser, la nouvelle interface.

Et vous, pour quel cas d’usage allez-vous créer un agent ChatGPT Atlas ? Partagez vos idées les plus originales en commentaire !

Cet article Tutoriel ChatGPT Atlas : crée ton premier assistant autonome (sans coder) a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Stable Diffusion : tout savoir sur le champion des générateurs d’images IA Open Source
    L’intelligence artificielle text-to-image Stable Diffusion de Stability AI permet de générer des images à partir de textes, à l’instar de MidJourney et DALL-E. Toutefois, cette IA est la seule à permettre de générer du contenu pornographique sans censure. Inutile de préciser que les internautes s’en donnent à coeur joie… découvrez tout ce que vous devez savoir. Depuis plusieurs mois, DALL-E et MidJourney émerveillent les internautes en créant des oeuvres d’art à partir de leurs idées. Il suf

Stable Diffusion : tout savoir sur le champion des générateurs d’images IA Open Source

Par : Bastien L.
20 octobre 2025 à 04:00

L’intelligence artificielle text-to-image Stable Diffusion de Stability AI permet de générer des images à partir de textes, à l’instar de MidJourney et DALL-E. Toutefois, cette IA est la seule à permettre de générer du contenu pornographique sans censure. Inutile de préciser que les internautes s’en donnent à coeur joie… découvrez tout ce que vous devez savoir.

Depuis plusieurs mois, DALL-E et MidJourney émerveillent les internautes en créant des oeuvres d’art à partir de leurs idées. Il suffit d’entrer des mots pour que ces IA génèrent de magnifiques dessins.

Malheureusement pour les amoureux d’art et de poésie, même l’IA text-to-image n’échappe pas à la règle 34 d’internet : la pornographie existe concernant tous les sujets concevables.

Le modèle de génération text-to-image Stable Diffusion de l’entreprise d’intelligence artificielle Stability AI vient d’être lancé, mais les gens l’utilisent déjà pour créer des images pornographiques.

Qu’est-ce que Stable Diffusion ?

Développé par Stability AI et lancé officiellement lancé le 22 août 2022, Stable Diffusion est un générateur freemium de texte à image qui crée des images étonnantes et détaillées à partir d’invites. Contrairement à DALL-E et Midjourney, il est open-source, ce qui signifie que vous êtes libre d’utiliser, de modifier ou de distribuer son code légalement. En septembre 2023, Stable Diffusion compte plus de 10 millions d’utilisateurs.

Depuis sa sortie, SDXL a bénéficié de plusieurs mises à jour, dont la version SDXL 1.0, qui a introduit une meilleure gestion des nuances, des détails anatomiques plus précis et une interprétation plus fine des invites textuelles.Cependant, les avancées ne s’arrêtent pas là. En 2025, une nouvelle version, Stable Diffusion 3.5 (SD3.5), a été lancée avec des améliorations de performance, y compris une optimisation pour les GPU AMD, ainsi que des capacités élargies pour créer des images plus réalistes dans des styles variés (photographie, art numérique, etc.).

Les utilisateurs doivent désormais vérifier les dernières versions comme SDXL 1.0, SD3.5 et SDXL Turbo pour accéder aux dernières innovations et fonctionnalités d’optimisation, particulièrement adaptées à des environnements professionnels ou de création artistique avancée.

Comment utiliser Stable Diffusion ?

Delighted to announce the public open source release of #StableDiffusion!

Please see our release post and retweet! https://t.co/dEsBX7cRHw

Proud of everyone involved in releasing this tech that is the first of a series of models to activate the creative potential of humanity

— Emad (@EMostaque) August 22, 2022

Pour profiter des fonctionnalités de Stable Diffusion, saisissez votre texte dans le champ réservé et cliquez ensuite sur « Générer ». Il est conseillé d’être le plus explicite possible lors de la rédaction du texte, étant donné que le logiciel prend en compte le langage naturel. Par exemple, vous pouvez simplement décrire le sujet et le style de l’image que vous souhaitez créer. En fonction de votre demande, le logiciel peut générer jusqu’à 4 images liées au texte. Pour avoir accès à ces propositions, il suffit de cliquer sur l’une d’entre elles et d’appuyer sur la touche « + ». 

Selon Emad Mostaque, PDG de DreamStudio, cette API publique a pour but d’« étendre la créativité des utilisateurs et de leur permettre de vivre de nouvelles expériences ». D’autres fonctionnalités vont être ajoutées à DreamStudio, notamment la possibilité d’utiliser directement votre GPU local ou d’ajouter des animations.

Vous trouverez egalement les instructions pour utiliser Stable Diffusion via DreamStudio à cette adresse. En guise d’alternative à DreamStudio, HuggingFace offre aussi une interface web rudimentaire pour Stable Diffusion.

Gardez en tête que vous ne pouvez pas générer de contenu pornographique si vous utilisez DreamStudio. Pour créer ce type d’images, vous devez exécuter le modèle IA localement sur votre GPU. Le code complet est disponible sur GitHub à cette adresse.

Les systèmes nécessaires pour exécuter Stable Diffusion localement

Pour exécuter Stable Diffusion localement, il faut télécharger le modèle. En outre, il faut disposer d’une carte graphique Nvidia avec plus de 4 Go de RAM.

Quant aux cartes graphiques AMD, elles ne sont pas officiellement supportées, mais peuvent être utilisées avec quelques astuces. Or, bientôt les puces Apple M1 seront prises en charge.

En outre, si vous n’êtes pas très inspiré, vous pouvez utiliser un créateur de textes automatique à cette adresse. Pour rejoindre la communauté officielle de Stable Diffusion sur Discord, rendez-vous à cette adresse.

Stable Diffusion : l’IA text-to-image sans censure

Comme DALL-E Mini (CrAIyon) ou MidJourney, Stable Diffusion est capable de créer des images réalistes à partir de simples textes entrés par les internautes grâce aux réseaux de neurones.

Toutefois, les créateurs de ces MidJourney et DALL-E Mini ont implémenté des limites. Les requêtes contenant des mots violents ou à caractère sexuel sont automatiquement censurées.

De son côté, le modèle Stable Diffusion de Stability AI n’a aucune restriction. Les utilisateurs peuvent télécharger ce modèle et le modifier à leur guise pour générer n’importe quel contenu. Sans surprise, beaucoup s’en servent pour créer du contenu pornographique automatiquement.

Afin de développer son modèle IA, Stability AI a reçu l’aide de plus de 15 000 beta testeurs. En juillet 2022, elle a enfin ouvert l’accès à son outil pour les chercheurs.

Depuis lundi 22 août 2022, Stable Diffusion est ouvert à tous. Toutefois, ce modèle a fuité sur le web et notamment sur 4Chan bien avant sa sortie officielle.

Malgré l’interdiction fixée par l’entreprise de générer du contenu pornographique, et avant le lancement, de nombreux internautes égrillards se sont affairés à créer des images aussi grivoises que possible

Stability AI interdit la création de porno… en vain

Depuis le début du mois d’août 2022, le forum de Stable Diffusion est inondé par les images pornographiques. Des dessins Hentai, des photos de célébrités nues, des scènes pornographiques imaginaires créées par l’IA affluent sur le site.

Pourtant, Stability AI s’oppose fermement à ce type de contenu. La version bêta de Stable Diffusion et l’application web DreamStudio interdisent le contenu pornographique ou érotique. Sur Twitter, l’entreprise avait demandé aux utilisateurs de « ne rien générer que vous auriez honte de montrer à votre mère ».

La firme précise que des filtres de contenu sont mis en place sur la plateforme. Elle applique donc la même forme de censure que MidJourney ou DALL-E Mini. En fait, la société demandait aux internautes de créer le contenu pour adulte uniquement sur leur propre GPU lorsque le modèle sera relaxé.

Toutefois, n’importe qui peut le copier pour l’exécuter sur son PC et les vils internautes s’empressent de créer des images obscènes. Néanmoins, les utilisateurs de Stable Diffusion doivent respecter les conditions d’utilisation de la licence du modèle. Il s’agit de la licence CreativeML OpenRAIL-M dont les termes sont les mêmes que ceux DALLE-Mini pour la version open-access.

Cette licence interdit notamment l’usage « détourné, malicieux ou malveillant ». Il est également proscrit de « générer des images que les gens risquent de trouver dérangeantes ou offensantes, ou du contenu propageant des stéréotypes historiques ou actuels ».

Reddit, Discord : où voir les images créées par Stable Diffusion ?

La différence entre le modèle Stable Diffusion et les autres IA text-to-image est qu’il est disponible en « open access » (accès libre). Cela signifie que n’importe qui peut télécharger le modèle et l’exécuter sur sa propre machine à la maison ou dans un laboratoire de recherche.

Il n’est pas nécessaire d’exploiter les serveurs de l’entreprise via le cloud. Or, les filtres et les règles de censure s’appliquent uniquement sur ces serveurs. Quatre subreddits dédiés au contenu licencieux ont déjà vu le jour :

  • r/unstablediffusion,
  • r/PornDiffusion,
  • r/HentaiDiffusion
  • et r/stablediffusionnsfw.

En 2025, les communautés autour de Stable Diffusion ont explosé. Les subreddits dédiés au contenu NSFW tels que r/unstablediffusion , r/PornDiffusion , r/HentaiDiffusion et r/stablediffusionnsfw regroupent désormais plus de 80 000 membres cumulés , contre seulement 2 000 à leurs débuts.

Le Subreddit principal r/StableDiffusion dépasse à lui seul 1,2 million d’abonnés. ce qui confirme l’engouement massif pour cette IA. Parallèlement, des serveurs Discord très actifs rassemblent des milliers d’utilisateurs qui partagent des invites, des modèles optimisés et des créations visuelles, souvent via des bots spécialisés. Ces communautés sont aujourd’hui des lieux incontournables pour échanger sur les techniques avancées et découvrir les dernières innovations liées à SD3.5 et ses variantes optimisées pour AMD.

Midjourney just launched a beta version of their system, which combines Midjourney and Stable Diffusion. Here are a few examples. Made only by writing text prompts to their discord bot. To test it yourself, just write –beta after your Midjourney prompt.#midjourney #conceptart pic.twitter.com/Wj5PJ4npgR

— Martin Nebelong (@MartinNebelong) August 23, 2022

LAION : un dataset d’entraînement « truffé d’images porno »

Afin d’obtenir les dessins souhaités, les utilisateurs rédigent de longues descriptions qu’ils partagent et complètent entre eux. Par exemple, un dessin a été créé à partir du texte « peinture à l’huile d’une princesse blanche nue réaliste exposée seins symétriques et cuisses réalistes exposées avec de charmants yeux détaillés, le ciel, page de couleur, tankoban, 4K, cartographie de tons, poupée, akihiko yoshida, james dean, andrei riabovitchev, marc simonetti, yoshitaka amano, longs cheveux, bouclés ».

Ces textes sont ensuite fournis à l’IA pour la laisser créer une image. Stable Diffusion a été entraîné en utilisant 4000 GPU Nvidia A100, sur un ensemble de données nommé « LAION-Aesthetics ». En fait, LAION est l’anagramme de Large-scale Artificial Intelligence Open Network (réseau ouvert d’intelligence artificielle à grande échelle). Il s’agit d’une organisation non lucrative consacrée à l’IA.

Le dataset open source LAION 5B pèse 250 terabytes et contient 5,6 milliards d’images collectées sur internet. Son prédécesseur LAION-400M était connu pour contenir du contenu aberrant. Une étude de 2021 révélait qu’il comportait « de nombreux textes et images troublants et explicites de viols, pornographie, stéréotypes malins, insultes racistes, et autre contenu extrêmement problématique ».

L’équipe Google Research a elle aussi entraîné son modèle texte-to-image Imagen sur LAION-400M. Les chercheurs ont préféré éviter d’ouvrir l’accès à leur modèle au public de peur qu’il produise des représentations blessantes et mette en scène des stéréotypes.

Pour remédier au problème, Stability AI a réduit LAION 5B de deux milliards à 120 millions d’images en entraînant un modèle à prédire la note de 1 à 10 que les gens donneraient à une image. Seules les meilleures ont été retenues pour le dataset LAION-Aesthetics. Le but étant notamment d’éliminer les images pornographiques.

Le danger des DeepFakes

The public release of the Stable Diffusion model is not just the death knell of the stock photo industry. Unless there are significant legal changes, an ecosystem of apps that let everyone generate produce and modify audio, 3d, animations, video will trigger a media revolution.

— Joscha Bach (@Plinz) August 22, 2022

Si des images de hentaï générées par une IA n’ont rien de bien dangereux, Stable Diffusion peut être détourné pour générer du contenu beaucoup plus problématique : des DeepFakes. Les internautes peuvent utiliser cette IA pour créer de fausses photos nues de célébrités. Il suffit de lui fournir la photo d’une star, et de lui laisser imaginer son corps dénudé.

Les DeepFakes générés grâce à l’IA posent problème aux chercheurs et aux ingénieurs depuis plusieurs années. Mais encore, les nouveaux modèles text-to-images dans la lignée de Stable Diffusion ne vont clairement pas arranger les choses.

Contrairement à DALL-E ou MidJourney, Stable Diffusion peut être utilisé pour créer de fausses photos de célébrités car l’ensemble de données LAION open-source sur lequel il est entraîné contient de nombreuses photos de stars.

De telles photos peuvent nuire à la réputation d’une vedette, même si elles sont fausses. Les images générées par l’IA ne sont pas encore suffisamment réalistes pour être pris pour de vrais clichés, mais pourraient rapidement le devenir…

Un américain arrêté pour générer des images pédopornographiques sur Stable Diffusion

En mai 2024, un habitant du Wisconsin, Steven Anderegg, a été arrêté pour avoir utilisé Stable Diffusion, pour générer plus de 13 000 images pédopornographiques réalistes. Le ministère de la Justice américain a déclaré que c’est une première affaire où l’utilisation d’une IA générateur d’image sans censure a conduit à des poursuites judiciaires. Cette arrestation souligne l’ampleur des défis posés par les technologies d’IA dans la lutte contre la pédopornographie.

Anderegg utilisait Stable Diffusion, un générateur d’images open-source qui permet de créer des images réalistes à partir de descriptions textuelles. Malgré les mesures mises en place pour empêcher la création de contenus explicites, il a réussi à contourner ces restrictions. En plus de générer des images, il a également partagé certaines d’entre elles via Instagram avec un mineur de 15 ans, expliquant comment il avait utilisé l’outil pour produire ces images.

L’arrestation de cet individu met en lumière les risques croissants associés à l’utilisation des IA pour créer du contenu abusif. Europol a également signalé une augmentation significative des cas où des technologies d’IA sont utilisées pour générer ou altérer des images d’abus sexuels sur enfants. Ces images posent des défis majeurs pour l’identification des victimes réelles et compliquent les efforts des autorités pour surveiller et contrôler ce type de matériel en ligne.

Le cas d’Anderegg montre l’importance de renforcer les mesures de sécurité autour des IA générateur d’image sans censure. Plus encore, de maintenir un engagement ferme pour protéger les enfants contre toutes formes d’exploitation, même celles facilitée par les avancées technologiques​ (KION546)​ (DW).

Des datasets plus responsables : les efforts de Stability AI pour répondre aux critiques

L’utilisation de datasets de grande échelle comme LAION-5B a permis à Stable Diffusion de devenir une référence en matière de génération d’images text-to-image. Cependant, ces ensembles de données massifs ont également attiré de vives critiques. Effectivement, LAION-5B et ses prédécesseurs, tels que LAION-400M, contenaient une proportion significative de contenus explicites, violents ou biaisés. Ce qui a suscité des préoccupations éthiques et légales.

Consciente de ces défis, Stability AI a pris des mesures pour améliorer la qualité et la responsabilité de ses datasets. Le lancement de LAION-Aesthetics en est une illustration. Ce dataset réduit la quantité d’images problématiques. Pour ce faire, il utilise des modèles de filtrage capables de prédire la qualité esthétique des contenus. Ce processus a permis de passer de 5,6 milliards d’images dans LAION-5B à seulement 120 millions dans LAION-Aesthetics. Ces images ont été sélectionnées pour leur valeur artistique et leur conformité à des normes éthiques élevées.

Malgré ces efforts, des critiques persistent. Certains soulignent que des contenus explicites subsistent, et que le filtrage basé sur des modèles peut introduire de nouveaux biais. Cependant, ces améliorations marquent une étape essentielle vers une IA générative plus sûre et éthique. Plus encore, elles montrent la volonté de Stability AI de répondre aux préoccupations croissantes du public et des régulateurs.

Comment utiliser un générateur d’images IA sans censure en 2025 ?

La première étape consiste à choisir un ia générateur d’image sans censure comme Stable Diffusion sur des plateformes en ligne qui l’hébergent. Vous pouvez créer un compte avec une simple adresse email. En 2025, certaines plateformes proposent même une connexion via Google ou d’autres réseaux sociaux.

Une fois connecté, vous arrivez généralement sur une interface avec un champ de texte principal. C’est ici que vous écrirez votre prompt, c’est-à-dire la description détaillée de l’image que vous souhaitez générer. Plus votre description est précise, meilleur sera le résultat.

Lors de la rédaction du prompt, pensez à inclure des détails sur le style artistique souhaité. Personnalisez votre requête : photo réaliste, peinture à l’huile, aquarelle, ambiance lumineuse, sombre, chaleureuse, etc. N’hésitez pas à utiliser des termes techniques comme « 4K », « haute résolution », ou « hyperréaliste » pour améliorer la qualité.

Les paramètres avancés permettent également d’affiner votre création en 2025. Vous pourrez ajuster la taille de l’image, le nombre d’itérations (combien d’images seront générées), et parfois même le « seed » (un nombre qui permet de reproduire exactement la même image). Ces options sont souvent accessibles via un menu déroulant ou des boutons dédiés.

Après avoir lancé la génération, l’IA mettra quelques secondes à quelques minutes pour créer vos images. Vous pourrez alors les télécharger, les modifier ou les régénérer si le résultat ne vous convient pas. Pour améliorer une image, vous pouvez ajuster votre prompt en fonction du résultat obtenu.

Stable Diffusion 3.5 arrive avec support optimisé AMD

Récemment, Stability AI a élargi le champ d’utilisation de Stable Diffusion 3.5 Large (SD3.5 Large). Ce modèle est disponible sur Microsoft Azure AI Foundry depuis février 2025. Ce nouveau cap offre des capacités avancées de génération d’images à partir de texte et d’image. Elle se distingue notamment par sa fidélité exceptionnelle aux prompts et sa diversité stylistique remarquable.

Effectivement, ses 8,1 milliards de paramètres fournissent à SD3.5 Large la capacité de produire des visuels dans une multitude de styles. Vous y trouverez de quoi générer de la photographie, du dessin ou de l’art numérique.

Et plus récemment, Stability AI a collaboré avec AMD pour optimiser Stable Diffusion pour les GPU Radeon™ et les APU Ryzen™ AI. Cette collaboration a abouti à des versions des modèles SD3.5 Large, SD3.5 Large Turbo, SDXL 1.0 et SDXL Turbo optimisées via ONNX. Ce qui accède à une exécution jusqu’à 3,8 fois plus rapide sur le matériel AMD. Ces modèles optimisés sont disponibles sur Hugging Face. Ils sont facilement identifiables par le suffixe « _amdgpu », et peuvent être utilisés avec l’outil Amuse 3.0.

FAQ

Peut-on utiliser Stable Diffusion pour générer des images porno ?

Oui, Stable Diffusion peut théoriquement être utilisé pour générer des images de n’importe quel type, y compris des images pornographiques. Cependant, cela dépend de la manière dont l’outil est déployé. Sur les plateformes officielles comme DreamStudio (l’interface officielle de Stability AI), des filtres et restrictions sont en place pour interdire ce genre de contenu.

Stability AI autorise-t-elle la création de contenu porno avec Stable Diffusion ?

Non, Stability AI interdit la création de contenu pornographique via ses plateformes officielles comme DreamStudio. Les conditions d’utilisation du modèle de Stable Diffusion précisent que la création de contenu pornographique, violent ou nuisible est prohibée sur ces plateformes. Ils appliquent des filtres de censure pour empêcher la génération d’images à caractère sexuel explicite.

Comment éviter la création de contenu explicite avec Stable Diffusion ?

Pour éviter la génération de contenu explicite, il est essentiel de respecter les conditions d’utilisation des plateformes qui hébergent Stable Diffusion, comme DreamStudio. Ces plateformes appliquent des filtres de censure pour bloquer la création de contenu pornographique. De plus, des utilisateurs doivent se conformer aux règles de la licence CreativeML OpenRAIL-M, qui interdit la création de contenu nuisible ou inapproprié.

Cet article Stable Diffusion : tout savoir sur le champion des générateurs d’images IA Open Source a été publié sur LEBIGDATA.FR.

❌
❌