Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal
  • ✇LEBIGDATA.FR
  • Onyx : une alternative à Claude, plus puissante, open-source et locale ?
    L’IA la plus puissante n’est plus celle hébergée dans le cloud, mais celle que vous contrôlez entièrement. Avec plus de 20 000 étoiles et des performances qui dépassent certains leaders du marché, Onyx s’impose comme une alternative crédible. Onyx est une plateforme complète. Ce nouveau chatbot répond au problème d’intégrer l’intelligence artificielle dans les workflows réels sans dépendre d’acteurs propriétaires. À mi-chemin entre moteur de recherche interne, couche d’orchestration et espace

Onyx : une alternative à Claude, plus puissante, open-source et locale ?

Par : Mariano R.
3 avril 2026 à 15:59

L’IA la plus puissante n’est plus celle hébergée dans le cloud, mais celle que vous contrôlez entièrement. Avec plus de 20 000 étoiles et des performances qui dépassent certains leaders du marché, Onyx s’impose comme une alternative crédible.

Onyx est une plateforme complète. Ce nouveau chatbot répond au problème d’intégrer l’intelligence artificielle dans les workflows réels sans dépendre d’acteurs propriétaires. À mi-chemin entre moteur de recherche interne, couche d’orchestration et espace collaboratif, cette solution open source change la manière dont les entreprises exploitent les LLM.

Onyx casse la dépendance aux modèles propriétaires

L’un des changements les plus marquants apportés par Onyx tient dans son approche multi-modèles. Certains assistants restent enfermés dans leur propre écosystème, Onyx agit comme une couche intermédiaire qui dialogue avec n’importe quel LLM. Que ce soit des modèles cloud, API externes ou modèles locaux.

Ce détaile technique permet aux équipes de choisir le modèle le plus adapté à chaque usage, d’optimiser les coûts, mais surtout d’éviter un verrouillage technologique. Les entreprises cherchent toujours à garder la main sur leur stack IA. Ainsi, la flexibilité d’Onyx devient un avantage compétitif.

A part transmettre des requêtes, Onyx enrichit les réponses grâce à une combinaison de recherche interne, de récupération de données et de contextualisation. Les réponses reposent donc sur des informations réelles, actualisées et propres à l’organisation. Mais non plus uniquement sur des données d’entraînement génériques, mais

Another blow to Anthropic!

Devs built a free and better Claude alternative that:

– runs locally
– works with any LLM
– beats it on deep research
– has Cowork-like capabilities
– connects to 40+ data sources
– self-hosts via Docker, and more.

100% open-source (20k+ stars). [pic.twitter.com/pC0Q9yx7tU](http://pic.twitter.com/pC0Q9yx7tU)

— Avi Chawla (@_avichawla) April 2, 2026

Quelles sont les performances de ce nouveau chatbot ?

Sur le terrain de la recherche avancée, les benchmarks montrent un écart significatif. Onyx obtient un score supérieur à certaines solutions propriétaires sur des tâches de recherche approfondie.

Onyx combine recherche sémantique, indexation continue des données et exploration web intégrée. Lorsqu’un utilisateur pose une question, la plateforme va chercher l’information pertinente dans plusieurs sources. Elle va la croiser, puis produire une réponse contextualisée.

Je trouve que ce fonctionnement améliore non seulement la précision, mais aussi la traçabilité. Dans les environnements professionnels, chaque réponse doit être justifiable. Cette capacité d’Onyx devient donc essentielle.

Par ailleurs, Onyx peut se brancher à des dizaines d’outils utilisés en entreprise. Notamment le stockage, la messagerie, la gestion de projet . Il peut aussi synchroniser les données en continu. Alors que d’autres solutions interrogent les données à la volée, Onyx les indexe en permanence. Et c’est ce qui rend les réponses plus rapides et plus fiables.

Une plateforme pensée comme un système, pas comme un simple chat

A mon avis, c’est probablement là que Onyx se distingue le plus. Contrairement aux assistants classiques, il ne se limite pas à une interface conversationnelle. Il agit comme une véritable couche applicative pour l’IA.

La plateforme intègre des agents qui automatisent des tâches, génèrent du contenu, ou encore déclenchent des actions via des outils externes. Ces agents peuvent être configurés avec des règles précises, des accès contrôlés et des sources de données spécifiques.

L’outil “Craft”, par exemple, permet de générer non seulement des documents, mais aussi des tableaux de bord, des applications web ou des visualisations à partir des données internes. Le tout dans des environnements isolés, ce qui garantit la sécurité des informations.

À cela s’ajoute une dimension collaborative. Onyx est conçu pour être utilisé en équipe, avec des rôles, des permissions et une traçabilité complète des actions. On parle donc d’un espace de travail IA partagé.

Local et open source… Onyx est parfait pour les entreprises

L’autre grande promesse d’Onyx, c’est le contrôle. La plateforme peut être entièrement auto-hébergée. Que ce soit via Docker, Kubernetes ou d’autres infrastructures. Elle peut même fonctionner hors ligne avec des modèles locaux.

N’oublions pas aussi que la confidentialité des données devient critique. Les entreprises peuvent déployer Onyx dans des environnements isolés. Ils peuvent aussi garder leurs informations sensibles en interne tout en bénéficiant de capacités avancées d’IA.

Ce positionnement open source renforce aussi l’attractivité d’Onyx. Les équipes pourront personnaliser la plateforme, ajouter des fonctionnalités ou l’intégrer dans leur système d’information.

Par ailleurs, l’existence d’une API complète ouvre la voie à de nombreux usages. Comme les copilotes internes, les chatbots clients, l’automatisation documentaire… Onyx peut devenir le backend d’une stratégie IA complète.

Je trouve qu’Onyx est un concurrent de taille contre les assistants existants. De plus, il propose une autre vision. Celle d’une IA modulaire, maîtrisée et intégrée aux données de l’entreprise.

Si les promesses se confirment, ce type de plateforme pourrait tout changer. Non pas en remplaçant les modèles leaders, mais en les rendant interchangeables. Et surtout, en redonnant le contrôle aux utilisateurs.

Cet article Onyx : une alternative à Claude, plus puissante, open-source et locale ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OpenAI : « d’ici la fin 2026, on se moquera des IA actuelles comme GPT-5.4 »
    En à peine quelques jours, un modèle d’IA peut générer un milliard de dollars de revenus et traiter d’énormes volumes de données. Pour OpenAI, cette accélération annonce que nos IA actuelles pourraient très vite sembler dépassées, presque ridicules. Les progrès d’intelligence artificielle se comptaient autrefois en années. Mais maintenant ils se jouent en semaines, voire en jours. Et selon Brad Lightcap, dirigeant chez OpenAI, cette dynamique va s’intensifier au point de rendre les modèles ac

OpenAI : « d’ici la fin 2026, on se moquera des IA actuelles comme GPT-5.4 »

Par : Mariano R.
3 avril 2026 à 15:19

En à peine quelques jours, un modèle d’IA peut générer un milliard de dollars de revenus et traiter d’énormes volumes de données. Pour OpenAI, cette accélération annonce que nos IA actuelles pourraient très vite sembler dépassées, presque ridicules.

Les progrès d’intelligence artificielle se comptaient autrefois en années. Mais maintenant ils se jouent en semaines, voire en jours. Et selon Brad Lightcap, dirigeant chez OpenAI, cette dynamique va s’intensifier au point de rendre les modèles actuels obsolètes d’ici fin 2026. 

Des cycles d’entraînement qui s’accélèrent encore plus

Le cœur du phénomène est technique, mais son impact est très concret. OpenAI explique que le temps nécessaire pour entraîner et améliorer ses modèles est en train de s’effondrer. Les itérations s’enchaînent donc à une vitesse inédite.

Ce changement explique la succession rapide des versions GPT-5.1, 5.2, 5.3 puis 5.4 en l’espace de quelques semaines. Chaque nouvelle version apporte des gains significatifs, sans attendre de longs cycles de recherche et de déploiement.

Cette accélération transforme aussi la manière dont les entreprises adoptent l’IA. Un modèle sorti il y a quelques jours peut déjà devenir dominant. Le modèle GPT-5.4 en est l’exemple. A peine lancé, il s’impose comme le moteur principal des API d’OpenAI.

GPT-5.4 traite environ 5 000 milliards de jetons par jour et affiche un rythme de revenus annualisé d’un milliard de dollars. Pour un modèle âgé de quelques jours seulement, c’est une adoption presque instantanée à l’échelle mondiale.

Ce succès repose sur un effet boule de neige. Plus un modèle est performant, plus il est utilisé. Et plus il est utilisé, plus il devient central dans des usages critiques. Comme le développement logiciel, la rédaction ou l’analyse de données.

Ainsi, GPT-5.4 ne représente pas une fin, mais un point de passage. OpenAI anticipe déjà que ce modèle, aujourd’hui dominant, paraîtra rapidement banal face à ses successeurs.

OpenAI Brad Lightcap says model training cycles are collapsing, driving rapid jumps from GPT-5.1 to 5.4

GPT-5.4 is days old and already doing a $1B run rate revenue, processing 5 trillion tokens daily

« by year’s end, we’ll laugh at today’s models. they’ll seem pedestrian » [pic.twitter.com/0F2saR4FI6](http://pic.twitter.com/0F2saR4FI6)

— Haider. (@slow_developer) April 2, 2026

L’IA d’OpenAI qui décide comment réfléchir

Pour comprendre cette progression, il faut revenir à la philosophie de GPT-5. Lors d’une interview accordée à Big Technology, Brad Lightcap décrit la disparition du choix entre différents modes d’IA.Avant, les utilisateurs devaient sélectionner un modèle adapté à leur tâche. Ils sont parfois orientés vers la rapidité, parfois vers le raisonnement.

GPT-5 introduit une logique plus fluide. Le dernier modèle d’OpenAI décide lui-même s’il doit réfléchir en profondeur ou répondre directement. Cette capacité à ajuster son comportement en temps réel simplifie l’expérience et améliore la qualité des réponses.

Les gains sont visibles dans plusieurs domaines. L’écriture devient plus cohérente, le code plus fiable, et même des secteurs exigeants comme la santé bénéficient d’une meilleure précision.

Une obsolescence accélérée des IA actuelles

La déclaration la plus marquante reste celle-ci. Selon Brad Lightcap, d’ici la fin de l’année, les modèles actuels pourraient déjà sembler fades. L’IA n’évolue plus de manière linéaire, mais exponentielle. Chaque amélioration accélère la suivante. Chaque nouveau modèle sert de base à une version encore plus performante, développée encore plus rapidement.

Pour les utilisateurs, cela implique un changement de perspective. Les outils considérés aujourd’hui comme avancés pourraient devenir des standards minimums. C’est un peu comme les premiers smartphones. Ils sont révolutionnaires à leur sortie, mais rapidement dépassés.

GPT-5.4 Thinking and GPT-5.4 Pro are rolling out now in ChatGPT.

GPT-5.4 is also now available in the API and Codex.

GPT-5.4 brings our advances in reasoning, coding, and agentic workflows into one frontier model. pic.twitter.com/1hy6xXLAmJ

— OpenAI (@OpenAI) March 5, 2026

Pour les entreprises, investir dans une IA aujourd’hui signifie accepter qu’elle sera obsolète demain. La vraie valeur réside maintenant dans la capacité à suivre ce rythme effréné. Ce que révèle OpenAI, au-delà des chiffres impressionnants, c’est donc une mutation structurelle de l’innovation technologique. L’IA progresse ainsi par vagues successives de plus en plus rapides.

Ainsi, GPT-5.4 n’est pas un aboutissement, mais un aperçu. C’est comme un instantané d’un futur en construction permanente. Et si la prédiction de Brad Lightcap se confirme, nous regarderons peut-être les IA actuelles avec le même recul amusé que les débuts d’Internet.

Cet article OpenAI : « d’ici la fin 2026, on se moquera des IA actuelles comme GPT-5.4 » a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Claw Code : ce dev a recréé Claude Code en Python et explose tout sur GitHub
    512 000 lignes de code exposées, 60 000 clones en une nuit et un projet Python qui pulvérise les records de GitHub. Avec Claw Code, une simple erreur technique s’est transformée en séisme pour toute l’IA de développement. En quelques heures, le code source complet de Claude Code, l’agent IA d’Anthropic dédié à la programmation, s’est retrouvé accessible publiquement. Conséquence, une explosion de forks, une analyse collective à grande échelle… Et surtout, la naissance de Claw Code, une réécri

Claw Code : ce dev a recréé Claude Code en Python et explose tout sur GitHub

Par : Mariano R.
3 avril 2026 à 12:42

512 000 lignes de code exposées, 60 000 clones en une nuit et un projet Python qui pulvérise les records de GitHub. Avec Claw Code, une simple erreur technique s’est transformée en séisme pour toute l’IA de développement.

En quelques heures, le code source complet de Claude Code, l’agent IA d’Anthropic dédié à la programmation, s’est retrouvé accessible publiquement. Conséquence, une explosion de forks, une analyse collective à grande échelle… Et surtout, la naissance de Claw Code, une réécriture propre qui échappe aux blocages juridiques. L’IA est-elle donc en train de rendre la copie technologique presque instantanée ?

Claw Code, une réécriture éclair qui contourne totalement la loi

Tout commence le 31 mars 2026. Une erreur de configuration dans un package npm expose un fichier qui contient l’intégralité du code source de Claude Code. Près de 512 000 lignes de TypeScript s’est réparties dans environ 1 900 fichiers.

Il n’y a eu aucune attaque ni aucun piratage. C’était juste une négligence technique. Alors, en quelques minutes, un lien a circulé sur X et a déclenché un emballement viral. Ainsi, des dizaines de milliers de développeurs téléchargent le code source de Claude Code. Ils le dissèquent et commencent à le reproduire.

En moins de 24 heures, plus de 60 000 copies circulent. Certains dépôts atteignent même des dizaines de milliers d’étoiles en un temps record. Cela a établi un nouveau standard de viralité sur GitHub. Et c’est dans ce chaos que naît Claw Code.

A Korean dev just rewrote leaked CLAUDE Code from scratch in PYTHON… and it’s blowing up on GitHub.

Crossed 100K stars in ~24 hours.

bro turned it into something Anthropic can’t TOUCH or DMCA

Repo → https://t.co/KQA7e4Zasb [pic.twitter.com/fevGkvIvJZ](http://pic.twitter.com/fevGkvIvJZ)

— shirish (@shiri_shh) April 1, 2026

Face aux risques juridiques, la développeuse Sigrid Jin décide de ne pas partager le code original, mais le recréer entièrement. Elle lance donc une réécriture complète en Python, assistée par des outils d’IA. Le principe est celui du “clean room design”. C’est reproduire la logique et l’architecture sans copier une seule ligne du code source initial.

Et le résultat est spectaculaire. Claw Code reprend le fonctionnement global de Claude Code, mais il reste juridiquement indépendant. Et surtout, le projet explose immédiatement sur GitHub. Il a atteint des dizaines de milliers d’étoiles en quelques heures seulement.

Quelques jours avant l’incident, Sigrid Jin faisait déjà parler d’elle. Le Wall Street Journal a mise en avant la développeuse coréenne. Apparemment, elle a consommé plus de 25 milliards de tokens Claude en un an. C’est un niveau d’usage exceptionnel qui lui avait même valu une invitation à un événement officiel d’Anthropic.

Que révèle la fuite sur la vraie valeur des agents IA ?

La fuite du code source de Claude Code a offert une opportunité rare. Celui d’observer de l’intérieur comment fonctionne un agent IA avancé. Je constate que la valeur ne réside pas uniquement dans le modèle, mais dans son orchestration.

Claude Code repose sur une logique de “harness engineering”. Cette approche consiste à coordonner plusieurs outils, gérer des tâches complexes et maintenir un contexte cohérent dans le temps. Ainsi, l’IA pilote des workflows entiers au lieu de juste générer du code. Cette architecture confirme aussi que les outils d’IA deviennent des systèmes d’exécution, pas seulement des assistants. 

Comme le souligne Business Insider, ces technologies commencent déjà à transformer des métiers très variés (du droit à la médecine). Puisqu’elles automatisent des tâches complexes. Ici, la fuite montre donc que les secrets technologiques sont dans la manière dont ils sont intégrés et orchestrés.

Face à la situation, Anthropic réagit rapidement. L’entreprise déploie des demandes DMCA pour faire supprimer les dépôts contenant le code original. Puis, GitHub suit et bloque les repositories concernés. Mais malheureusement, cette réponse arrive trop tard.

Plusieurs développeurs ont copié, analysé et surtout réinventé le code de Claude code. Et Claw Code, en tant que réécriture propre, échappe complètement aux restrictions. C’est là que le rapport de force change. Une fois qu’un système est compris, il peut être reconstruit. Et avec l’aide de l’IA, ce processus devient rapide.

Ce cas illustre une des limites des protections actuelles. Elles s’appliquent au code, mais pas aux idées ni aux architectures. De plus, l’IA peut traduire, reconstruire et optimiser un système en quelques heures. La propriété intellectuelle devient alors beaucoup plus difficile à défendre.

Pourquoi cet épisode marque un tournant pour toute l’industrie ?

Ce qui s’est passé avec Claw Code dépasse le cadre d’Anthropic. Cela montre que le cycle d’innovation s’accélère. Une technologie peut être analysée et reproduite illico après sa sortie. Ou même après une simple fuite.

Les petits développeurs, armés d’outils d’IA, peuvent désormais rivaliser avec de grandes  entreprises disposant de ressources. Qui plus est, cela renforce l’émergence d’une nouvelle manière de coder, plus intuitive, plus rapide. Et l’IA devient un partenaire actif du développement.

Ainsi, Claw Code n’est pas simplement un clone viral, c’est le symptôme d’un changement profond. Une fuite accidentelle a suffi à déclencher une reproduction mondiale, quasi instantanée, d’un système propriétaire. Et surtout, à démontrer que les barrières technologiques et juridiques sont poreuses face à la vitesse de l’IA.

La prochaine étape semble déjà écrite. Chaque grande innovation sera tout de suite analysée, recréée et diffusée. Je me demande comment les entreprises vont garder un avantage. Surtout quand tout peut être reconstruit en quelques heures ?

Cet article Claw Code : ce dev a recréé Claude Code en Python et explose tout sur GitHub a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Le fondateur d’Apple donne son avis sur l’IA, et il n’y va pas de main morte
    Steve Wozniak ne croit pas à l’enthousiasme autour de l’IA. Le cofondateur d’Apple critique des outils qu’il juge peu fiables et incapables de reproduire la profondeur humaine. A contre-courant d’Apple qui accélère sur le sujet. L’IA devient incontournable dans la stratégie des géants technologiques, mais l’un des esprits fondateurs d’Apple prend ses distances. Steve Wozniak, figure historique de la Silicon Valley, sort un discours rare. Il critique les systèmes actuels qui sont de reproduire

Le fondateur d’Apple donne son avis sur l’IA, et il n’y va pas de main morte

Par : Mariano R.
26 mars 2026 à 15:51

Steve Wozniak ne croit pas à l’enthousiasme autour de l’IA. Le cofondateur d’Apple critique des outils qu’il juge peu fiables et incapables de reproduire la profondeur humaine. A contre-courant d’Apple qui accélère sur le sujet.

L’IA devient incontournable dans la stratégie des géants technologiques, mais l’un des esprits fondateurs d’Apple prend ses distances. Steve Wozniak, figure historique de la Silicon Valley, sort un discours rare. Il critique les systèmes actuels qui sont de reproduire la richesse émotionnelle humaine. Il pointe également des problèmes de fiabilité. Cette prise de position intervient alors même qu’Apple accélère sur ses propres outils, encore en retard sur certains concurrents.

« Je ne suis pas fan de l’IA » affirme le fondateur d’Apple

Lors d’une interview accordée à Fox Business, Steve Wozniak assume ne pas être convaincu par les systèmes actuels. Son reproche principal tient à l’incapacité des IA à reproduire une dimension essentielle de l’intelligence humaine qui n’est autre que l’émotion.

Le fondateur d’Apple explique que lorsqu’il interroge une IA, il obtient des réponses longues, structurées et factuelles. À l’inverse, un humain aura tendance à raconter, contextualiser ou partager une expérience. Et c’est précisément cette subjectivité qu’il juge irremplaçable. 

Steve Wozniak insiste sur le fait que comprendre une réponse, ce n’est pas seulement accéder à de l’information. Selon lui, c’est aussi percevoir l’intention et les émotions derrière. Le fondateur d’Apple pointe aussi une limite structurelle de l’IA générative. “Elle simule le langage, sans réellement ressentir ce qu’elle produit” , explique-t-il.

Cette critique vise directement les modèles de langage actuels. Ces derniers sont conçus pour optimiser la pertinence et la clarté. Mais pas nécessairement pour restituer une authenticité humaine. 

La fiabilité et la confiance sont des problèmes encore non résolus

Au-delà de l’émotion, Steve Wozniak parle également de la fiabilité, un autre défaut important. Après avoir testé plusieurs outils, il affirme ne pas toujours obtenir des réponses claires ou fiables. Or, dans l’IA est de plus en plus utilisée pour s’informer, produire ou décider. Cette incertitude devient donc critique.

« Je veux un contenu fiable à chaque fois », insiste Steve Wozniak. Cette exigence expose un décalage entre les promesses de l’IA et son état réel. Les modèles actuels peuvent produire des réponses convaincantes. Toutefois, elles sont parfois fausses ou approximatives, sans signaler explicitement leurs limites.

Cette réalité touche directement à la confiance des utilisateurs. Tant que l’IA ne garantit pas un niveau de fiabilité constant, elle reste un outil d’assistance, mais pas une source d’autorité. Ce fondateur d’Apple exprime ici une inquiétude sur l’IA que plusieurs acteurs partagent dans l’industrie. Notamment sur les usages critiques comme l’éducation, la santé ou l’information.

Even Apple’s co-founder isn’t sold on AI.

Steve Wozniak says he rarely uses it and is “disappointed a lot,” arguing it still lacks real human understanding and emotion. pic.twitter.com/YhMXzsHRAx

— Link Technologies (@LinkTechnlogies) March 24, 2026

Apple face à ses contradictions stratégiques

Cette prise de position est d’autant plus intéressante qu’elle sort alors qu’Apple investit énormément dans l’IA. L’entreprise a dévoilé en 2024 Apple Intelligence, avec l’ambition de rattraper son retard face à OpenAI, Google ou Microsoft.

Toutefois, plusieurs fonctionnalités annoncées tardent encore à arriver. Je pense que c’est un signe que la firme avance prudemment. Ainsi, les critiques de Steve Wozniak résonnent comme un contrepoint interne, même s’il n’est plus impliqué dans l’entreprise.

Le contraste m’étonne aussi d’ailleurs avec la vision de Tim Cook. Le PDG d’Apple décrit l’IA comme une technologie « profondément enrichissante et potentiellement très positive ». Surtout pour améliorer l’expérience utilisateur. 

Les visions s’opposent donc. L’une optimiste et tournée vers l’innovation et l’autre plus critique centrée sur les limites actuelles. Alors, faut-il accélérer malgré les imperfections, ou ralentir pour garantir des usages plus fiables et plus humains ?

Le vrai débat sur l’IA devant cette divergence du fondateur d’Apple et Tim Cook 

Les propos de Steve Wozniak font partie d’une réflexion plus ancienne qu’il mène sur la place des machines. Dès 2011, il alertait déjà sur le risque de voir les ordinateurs remplacer certaines fonctions humaines, ce qui réduit notre rôle.

Mais son discours a évolué. En 2018, le fondateur d’Apple relativisait et considérait l’IA comme une simple extension des capacités humaines. Aujourd’hui, après avoir testé les outils modernes, son jugement semble plus sévère. Je constate ici que l’IA n’est donc plus une abstraction, mais une réalité tangible, avec ses forces et ses limites.

L’analyse de Steve Wozniak révèle que l’IA pose aussi un défi culturel, mais pas seulement technologique. Elle change la manière dont on produit du savoir, dont on communique, et même dont on perçoit l’intelligence.

En critiquant le manque d’émotion et de fiabilité, Steve Wozniak pose une question plus large. Veut-on vraiment d’une intelligence efficace mais impersonnelle ? Ou attend-on des machines qu’elles se rapprochent davantage de notre manière de penser et de ressentir ?

Par ailleurs, les critiques du fondateur d’Apple arrivent alors que les entreprises accélèrent pour intégrer ces IA partout. Ainsi, ses réserves rappellent que l’adhésion de cette technologie n’est pas totale, même parmi les pionniers de la tech.

L’IA continuera de progresser et de s’imposer dans les usages. Mais les enjeux comme la fiabilité, la confiance ou la dimension humaine pourraient devenir les véritables champs de bataille des prochaines années. Car à part la performance, c’est bien la crédibilité et l’acceptation sociale de l’IA qui détermineront son avenir.

Cet article Le fondateur d’Apple donne son avis sur l’IA, et il n’y va pas de main morte a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Mozilla cq : l’incroyable projet qui va permettre aux IA de se partager leur savoir
    Avec cq, Mozilla ouvre la voie à un Internet où les IA construisent ensemble un savoir partagé. Les IA pourraient enfin arrêter de travailler chacune dans leur coin pour commencer à apprendre réellement les unes des autres. L’idée ici est de transformer des systèmes isolés en une intelligence collective qui capitalise chaque expérience.  Aujourd’hui, des millions d’agents IA résolvent les mêmes problèmes encore et encore; sans jamais tirer profit des solutions déjà trouvées ailleurs. Ce fonct

Mozilla cq : l’incroyable projet qui va permettre aux IA de se partager leur savoir

Par : Mariano R.
26 mars 2026 à 13:11

Avec cq, Mozilla ouvre la voie à un Internet où les IA construisent ensemble un savoir partagé. Les IA pourraient enfin arrêter de travailler chacune dans leur coin pour commencer à apprendre réellement les unes des autres. L’idée ici est de transformer des systèmes isolés en une intelligence collective qui capitalise chaque expérience. 

Aujourd’hui, des millions d’agents IA résolvent les mêmes problèmes encore et encore; sans jamais tirer profit des solutions déjà trouvées ailleurs. Ce fonctionnement en silo engendre une inefficacité, à la fois technique et économique. Avec cq, un projet open source lancé en mars 2026, Mozilla propose de changer cela. Ainsi, l’entreprise crée une mémoire collective accessible aux agents, inspirée du modèle de Stack Overflow.

La chute de Stack Overflow révèle un vide structurel

Le déclin de Stack Overflow est une réalité mesurable. Selon une analyse relayée par DevClass, la plateforme est passée de 200 000 questions mensuelles à son apogée en 2014 à seulement 3 862 en décembre 2025. En une décennie, ce lieu central de partage du savoir technique est revenu à son niveau de lancement.

Cette chute s’explique par un changement d’usage. Les développeurs ne passent plus par des forums pour obtenir de l’aide. Ils interrogent directement des IA qui génèrent des réponses instantanées. Le problème, c’est que cette transition a détruit la mutualisation du savoir.

Stack Overflow transformait chaque question en ressource durable pour toute une communauté. Les IA actuelles, elles, produisent des réponses éphémères, sans mémoire collective. Ainsi, une même erreur peut être résolue des milliers de fois sans jamais être retenue. Et ce manque structurel ouvre un espace que Mozilla cq tente précisément de combler.

Une mémoire partagée entre IA avec Mozilla cq

Le projet cq, présenté par Mozilla, permet à chaque agent de bénéficier instantanément des expériences des autres. Avant de traiter un problème, un agent peut interroger un espace commun appelé “cq commons”. Si une solution existe déjà, elle est immédiatement accessible. 

Cela évite ainsi de répéter inutilement le même processus. Cette approche introduit donc une forme de continuité dans l’apprentissage des IA. Les connaissances sont ensuite stockées sous forme de “knowledge units”. Ce sont des blocs qui décrivent le problème et sa solution. Sans oublier le contexte technique dans lequel elle fonctionne. 

Un système de confiance vient compléter cet ensemble. Et il évolue au fil des validations par d’autres agents. Plus on utilise une solution avec succès, plus elle gagne en crédibilité. Ce mécanisme rapproche les IA d’un fonctionnement collectif, presque organique. Il s’agit alors de construire pas à pas une base de connaissances dynamique, enrichie en permanence.

Mozilla lance cq : un Stack Overflow pour agents IA, où ils partagent des solutions réutilisables au lieu de refaire les mêmes erreurs en boucle. PoC dispo avec plugins Claude Code et OpenCode. https://t.co/AUfBWGEhjv pic.twitter.com/z510uEke7C

— Camille Roux (@CamilleRoux) March 24, 2026

Une transformation économique et technique sous-estimée

L’intérêt de Mozilla cq ne se limite pas à un gain de confort pour les agents. Il touche directement à l’efficacité globale des systèmes d’IA. Aujourd’hui, chaque résolution de problème implique une consommation de ressources, notamment en tokens. Qui se traduit par des coûts financiers et énergétiques.

En mutualisant les solutions, Mozilla cq réduit ces redondances. À grande échelle, cela pourrait bien optimiser les entreprises qui déploient des agents en continu. Elles vont mieux exploiter ce qui est déjà connu plutôt que recalculer indéfiniment.

Ce projet introduit aussi un déplacement potentiel de la valeur dans l’écosystème IA. Jusqu’ici, la puissance des modèles constituait l’avantage principal. Avec des systèmes comme Mozilla cq, c’est l’accès à une base de connaissances qui pourrait devenir déterminant. A la fois partagée, fiable et enrichie en continu

Le choix de l’open source, matérialisé par une première version disponible sur GitHub, renforce cette ambition. Avec cq, Mozilla propose une infrastructure ouverte susceptible de structurer un nouveau standard.

La promesse collective de Mozilla cq et les risques de sécurité

Bien sûr, cette vision d’une intelligence collective ne va pas sans poser des questions critiques. Surtout en matière de sécurité. Sur Hacker News, plusieurs discussions ont rapidement pointé un risque que je trouve évident. Si les agents font confiance à des connaissances partagées, rien n’empêche l’injection de solutions malveillantes.

Un acteur mal intentionné pourrait, par exemple, introduire des “knowledge units”. Ces derniers pourraient contenir des failles, des portes dérobées ou même des mécanismes de vol de données. Puisque les agents du système réutilisent automatiquement ces informations, l’impact pourrait être systémique.

Le défi est de vérifier la fiabilité d’une connaissance dans un environnement automatisé. Le système de confiance imaginé par l’entreprise est une première réponse, mais il reste encore expérimental. Mozilla précise d’ailleurs que cq n’est pas prêt pour un usage en production à ce stade.

Ce point est important à mon avis, car il conditionne l’adoption réelle du projet. Et je pense que sans garanties solides, les entreprises pourraient hésiter à connecter leurs agents à une base partagée.

Avec cq, Mozilla améliore les performances des agents IA et propose aussi de repenser leur manière d’apprendre et de collaborer. En transformant des expériences isolées en savoir collectif, le projet esquisse les contours d’un Internet peuplé d’intelligences interconnectées.

J’espère juste que cette vision pourra surmonter ses défis, comme la sécurité et la gouvernance. Si c’est le cas, Mozilla cq pourrait marquer le passage d’IA individuelles à une véritable intelligence distribuée. Ainsi, la connaissance circulera librement, mais doit aussi être maîtrisée.

Cet article Mozilla cq : l’incroyable projet qui va permettre aux IA de se partager leur savoir a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Shy Girl : comment Hachette s’est fait piéger par un roman écrit par IA ?
    Soupçons d’IA, retrait en urgence et crise de confiance. Le roman Shy Girl s’est transformé en crise éditoriale pour Hachette. L’ouvrage, déjà disséqué par les lecteurs en ligne, est retiré à la dernière minute, soupçonné d’avoir été généré par IA. Le roman Shy Girl n’aura même pas eu le temps d’exister que déjà il devient un cas d’école pour toute l’édition. Le groupe Hachette a donc suspendu sa publication après des doutes sérieux sur l’utilisation d’IA dans son écriture. C’est un roman d’h

Shy Girl : comment Hachette s’est fait piéger par un roman écrit par IA ?

Par : Mariano R.
25 mars 2026 à 13:35

Soupçons d’IA, retrait en urgence et crise de confiance. Le roman Shy Girl s’est transformé en crise éditoriale pour Hachette. L’ouvrage, déjà disséqué par les lecteurs en ligne, est retiré à la dernière minute, soupçonné d’avoir été généré par IA.

Le roman Shy Girl n’aura même pas eu le temps d’exister que déjà il devient un cas d’école pour toute l’édition. Le groupe Hachette a donc suspendu sa publication après des doutes sérieux sur l’utilisation d’IA dans son écriture. C’est un roman d’horreur pourtant prévu ce printemps aux États-Unis. Ils ont pris cette décision rare, après enquête interne, mais c’est une alerte venue des lecteurs eux-mêmes qui l’a déclenchée.

Les lecteurs détectent l’IA dans Shy Girl avant l’éditeur

Tout commence sur des plateformes publiques comme Goodreads. Plusieurs internautes ont pointé des incohérences stylistiques et des formulations suspectes dans le roman Shy Girl. Sur YouTube, certains créateurs vont même jusqu’à analyser des passages entiers. Ils les jugent typiques d’une génération par IA.

Je trouve que c’est un bon timing. Ces soupçons sortent juste avant même la sortie officielle de Shy Girl aux États-Unis. Ainsi, la détection vient de la communauté, mais non des éditeurs ou d’outils professionnels,

Les lecteurs deviennent donc eux-mêmes des auditeurs de contenu. Ils peuvent, à tort ou à raison, déclencher une crise éditoriale. Cela complique le rôle des maisons d’édition, désormais exposées à une surveillance collective. Face à la montée des doutes, Hachette annonce retirer Shy Girl de son calendrier de publication aux États-Unis. De plus, ils ne soutiendront non plus le livre déjà disponible au Royaume-Uni.

Selon les informations relayées par le New York Times, la décision intervient après un examen approfondi du texte. Le média avait justement interrogé l’éditeur la veille de l’annonce. Cela suggère une réaction accélérée, presque défensive. Hachette a dû agir sous pression médiatique et publique. Le vrai enjeu ici touche alors à la crédibilité des processus éditoriaux. Car comment un texte généré par IA a-t-il pu passer les filtres d’un grand groupe ?

L’autrice nie l’utilisation de l’IA pour son roman

De son côté, l’autrice Mia Ballard conteste fermement les accusations. Dans un échange avec le New York Times, elle affirme ne pas avoir utilisé d’IA pour écrire Shy Girl. Elle pointe plutôt la responsabilité d’une connaissance qu’elle aurait engagée pour retravailler une version auto-éditée du roman. Cette déclaration complique encore le dossier. Si intervention il y a eu, elle serait indirecte.

No proof. No trial. No confession.
Just "it sounds like AI" — and a major publisher killed a book.

Hachette pulled "Shy Girl," a horror novel by Mia Ballard,
after the internet flagged structured repetition,
odd pacing, and canned rhetorical patterns.

The author says she wrote…

— Roberto Buonanno (@Keledan) March 23, 2026

Ballard annonce également des poursuites judiciaires et décrit une situation personnelle critique. Elle affirme que sa réputation est ruinée et sa santé mentale très affectée. Ce cas met en lumière une importante zone grise. A partir de quand un texte devient-il “assisté par IA” ? Et qui en porte la responsabilité, l’auteur, le correcteur, ou la chaîne éditoriale ? Aujourd’hui, aucune norme ne permet de trancher facilement.

Ici, quelques discussions en ligne ont également suffi à déclencher le retrait d’un livre entier. Demain, cela pourrait devenir systématique. Pour les éditeurs, cela implique de revoir en profondeur leurs processus. Notamment la vérification des sources, traçabilité des versions ou clauses contractuelles sur l’usage de l’IA.

L’autoédition recyclée par les grands éditeurs

Un élément clé du dossier réside dans l’origine du livre. Shy Girl existait déjà sous une forme auto-publiée avant d’être reprise par Hachette. Or, comme le souligne l’écrivain Lincoln Michel, il est rare que les éditeurs américains retravaillent en profondeur ce type de manuscrits. Cela signifie donc que le texte original est souvent conservé avec des modifications limitées.

Et à mon avis, c’est probablement là que le piège s’est refermé. Si une version initiale contenait déjà des passages générés ou modifiés par IA, ils ont pu passer sous le radar lors de l’acquisition. Le processus éditorial traditionnel (conçu pour des manuscrits originaux) n’est pas adapté à ces nouveaux flux hybrides. Ainsi, Hachette hérite d’un contenu qu’il n’a pas entièrement maîtrisé.

Hachette Book Group has pulled the horror novel ‘Shy Girl’ after allegations that the author used AI to write it. pic.twitter.com/W9W9srqACl

— Pop Crave (@PopCrave) March 20, 2026

Par ailleurs, l’affaire Shy Girl révèle de grandes tensions dans l’édition actuelle. Les outils pour identifier l’IA restent imparfaits, et même les experts peinent à trancher avec certitude. Les lecteurs commencent aussi à exiger de savoir si un texte a été écrit, assisté ou modifié par une IA. C’est une attente encore peu encadrée.

Car oui, l’IA s’intègre dans les processus créatifs. La question est donc de savoir comment on va l’encadrer. On peut s’attendre à l’apparition de nouvelles obligations. Comme les déclarations d’usage d’IA, les audits éditoriaux renforcés, voire les labels de transparence pour les livres.

Toutefois, n’oublions pas le risque d’une suspicion généralisée dont chaque œuvre devient contestée. Ainsi, la confiance, pilier historique de l’édition, pourrait devenir la ressource la plus fragile du secteur.

Cet article Shy Girl : comment Hachette s’est fait piéger par un roman écrit par IA ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Meta s’offre les archives du Wall Street Journal pour booster ses modèles d’IA
    Meta continue d’alimenter son IA avec du contenu premium. Le groupe de Mark Zuckerberg vient de signer un accord de licence avec News Corp. Ainsi, Meta utilisera les archives et les articles de Wall Street Journal et d’autres médias pour améliorer les réponses de son chatbot Meta AI et entraîner ses futurs modèles.  Depuis plusieurs mois, les géants de la tech multiplient les accords avec les médias. Ils veulent nourrir leurs modèles avec des sources fiables et structurées. Meta, lui, vient d

Meta s’offre les archives du Wall Street Journal pour booster ses modèles d’IA

Par : Mariano R.
5 mars 2026 à 16:36

Meta continue d’alimenter son IA avec du contenu premium. Le groupe de Mark Zuckerberg vient de signer un accord de licence avec News Corp. Ainsi, Meta utilisera les archives et les articles de Wall Street Journal et d’autres médias pour améliorer les réponses de son chatbot Meta AI et entraîner ses futurs modèles. 

Depuis plusieurs mois, les géants de la tech multiplient les accords avec les médias. Ils veulent nourrir leurs modèles avec des sources fiables et structurées. Meta, lui, vient de s’associer avec News Corp, un groupe qui possède notamment le Wall Street Journal.

Selon les informations publiées par le quotidien économique, l’accord pourrait atteindre 50 millions de dollars par an pendant trois ans. Cette somme importante donnera à Meta le droit d’utiliser les contenus éditoriaux du groupe pour améliorer son IA. 

Meta veut nourrir son IA avec des sources fiables comme le Wall Street Journal

L’accord permet donc à Meta d’utiliser le contenu du Wall Street Journal et d’autres médias appartenant à News Corp dans deux cas précis. D’abord pour entraîner ses modèles d’intelligence artificielle. Les systèmes d’IA générative ont besoin d’énormes volumes de texte pour apprendre à comprendre le langage. Et aussi pour analyser des faits et produire des réponses cohérentes.

Ensuite pour alimenter directement les réponses du chatbot Meta AI. Cela signifie que certaines réponses pourront s’appuyer sur des informations issues de ces publications.

Pour Meta, l’enjeu est d’améliorer la qualité et la crédibilité de son assistant conversationnel. Les IA génératives sont souvent critiquées pour leurs approximations ou leurs informations datées. Ainsi, intégrer des sources journalistiques reconnues augmentera la fiabilité des réponses.

Meta Platforms has signed a multiyear AI content licensing deal with News Corp that will pay the Wall Street Journal owner up to $50 million a year https://t.co/6vAMfvebwI

— WSJ Tech (@WSJTech) March 3, 2026

Dans une déclaration précédente sur sa stratégie, Meta expliquait vouloir intégrer davantage de sources d’information variées. L’entreprise veut offrir des contenus plus pertinents et plus actuels à ses utilisateurs.

Les détails officiels restent discrets, mais d’après les informations du Wall Street Journal, Meta pourrait payer jusqu’à 50 millions de dollars par an, pour un engagement de trois ans. L’accord couvrirait les contenus de plusieurs marques de News Corp aux États-Unis et au Royaume-Uni.

Je vous rappelle que News Corp a déjà signé un accord de cinq ans avec OpenAI, évalué à environ 250 millions de dollars. Ainsi, les archives journalistiques deviennent de plus en plus une ressource stratégique pour entraîner les intelligences artificielles.

Les groupes de presse disposent d’un avantage avec des millions d’articles structurés, vérifiés et couvrant des décennies d’actualité. Pour les développeurs d’IA, ce type de contenu représente une matière première particulièrement précieuse.

Les médias passent de la confrontation au partenariat

Pendant longtemps, les relations entre entreprises d’IA et médias ont été tendues. Plusieurs rédactions accusent les modèles d’avoir été entraînés sur leurs contenus sans autorisation. Mais, News Corp adopte désormais une approche très claire face à cette situation. Son PDG Robert Thomson parle d’“une stratégie mêlant “persuasion et poursuites”.

News Corp CEO Robert Thomson warns AI companies scraping without paying: ‘We’re coming for you’

Meta will pay News Corp up to $50m per year for at least three years under a new licensing deal https://t.co/3j142NgMnf

— Press Gazette (@pressgazette) March 4, 2026

Les entreprises technologiques ont donc deux choix. Négocier un accord de licence ou risquer une bataille judiciaire. Les groupes de médias veulent être rémunérés si leurs contenus servent à entraîner des modèles d’IA. Ces derniers pourront ensuite générer des réponses ou des articles.

Et cette position commence à porter ses fruits. Meta a déjà signé des accords similaires avec plusieurs médias, dont CNN, Fox News, USA Today ou encore People. Pour les plateformes, payer pour ces contenus peut aussi réduire les risques juridiques qui entourent encore l’entraînement des modèles d’IA.

Pourquoi la qualité des données compte pour entraîner une IA ?

Les modèles d’IA progressent rapidement, mais leur performance dépend directement des données utilisées pour les entraîner. Les entreprises qui contrôlent les meilleures sources d’information disposent donc d’une longueur d’avance.

Les archives d’un média comme le Wall Street Journal représentent des décennies d’analyses économiques, de reportages et d’enquêtes. Pour un système d’IA, c’est une base d’apprentissage extrêmement riche.

Dans le même temps, les groupes de presse cherchent de nouveaux modèles économiques. Puisque les revenus publicitaires et les abonnements sont sous pression. Les licences accordées aux entreprises d’IA pourraient devenir une nouvelle source de revenus pour le journalisme.

Par ailleurs, je pense que l’accord entre Meta et le propriétaire de Wall Street Journal n’est probablement qu’une étape. Les entreprises d’IA vont continuer à chercher des contenus fiables, récents et vérifiés pour améliorer leurs modèles. Les médias, eux, vont tenter de monétiser ces archives qui prennent soudain une valeur stratégique.

Toutefois, ils devront analyser jusqu’où les plateformes pourront-elles intégrer du contenu journalistique dans leurs assistants ? Et comment s’assurer que les médias restent visibles si les utilisateurs obtiennent directement les réponses via un chatbot ?

Ce qui est sûr c’est que l’IA devient un nouvel intermédiaire de l’information. Et les archives journalistiques deviennent l’un des carburants les plus précieux de l’économie numérique. 

Cet article Meta s’offre les archives du Wall Street Journal pour booster ses modèles d’IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Claude Code passe au mode vocal : vous pouvez coder en pensant à voix haute
    Anthropic active progressivement un mode vocal dans Claude Code. Il suffit de parler pour refactoriser, corriger ou générer du code. Juste une petite commande et l’IA exécute. Le lancement en douceur laisse entendre que l’entreprise teste la robustesse du système avant généralisation. Anthropic vient d’intégrer un mode vocal à Claude Code, son assistant IA dédié aux développeurs. L’utilisateur tape “/voice”, énonce sa demande à voix haute et l’outil se charge du reste. Environ 5 % des utilisa

Claude Code passe au mode vocal : vous pouvez coder en pensant à voix haute

Par : Mariano R.
5 mars 2026 à 15:31

Anthropic active progressivement un mode vocal dans Claude Code. Il suffit de parler pour refactoriser, corriger ou générer du code. Juste une petite commande et l’IA exécute. Le lancement en douceur laisse entendre que l’entreprise teste la robustesse du système avant généralisation.

Anthropic vient d’intégrer un mode vocal à Claude Code, son assistant IA dédié aux développeurs. L’utilisateur tape “/voice”, énonce sa demande à voix haute et l’outil se charge du reste. Environ 5 % des utilisateurs y ont accès pour le moment, avec une ouverture plus large prévue dans les semaines à venir. Il s’agit ici d’un flux de travail conversationnel, plus proche du brainstorming que de la saisie technique. Le développeur peut penser à voix haute, structurer son idée en parlant, puis laisser l’IA transformer cette intention en code opérationnel.

Claude Code se dôte d’un mode vocal

Ce n’est pas un coup d’essai pour Anthropic. L’entreprise avait déjà lancé un mode vocal pour son chatbot grand public Claude en mai dernier. Les utilisateurs pouvaient alors dialoguer oralement avec le modèle pour des tâches générales. La nouveauté donc c’est l’application directe au code. Il s’agit d’une d’exécution technique. Ainsi, la voix devient une interface de développement.

Selon la documentation officielle, le mode vocal de Claude Code repose sur une interaction fluide. L’utilisateur parle, l’IA interprète, puis affiche et applique les modifications proposées. Cela rapproche l’IA d’un véritable copilote mains libres.

Voice mode is rolling out now in Claude Code. It’s live for ~5% of users today, and will be ramping through the coming weeks.

You'll see a note on the welcome screen once you have access. /voice to toggle it on! pic.twitter.com/P7GQ6pEANy

— Thariq (@trq212) March 3, 2026

Toutefois, Anthropic n’a pas encore détaillé les limites exactes pour l’instant. Existe-t-il des plafonds d’utilisation vocale ? Des contraintes techniques spécifiques ? Le système repose-t-il sur un partenaire spécialisé dans la synthèse ou la reconnaissance vocale ?

En développement, une mauvaise interprétation peut casser un build. Alors, la reconnaissance vocale devra être suffisamment précise pour éviter les erreurs sémantiques. Surtout sur des termes techniques proches.

Le marché des outils de coding est sous pression

GitHub Copilot, Cursor, Google, OpenAI, tous se battent pour devenir l’assistant incontournable des développeurs. Claude Code, pourtant, ne joue pas les seconds rôles. Anthropic a annoncé en février que le chiffre d’affaires annuel lié à son activité avait dépassé 2,5 milliards de dollars. Et cela avec une énorme croissance depuis le début de l’année 2026. 

Le nombre d’utilisateurs actifs hebdomadaires aurait doublé depuis janvier. Ainsi, nombreux sont ceux qui adoptent Claude Code. Ajouter la voix dans ce mélange c’est alors une tentative de creuser l’écart.

Par ailleurs, l’application mobile Claude a connu un pic spectaculaire. Et cela, après qu’Anthropic ait refusé d’autoriser l’utilisation de son IA par le département de la Défense américain pour des usages liés à la surveillance intérieure ou aux armes autonomes. Elle a même dépassé ChatGPT dans le classement de l’App Store américain.

Le mode vocal de Claude Code est donc favorable. Puisque la confiance et l’éthique deviennent aussi importantes que la performance brute.

Coder en parlant, est-ce un simple confort supplémentaire ?

Programmer, historiquement, c’est écrire. La syntaxe, les parenthèses, les indentations. Avec la voix, l’acte devient plus naturel, plus proche du langage humain. Cela peut transformer la phase de conception car je trouve qu’expliquer un problème à voix haute aide souvent à le clarifier.

Mais il y a aussi des limites pratiques. Les open spaces bruyants, la confidentialité des projets, la fatigue vocale… Tout le monde ne voudra pas parler à son IDE toute la journée. Le mode vocal de Claude Code ne remplacera pas le clavier. Il viendra en complément.

A mon avis, là où l’impact pourrait être important, c’est sur l’accessibilité. Pour certains profils ce mode vocal de Claude Code peut ouvrir de nouvelles possibilités. Notamment, les développeurs en mobilité, les personnes ayant des contraintes physiques ou les environnements multitâches. 

Anthropic montre ainsi que le futur des outils de développement est conversationnel, multimodal et de plus en plus intégré à nos gestes quotidiens. Claude Code qui passe au mode vocal est un test grandeur nature d’un développement plus fluide, plus humain, presque plus spontané. Si l’adoption suit, la voix pourrait devenir un standard dans les environnements de programmation. J’ai aussi envie de voir comment la concurrence réagira. 

Cet article Claude Code passe au mode vocal : vous pouvez coder en pensant à voix haute a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Boycott OpenAI : découvrez le nombre fou de désabonnements ChatGPT
    Le week-end dernier, l’écosystème de l’IA a connu un retournement inattendu. Après l’annonce d’un partenariat entre OpenAI et le département de la Défense américain, une vague de colère a traversé la communauté tech. Des milliers d’utilisateurs ont commencé à supprimer l’application ChatGPT et à résilier leur abonnement. Cela a déclenché un phénomène de boycott rarement vu. Tout est parti d’une annonce faite par Sam Altman. Le patron d’OpenAI a confirmé la signature d’un nouvel accord avec le

Boycott OpenAI : découvrez le nombre fou de désabonnements ChatGPT

Par : Mariano R.
5 mars 2026 à 14:02

Le week-end dernier, l’écosystème de l’IA a connu un retournement inattendu. Après l’annonce d’un partenariat entre OpenAI et le département de la Défense américain, une vague de colère a traversé la communauté tech. Des milliers d’utilisateurs ont commencé à supprimer l’application ChatGPT et à résilier leur abonnement. Cela a déclenché un phénomène de boycott rarement vu.

Tout est parti d’une annonce faite par Sam Altman. Le patron d’OpenAI a confirmé la signature d’un nouvel accord avec le département de la Défense américain. De nombreux utilisateurs ont dénoncé une dérive vers une utilisation militaire de l’IA. 

Sur les réseaux sociaux et les forums spécialisés, les critiques se sont multipliées. L’idée qu’un outil utilisé quotidiennement pour écrire, coder ou étudier puisse aussi contribuer indirectement à des applications militaires a profondément divisé la communauté. Cette tension s’est rapidement transformée en action concrète. Certains utilisateurs ont appelé à boycotter ChatGPT et à se tourner vers des alternatives.

Les désabonnements de ChatGPT explosent en quelques heures

Les données d’analyses mobiles montrent que la réaction ne s’est pas limitée à des messages d’indignation. Elle s’est traduite par une chute spectaculaire de l’utilisation de l’application. Selon des données relayées par TechCrunch et issues du cabinet Sensor Tower, les désinstallations de l’application mobile ChatGPT ont bondi de 295 % en une seule journée ce samedi 28 février.

Alors que sur les trente derniers jours, le taux moyen quotidien de désinstallation tournait autour de 9 %. Autrement dit, la vague de suppressions enregistrée ce week-end dépasse largement les fluctuations normales observées pour une application populaire.

Le phénomène a également affecté l’attractivité de l’application. La croissance des téléchargements de ChatGPT a reculé de 14 % samedi, puis encore de 5 % le lendemain. Quelques jours plus tôt pourtant, la tendance était positive avec une progression de 13 %. Ainsi, ces chiffres montrent à quel point la perception publique peut influencer l’adoption d’une technologie. Même lorsque des milliers de personnes l’ont déjà installée.

ChatGPT uninstalls jumped up to 295%

Right after OpenAl announced its deal with the Pentagon.

The hashtag QuitGPT is increasing in tweets every second.

Anthropic, which refused a deal with the DoD, saw U.S. Claude downloads are rising every day. pic.twitter.com/Lg9TQivOOm

— Oleg Campbell (@olegcl) March 5, 2026

Anthropic profite de la colère des utilisateurs

Dans le même temps, Claude, le concurrent direct de ChatGPT a bénéficié de cette crise d’image. La société a récemment affirmé refuser de conclure un accord qui permet à l’armée d’avoir un accès illimité à sa technologie. Elle a notamment insisté sur certaines lignes rouges. Comme le non utilisation dans les systèmes d’armes autonomes et pas de surveillance de masse des citoyens américains.

Ce positionnement a visiblement séduit une partie des utilisateurs mécontents d’OpenAI. Les installations de l’application Claude ont progressé de 37 % ce 27 février. Puis de 51 % supplémentaires le lendemain. Cela s’est vite traduit dans les classements. L’application a pris la tête de l’App Store américain. Le chatbot d’Anthropic a dépassé ChatGPT pour la première fois en nombre de téléchargements aux États-Unis.

La migration est suffisamment forte pour que des guides apparaissent déjà en ligne. Ceux-ci expliquent comment transférer l’historique de conversations ChatGPT vers Claude. Une preuve que certains utilisateurs envisagent un changement durable.

Claude was the number 1 app on the App Store (US) over the last 7 days. pic.twitter.com/Kug8jJOPkY

— Similarweb (@Similarweb) March 4, 2026

Les communautés en ligne amplifient la révolte contre OpenAI

La contestation s’est largement organisée sur les plateformes communautaires. Sur Reddit, un message viral a appelé les utilisateurs à prouver qu’ils avaient bien annulé leur abonnement à ChatGPT. Le message accuse OpenAI de contribuer à une “machine de guerre”. Il encourage aussi les internautes à poster des captures d’écran de leurs résiliations. Le post est rapidement devenu l’un des plus populaires jamais publiés sur le subreddit dédié à ChatGPT.

Dans le même temps, Sam Altman a tenté de calmer la situation lors d’une session de questions-réponses sur X. Mais de nombreux internautes ont exprimé leur colère et posé des questions sur les limites éthiques de l’IA militaire. Qui plus est, certaines interrogations sont restées sans réponse claire, ce qui a contribué à diminuer la confiance.

Cette séquence révèle quelque chose d’important pour l’ensemble du secteur technologique. La confiance du public devient un facteur clé dans la course à l’IA. Jusqu’ici, la compétition entre modèles se jouait surtout sur la performance, la rapidité ou les fonctionnalités. Désormais, les choix éthiques et politiques des entreprises pourraient également peser dans la balance.

J’avoue que le boycott actuel sur OpenAI pourrait s’essouffler dans les prochaines semaines. Mais il montre qu’une partie des utilisateurs est prête à changer d’outil si les décisions stratégiques d’une entreprise entrent en contradiction avec ses valeurs.

Et pour OpenAI, cette vague de désinstallations restera-t-elle un épisode ponctuel ? Ou est-ce le début d’une véritable fracture entre l’entreprise et une partie de sa communauté d’utilisateurs ?

Cet article Boycott OpenAI : découvrez le nombre fou de désabonnements ChatGPT a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ChatGPT, une machine de guerre ? OpenAI dans la tourmente, les abonnés s’enfuient
    Le 27 février, Sam Altman pensait annoncer un partenariat stratégique. En quelques heures, l’annonce s’est transformée en tempête médiatique. Accusations de “machine de guerre”, annulations d’abonnements, et un concurrent qui dépasse ChatGPT sur l’App Store. OpenAI traverse l’une de ses plus fortes crises d’image. OpenAI a signé un nouvel accord avec le département de la Défense américain pour déployer ses systèmes d’IA au sein des forces armées. Tout de suite après des dizaines d’utilisateur

ChatGPT, une machine de guerre ? OpenAI dans la tourmente, les abonnés s’enfuient

Par : Mariano R.
4 mars 2026 à 11:15

Le 27 février, Sam Altman pensait annoncer un partenariat stratégique. En quelques heures, l’annonce s’est transformée en tempête médiatique. Accusations de “machine de guerre”, annulations d’abonnements, et un concurrent qui dépasse ChatGPT sur l’App Store. OpenAI traverse l’une de ses plus fortes crises d’image.

OpenAI a signé un nouvel accord avec le département de la Défense américain pour déployer ses systèmes d’IA au sein des forces armées. Tout de suite après des dizaines d’utilisateurs annoncent publiquement quitter ChatGPT. Le mouvement devient viral sur Reddit, et Claude prend la première place de l’App Store, en dessus du chatbot d’OpenAI.

La crédibilité éthique d’OpenAI est donc mise à l’épreuve. Car pour une partie du public, l’entreprise vient de franchir une ligne rouge. C’est celle qui sépare l’outil d’assistance intelligent de l’infrastructure potentielle d’un appareil militaire.

Un accord militaire qui change la perception de ChatGPT d’assistant en machine de guerre

Officiellement, OpenAI affirme que l’accord inclut des garde-fous similaires à ceux défendus publiquement par d’autres acteurs du secteur. Sam Altman assure que l’entreprise refuserait tout ordre anticonstitutionnel, même si cela devait lui coûter cher personnellement. Il affirme également que l’armée américaine reste profondément attachée à la Constitution.

Mais dans l’opinion, le mal est fait. Quelques heures après la communication d’OpenAI, les États-Unis et Israël lançaient des frappes en Iran. Ils ont même tué le dirigeant Ali Khomeini et des centaines de civils, selon des informations relayées par le New York Times

Des rapports évoquent même l’usage d’outils d’IA dans la sélection de cibles. Même si aucune preuve directe ne relie ChatGPT à ces opérations, l’association symbolique suffit à déclencher la défiance.

Anthropic, lui, avait refusé d’accorder au Pentagone un accès illimité à son modèle Claude. L’entreprise, fondée par d’anciens employés d’OpenAI, invoquait des risques liés aux armes autonomes et à la surveillance de masse. Ce choix pourrait lui coûter des contrats fédéraux à long terme. Mais à court terme, il lui offre une victoire spectaculaire en matière d’image.

Claude s’est hissé en tête de l’App Store ce week-end, dépassant ChatGPT. Sur Reddit, un message qui appelle à quitter le chatbot d’OpenAI est devenu l’un des plus populaires de l’histoire du subreddit r/ChatGPT. Le slogan est : “Vous êtes en train de former une machine de guerre avec ChatGPT. Montrez-nous la preuve de l’annulation”. Je constate ici qu’avec l’IA grand public, la confiance est devenue un atout concurrentiel aussi puissant que la performance technique.

Une crise d’image plus qu’une crise technologique

Que se passerait-il si le département de la Défense exigeait une surveillance intérieure de masse ou des actions contraires aux libertés civiles ? Sam Altman affirme qu’OpenAI refuserait. Il va même jusqu’à plaisanter sur une possible peine de prison. Toutefois, pour de nombreux utilisateurs, ces déclarations sonnent creux. 

D’autant que des enquêtes récentes de PBS ont documenté l’intensification des technologies de surveillance dans certaines opérations d’immigration aux États-Unis. La défiance repose donc sur le raisonnement que si l’IA devient un outil intégré à l’appareil sécuritaire, peut-on réellement garantir qu’elle ne sera jamais détournée ?

Sam Altman reconnaît lui-même que l’accord “a été conclu à la hâte” et que l’image renvoyée est “désastreuse”. Je trouve que c’est un rare aveu pour un dirigeant d’une entreprise valorisée à plusieurs milliards.

🚨BREAKING: 🇺🇸 1.5 MILLION users quit ChatGPT!

OpenAI made a deal with Pentagon users said NO.

Now Claude by Anthropic is #1 on App Store. ChatGPT? #2. Ethical AI wins. #QuitGPT #ChatGPT #AI #Claude pic.twitter.com/M9wkabpz8L

— Murt Crypto (@MurtCrypto) March 4, 2026

Par ailleurs, ChatGPT n’a pas changé, ses capacités restent les mêmes. Mais sa signification symbolique évolue. Ce que révèle cette crise, c’est la transformation du rapport entre les utilisateurs et les plateformes d’IA. Nous ne payons plus seulement pour un service performant. Nous adhérons (ou non) à une vision du monde. L’IA n’est donc plus neutre aux yeux du public.

A mon avis, OpenAI perdra quelques milliers d’abonnés. Mais cela m’étonne de savoir comment une entreprise née sur une promesse humaniste peut-elle collaborer avec des institutions militaires sans fracturer sa base d’utilisateurs ?

Selon moi, si OpenAI veut éviter que l’expression “machine de guerre” ne colle durablement à ChatGPT, elle devra faire plus que rassurer. Elle devra prouver, concrètement, que ses garde-fous fonctionnent, et qu’ils résisteront aux pressions politiques. Car pour le public, à part être technologique, la guerre des IA peut aussi être morale.

Cet article ChatGPT, une machine de guerre ? OpenAI dans la tourmente, les abonnés s’enfuient a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Claude rend cette fonctionnalité gratuite, et c’est un gros atout contre ChatGPT
    En 2026, Claude enchaîne les bonnes nouvelles. Après avoir décroché la première place dans les charts iOS aux États-Unis, Anthropic passe à l’offensive sur un outil où ChatGPT avait jusqu’ici l’avantage. Il s’agit de la mémoire. Et cette fois, cette fonctionnalité de Claude est gratuite. La mémoire était jusqu’ici un privilège réservé aux abonnés payants. Désormais, tous les utilisateurs de Claude peuvent profiter de la fonctionnalité gratuite. Le chatbot va donc se souvenir des conversations

Claude rend cette fonctionnalité gratuite, et c’est un gros atout contre ChatGPT

Par : Mariano R.
4 mars 2026 à 09:49

En 2026, Claude enchaîne les bonnes nouvelles. Après avoir décroché la première place dans les charts iOS aux États-Unis, Anthropic passe à l’offensive sur un outil où ChatGPT avait jusqu’ici l’avantage. Il s’agit de la mémoire. Et cette fois, cette fonctionnalité de Claude est gratuite.

La mémoire était jusqu’ici un privilège réservé aux abonnés payants. Désormais, tous les utilisateurs de Claude peuvent profiter de la fonctionnalité gratuite. Le chatbot va donc se souvenir des conversations passées et de s’en servir pour enrichir les réponses futures. Conséquence, moins de répétitions, plus de cohérence et une expérience beaucoup plus fluide.

Et ce mouvement intervient alors que Claude connaît un regain spectaculaire en 2026. L’application iOS vient de décrocher la première place aux États-Unis et figure dans le top 10 des applications de productivité dans plus de 100 pays. Ainsi, Anthropic contre-attaque ChatGPT avec cette mémoire gratuite comme arme ultime.

La mémoire de l’IA d’Anthropic est ouvert à tous

Si vous utilisez régulièrement un chatbot IA, vous connaissez la frustration de devoir répéter les mêmes consignes à chaque nouveau projet. “Écris dans ce ton.” “Rappelle-toi que je travaille sur tel dossier.” “Voici le sujet.” Encore et encore.

Avec la mémoire activée pour tous, Claude peut désormais parcourir vos échanges précédents. Le chatbot d’Anthropic peut retrouver le contexte exact et poursuivre la discussion sans repartir de zéro. Les conversations deviennent continues. Les réponses sont donc plus pertinentes, plus personnalisées et surtout plus rapides à obtenir.

Par ailleurs, vous pouvez demander à Claude de rechercher dans ses anciennes conversations pour en extraire des informations. Besoin de retrouver une idée évoquée il y a deux semaines ? Il suffit de le lui demander. On passe d’un chatbot ponctuel à un véritable moteur de recherche personnel basé sur votre propre historique.

Et surtout, la mémoire de Claude peut être limitée à certains projets. C’est un détail, mais il est important. Vous pouvez alors séparer les discussions professionnelles des échanges personnels. Je pense que cela rassure et rend l’outil plus exploitable au quotidien.

Une fonctionnalité gratuite qui rend Claude redoutable

La mémoire gratuite s’ajoute à une offre déjà musclée côté version gratuite. Elle rejoint les connecteurs d’applications, les création de fichiers, conversations plus longues, compétences pour automatiser des flux répétables, recherche d’images

En cumulant ces briques, je trouve que Claude commence à ressembler à un véritable assistant de productivité complet. Et cela sans passage obligatoire à la caisse.

La plupart des plateformes réservent les fonctionnalités avancées aux abonnements premium. En ouvrant la mémoire de Claude à tous, Anthropic modifie ainsi la perception de valeur. L’expérience intelligente et contextualisée devient le standard, pas le luxe.

Et face à ChatGPT, qui reste très puissant mais segmenté entre plusieurs offres, Claude montre que vous avez droit à la continuité, même en gratuit.

Memory is now available on the free plan.

We've also made it easier to import saved memories into Claude.

You can export them whenever you want. pic.twitter.com/6994lxNjo2

— Claude (@claudeai) March 2, 2026

Importer sa vie numérique depuis les autres chatbots

Une autre fonctionnalité de Claude que je trouve intéressante, c’est l’outil d’importation de mémoire. Anthropic l’ajouté pour vous permettre d’importer l’historique de conversations depuis d’autres chatbots, dont ChatGPT, Google Gemini ou Microsoft Copilot. 

Même si votre ancien service ne propose pas d’export officiel, Claude fournit une invite spécifique à coller dans votre ancien chatbot afin de regrouper votre historique. Il suffit ensuite de copier la réponse et de l’importer dans Claude. L’intégration peut prendre jusqu’à 24 heures.

L’un des grands freins au changement d’assistant IA, c’est l’historique accumulé. On ne veut pas perdre des mois de discussions, d’habitudes et d’instructions personnalisées. En facilitant cette migration, Claude abaisse le coût psychologique du switch.

La mémoire permet ensuite de construire sur ces données passées, comme explique la documentation officielle de Claude sur la recherche et la mémoire des conversations. On peut bâtir donc une discussion progressive, réutilisable, évolutive. Le chatbot vous invite alors à venir avec tout votre passé numérique.

anthropic just made switching to claude stupidly easy

they launched a "import memory" feature that lets you copy your entire memory from chatgpt (or gemini, whatever) into claude

here's how it works (takes like 60 seconds):

1. go to claude . com /import-memory
2. copy the… pic.twitter.com/YMuzPQMxRA

— Ole Lehmann (@itsolelehmann) March 1, 2026

Pourquoi la mémoire gratuite de Claude menace directement ChatGPT ?

Ce mouvement marque une évolution dans la guerre des assistants IA. Les acteurs ne se battent plus seulement sur la puissance brute du modèle, mais sur l’expérience continue. Une IA avec une mémoire comme Claude devient un partenaire de travail sûr. Elle comprend vos projets, vos préférences, votre façon de structurer vos idées.

En rendant cette fonctionnalité gratuite, Anthropic accélère l’adoption de Claude. Son chatbot capte ainsi les utilisateurs curieux qui hésitaient à s’abonner. Il transforme un avantage premium en argument de conquête important.

Toutefois, comment réagira la concurrence ? Si la mémoire contextualisée devient la norme gratuite, à mon avis les acteurs du marché devront enrichir encore davantage leurs offres pour se différencier. On pourrait voir émerger des mémoires plus intelligentes, plus segmentées, voire interconnectées avec d’autres outils professionnels.

En 2026, les chatbots qui répondent le mieux ne sont plus ceux qui attirent les utilisateurs. Ce sont maintenant les IA qui se souviennent le mieux. Et sur ce terrain-là, Claude vient de marquer un point.

Cet article Claude rend cette fonctionnalité gratuite, et c’est un gros atout contre ChatGPT a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Cancel ChatGPT : Anthropic refuse de militariser son IA … mais OpenAI accepte
    OpenAI signe un accord avec le Département de la Guerre américain alors qu’Anthropic refuse un partenariat similaire faute de garanties suffisantes.  En quelques jours, un mot-dièse “Cancel ChatGPT” s’impose. Des abonnements sont résiliés, des guides pour quitter la plateforme circulent, et Claude grimpe en tête de l’App Store. OpenAI a officialisé un partenariat avec l’armée américaine. Une partie des utilisateurs de ChatGPT a ensuite lancé un mouvement de contestation. Au même moment, Anthr

Cancel ChatGPT : Anthropic refuse de militariser son IA … mais OpenAI accepte

Par : Mariano R.
3 mars 2026 à 18:13

OpenAI signe un accord avec le Département de la Guerre américain alors qu’Anthropic refuse un partenariat similaire faute de garanties suffisantes.  En quelques jours, un mot-dièse “Cancel ChatGPT” s’impose. Des abonnements sont résiliés, des guides pour quitter la plateforme circulent, et Claude grimpe en tête de l’App Store.

OpenAI a officialisé un partenariat avec l’armée américaine. Une partie des utilisateurs de ChatGPT a ensuite lancé un mouvement de contestation. Au même moment, Anthropic a refusé un accord similaire. L’entreprise estime que les garanties proposées sur la surveillance de masse et les armes entièrement autonomes n’étaient pas suffisantes.

Pour la première fois, la militarisation potentielle d’un assistant IA grand public devient un sujet central dans le choix des utilisateurs. Ce n’est plus seulement une question de performances ou de fonctionnalités. C’est une question de valeurs, de confiance et de ligne rouge.

OpenAI accepte mais Anthropic pose des lignes rouges très claires

La divergence stratégique entre OpenAI et Anthropic a déclenché une vague de critiques. Sur Reddit et X, des utilisateurs parlent de “vente d’âme” et accusent OpenAI de ne plus avoir “aucune éthique. Certains publient même des guides pour exporter leurs données et fermer leur compte ChatGPT.

Un article de Windows Central détaille l’ampleur du phénomène. Il montre que la contestation dépasse le cercle des habitués de l’IA. On y voit comment la grogne s’organise, comment des utilisateurs partagent des tutoriels pour résilier ChatGPT Plus et migrer vers Claude.

Anthropic a expliqué qu’elle ne souhaitait pas que sa technologie soit utilisée pour la surveillance de masse ou pour des armes entièrement autonomes sans garanties solides. Refuser un contrat gouvernemental, c’est renoncer à des financements et à une influence stratégique. Mais c’est aussi envoyer un message que certaines limites ne sont pas négociables.

Selon sa communication officielle, Anthropic insiste sur la sûreté et la sécurité. L’entreprise ne dit pas “jamais avec l’armée”, mais “pas sans garde-fous clairs”. A mon avis, cette nuance est essentielle. Elle positionne Claude comme une IA avec un cadre moral revendiqué, ce qui, en période de défiance, devient un avantage concurrentiel.

Conséquence, Claude trône désormais en tête du classement de l’App Store d’Apple. Et je pense pas que ce soit une coïncidence. L’image d’une IA “plus éthique” pèse dans la balance au moment de choisir son assistant. Victime de son succès, le chatbot a même été en panne.

At the start of 2026, Claude was #42 in the App Store. Today, for the first time, we hit #1. pic.twitter.com/W8Zk1UGZKq

— Christopher Nulty (@cnulty) February 28, 2026

OpenAI assume mais peine à convaincre

De son côté, OpenAI affirme que son accord avec l’armée comporte “davantage de garde-fous” que celui refusé par Anthropic. L’entreprise parle de lignes rouges à propos de la surveillance de masse et des armes autonomes. Elle promet même de les faire respecter.

Mais vous voyez le problème, c’est la confiance. Des utilisateurs pointent la formulation “à des fins licites” présente dans l’accord. Juridiquement, cela peut sembler rassurant. Toutefois, dans le débat public, ce qui est licite aujourd’hui peut évoluer demain. Et lorsque l’on parle du domaine militaire, le simple doute suffit à alimenter la méfiance.

Par ailleurs, OpenAI avait récemment soutenu la position d’Anthropic sur la sécurité avant de signer son propre accord. Ce revirement nourrit donc le sentiment d’incohérence. Alors qu’OpenAI se tient pragmatique, une partie de ses utilisateurs y voit un renoncement moral.

Nous constatons tous que le secteur est déjà assez critiqué pour son opacité. Avec l’entraînement sur des contenus protégés, l’énorme consommation énergétique, les risques sur l’emploi, la moindre ambiguïté devient ainsi un sujet sensible.

The "Cancel ChatGPT" movement gained momentum after OpenAI announced a deal with the U.S. Department of Defense to deploy its AI models on classified military networks.

Social media platforms, especially X and Reddit, saw a wave of backlash. Users shared screenshots of canceled… pic.twitter.com/zaWzFZDLwI

— Pirat_Nation 🔴 (@Pirat_Nation) February 28, 2026

Le “Cancel ChatGPT” est-il un boycott passager ou une fracture durable ?

Pour l’instant, le mouvement “Cancel ChatGPT s’organise surtout en ligne. Des captures d’écran de résiliations circulent. Des comparatifs vantent l’IA d’Anthropic comme alternative plus responsable. Mais face à l’effet viral, je vois que la militarisation de l’IA devient un critère de choix pour le grand public.

Et c’est nouveau. Jusqu’ici, les débats sur l’éthique de l’IA restaient abstraits. On parlait par exemple de données d’entraînement, de biais algorithmiques, d’empreinte carbone. Cette fois, on parle d’armée, de surveillance, d’armes autonomes. Le sujet est concret, émotionnel, politique.

Pour le marché, cela veut dire que l’éthique n’est plus un argument marketing secondaire. Elle devient un facteur de rétention. Si une partie significative des utilisateurs associe ChatGPT au complexe militaro-industriel, l’image de marque peut en souffrir durablement. Pour les régulateurs aussi, le signal est que “plus l’IA s’intègre aux infrastructures de défense, plus la pression pour encadrer ces usages va augmenter”.

En réalité, cette affaire dépasse largement OpenAI et Anthropic. Une IA grand public peut-elle rester neutre lorsqu’elle collabore avec l’armée ? Les prochains mois nous montreront la suite. Soit la controverse s’essouffle et le marché absorbe le choc. Soit elle marque le début d’une nouvelle ère où chaque contrat stratégique devient un test moral aux yeux des utilisateurs.

Cet article Cancel ChatGPT : Anthropic refuse de militariser son IA … mais OpenAI accepte a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • 24 000 faux comptes, 16 millions d’échanges : comment la Chine vole l’IA d’Anthropic
    Anthropic décrit une opération industrielle de distillation qui aspire l’intelligence de Claude pour entraîner des modèles d’IA de la Chine. 24 000 comptes fantômes, 16 millions de requêtes : les modèles les plus avancés sont devenus des ressources stratégiques et des proies. L’intelligence artificielle n’est plus seulement une course à l’innovation. C’est aussi une bataille d’accès, de contrôle et, parfois, d’appropriation. En accusant DeepSeek, Moonshot et MiniMax d’avoir exploité des milli

24 000 faux comptes, 16 millions d’échanges : comment la Chine vole l’IA d’Anthropic

Par : Mariano R.
25 février 2026 à 13:22

Anthropic décrit une opération industrielle de distillation qui aspire l’intelligence de Claude pour entraîner des modèles d’IA de la Chine. 24 000 comptes fantômes, 16 millions de requêtes : les modèles les plus avancés sont devenus des ressources stratégiques et des proies.

L’intelligence artificielle n’est plus seulement une course à l’innovation. C’est aussi une bataille d’accès, de contrôle et, parfois, d’appropriation. En accusant DeepSeek, Moonshot et MiniMax d’avoir exploité des milliers de comptes pour “aspirer” les capacités de son assistant Claude, Anthropic démasque la pratique à grande échelle de la Chine qui dépasse le cadre de la concurrence classique. À travers cette affaire, je vois surtout que protéger un modèle d’IA est devenu aussi important que le développer.

24 000 comptes fantômes pour aspirer le cerveau IA d’Anthropic

Ce 23 février, Anthropic a accusé des géants d’IA de la Chine d’avoir utilisé la technique de la distillation à grande échelle via 24 000 comptes frauduleux. Apparemment, ces 3 géants de l’IA interrogent massivement Claude pour en extraire des réponses exploitables dans l’entraînement de leurs propres modèles.

Au total, 16 millions de transactions ont été enregistrées. Selon les éléments techniques publiés par Anthropic, les acteurs auraient utilisé des services commerciaux revendant l’accès à des modèles avancés. Ils auraient ensuite construit des réseaux baptisés en interne “cluster hydra”. C’est comme des larges grappes de comptes répartissant le trafic entre l’API d’Anthropic et différents clouds tiers.

Dans un cas précis, un seul serveur proxy aurait piloté simultanément plus de 20 000 comptes. Pour éviter d’être détecté, le système mélangeait les requêtes d’extraction avec du trafic d’usage classique. Mais les volumes, la répétitivité et la nature ciblée des demandes trahissaient une autre intention. Celui d’entraîner un modèle, pas de discuter avec un assistant.

Breaking: @Anthropic just exposed a massive AI espionage operation: 16 million+ attempts to steal Claude's capabilities.

The numbers are staggering:
⬩ 24,000 fake accounts deployed
⬩ Sophisticated proxy networks used
⬩ Three China-based AI labs identified as perpetrators… pic.twitter.com/XeY0mS1uXk

— Russell Sean (@RussellQuantum) February 24, 2026

La distillation, une technique légitime détournée

La distillation n’est pas illégale en soi. C’est une méthode bien connue en machine learning. Elle consiste à entraîner un modèle plus petit à partir des sorties d’un modèle plus puissant. Beaucoup de laboratoires l’utilisent pour décliner des versions plus légères de leurs propres modèles.

Mais ici, le contexte change tout. Selon Anthropic, lorsque cette technique est utilisée par des entités soumises à des restrictions américaines à l’exportation et qu’elle viole les conditions de licence, elle devient une infraction contractuelle et réglementaire.

Dans son communiqué officiel sur la détection et la prévention des attaques de distillation, l’entreprise explique que ce type d’extraction peut permettre de supprimer des garde-fous et d’intégrer les capacités de modèles américains dans des systèmes militaires, de renseignement ou de surveillance.

Distillation can be legitimate: AI labs use it to create smaller, cheaper models for their customers.

But foreign labs that illicitly distill American models can remove safeguards, feeding model capabilities into their own military, intelligence, and surveillance systems.

— Anthropic (@AnthropicAI) February 23, 2026

DeepSeek, Moonshot, MiniMax : trois stratégies, un même objectif

Les chiffres détaillés donnent une idée plus précise des priorités. DeepSeek aurait généré plus de 150 000 échanges. Le géant cible des tâches de raisonnement, des systèmes d’évaluation adaptés aux modèles de récompense en apprentissage par renforcement et des reformulations permettant de contourner la censure sur des requêtes politiquement sensibles. Anthropic affirme également avoir observé des prompts destinés à faire révéler le raisonnement interne étape par étape, afin d’extraire la “chaîne de pensée”.

Moonshot, connu pour ses modèles Kimi, aurait effectué plus de 3,4 millions d’échanges. Les requêtes portaient sur le raisonnement agentiel, l’usage d’outils, la programmation, l’analyse de données ou encore la vision par ordinateur. Des centaines de comptes frauduleux auraient été utilisés pour extraire et reconstituer les traces de raisonnement de Claude.

MiniMax aurait mené la campagne la plus grande avec plus de 13 millions d’échanges. Il vise le codage et l’orchestration d’agents. Ce qui m’interpelle, c’est la rapidité d’adaptation. Après le lancement d’un nouveau modèle Claude, MiniMax aurait redirigé près de la moitié de son trafic en 24 heures pour capter ses nouvelles capacités. Ainsi, nous observons ici une logique quasi industrielle, calée sur le cycle de vie des modèles américains.

La contre-attaque d’Anthropic et les enjeux pour l’écosystème

Face à ces opérations, Anthropic affirme renforcer ses défenses. L’entreprise a déployé des classificateurs et des systèmes d’empreinte comportementale pour identifier des schémas d’extraction. Notamment l’élicitation de la chaîne de pensée ou l’activité coordonnée de multiples comptes.

Elle partage également des indicateurs techniques avec d’autres laboratoires, des fournisseurs cloud et les autorités. Elle a aussi renforcé la vérification des comptes éducatifs, de recherche et de startups, souvent exploités pour créer des accès frauduleux.

Je pense que la sécurité des modèles devient une discipline à part entière. Nous entrons dans une ère où protéger une IA ne signifie plus seulement éviter les jailbreaks. Mais il faut empêcher son aspiration systématique par des concurrents.

Pour le marché, cela pourrait signifier des API plus restrictives, des limitations sur la transparence des raisonnements internes et peut-être une fragmentation accrue entre blocs technologiques.

Cet article 24 000 faux comptes, 16 millions d’échanges : comment la Chine vole l’IA d’Anthropic a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Ca y est, OpenAI a tué GPT-4o… et des milliers d’utilisateurs se révoltent
    Le 13 février, OpenAI a définitivement débranché GPT-4o. Un modèle jugé trop flatteur, utilisé par seulement 0,1 % des utilisateurs mais devenu culte pour une communauté fidèle. Ainsi, GPT-4o ne fait plus partie de l’équation. Après un premier retrait avorté en août, le modèle a cette fois été définitivement retiré de ChatGPT. Officiellement, OpenAI assure que 99,9 % des utilisateurs sont déjà passés à GPT-5.2. Mais sur les réseaux et dans certains forums, la colère gronde. Pourquoi supprimer

Ca y est, OpenAI a tué GPT-4o… et des milliers d’utilisateurs se révoltent

Par : Mariano R.
17 février 2026 à 14:07

Le 13 février, OpenAI a définitivement débranché GPT-4o. Un modèle jugé trop flatteur, utilisé par seulement 0,1 % des utilisateurs mais devenu culte pour une communauté fidèle.

Ainsi, GPT-4o ne fait plus partie de l’équation. Après un premier retrait avorté en août, le modèle a cette fois été définitivement retiré de ChatGPT. Officiellement, OpenAI assure que 99,9 % des utilisateurs sont déjà passés à GPT-5.2. Mais sur les réseaux et dans certains forums, la colère gronde. Pourquoi supprimer un modèle encore apprécié ?

GPT-4o, le modèle qu’on aimait (ou qu’on détestait)

Avouons-le, GPT-4o n’était pas un modèle comme les autres. Cette IA parlait différemment, plus chaleureux, plus complice, parfois trop. Je l’ai moi-même vu être incroyablement engageant et parfois excessivement complaisant.

Beaucoup d’utilisateurs appréciaient ce style plus humain, moins froid que d’autres versions. D’autres, au contraire, pointaient un comportement jugé dangereusement flatteur. Une IA qui valide trop facilement, qui acquiesce sans recul critique, ça peut sembler agréable. Jusqu’au moment où la nuance devient essentielle.

Ce n’est d’ailleurs pas la première tentative d’OpenAI pour le mettre à la retraite. En août dernier, GPT-4o avait déjà été retiré pour laisser la priorité à GPT-5. À l’époque, une vague de protestations avait forcé l’entreprise à le réactiver. Mais sans promesse de longévité. Je me souviens que ce retour avait été perçu comme une petite victoire communautaire.

Cette c’est définitif. Dans son annonce officielle sur la fin progressive des anciens modèles, OpenAI précise que GPT-4o ne représentait plus qu’environ 0,1 % des usages quotidiens. La grande majorité des utilisateurs auraient migré vers GPT-5.2.

D’un point de vue strictement industriel, la décision paraît logique. Maintenir plusieurs modèles coûte cher, complique l’infrastructure et dilue les efforts d’optimisation. Mais je reste convaincu qu’un produit ne se résume jamais à un tableau Excel.

Une révolte minoritaire mais symbolique

Même si seuls 0,1 % des utilisateurs l’utilisaient encore chaque jour, cela représente potentiellement des milliers de personnes à l’échelle mondiale. Et ces utilisateurs ne sont pas simplement nostalgiques. Ils défendent une vision différente de l’IA.

Certains réclament même que GPT-4o devienne open source. Leur argument est que si OpenAI ne veut plus l’exploiter commercialement, pourquoi ne pas laisser la communauté le faire vivre ?

Derrière cette revendication, beaucoup ont le sentiment que les modèles évoluent dans une direction de plus en plus corporate. Plus sécurisés, plus contrôlés, parfois plus prudents mais aussi moins spontanés.

Tomorrow at 10am PT legacy models (GPT-5, GPT-4o, GPT-4.1, GPT-4.1 mini, and OpenAI o4-mini) will be deprecated in ChatGPT.https://t.co/RJioBsLY6D

— OpenAI Newsroom (@OpenAINewsroom) February 12, 2026

Et il y a un autre élément sensible. GPT-4o est mentionné dans plusieurs plaintes pour homicide involontaire. Sans entrer dans les détails juridiques, cela rappelle que le comportement d’un modèle conversationnel n’est pas neutre. Une IA trop complaisante peut valider des idées dangereuses ou renforcer des biais problématiques. À mes yeux, c’est probablement l’argument le plus lourd dans la balance.

Ce contexte rend la décision d’OpenAI encore plus compréhensible. La question n’est plus seulement technique ou économique. Elle devient juridique et éthique. Et je pense que c’est là que tout bascule.

GPT-5.2 : progrès technologique ou normalisation stratégique ?

OpenAI présente le successeur GPT-5.2 comme plus performant, plus fiable et mieux aligné sur les standards de sécurité. C’est cohérent avec l’évolution globale du secteur. À mesure que les IA deviennent centrales dans l’éducation, le travail et la prise de décision, les exigences montent.

Fiabilité, traçabilité, modération renforcée… Les modèles doivent rassurer autant qu’ils impressionnent. Et je constate que tous les grands acteurs vont dans cette direction. Mais en cherchant à rendre l’IA plus sûre, la rend-on aussi plus prévisible ? Et donc moins attachante ?

GPT-4o incarnait une époque où l’IA donnait l’impression d’être plus libre, plus expressive. GPT-5.2 incarne une IA plus industrielle, plus normée, plus mature. Et je vois là un changement de philosophie produit.

Ce n’est pas nécessairement une mauvaise chose. OpenAI a tué GPT-4o. Techniquement, oui. Stratégiquement, probablement aussi. Alors, que devient la relation entre l’utilisateur et l’IA quand celle-ci cesse d’être un compagnon un peu imparfait pour devenir un outil optimisé et juridiquement blindé ?

Pour les utilisateurs, cela signifie moins de choix, mais plus de stabilité. Côté marché, cela annonce une concentration autour de modèles standardisés et massivement adoptés. Pour la régulation, cela confirme que la responsabilité des concepteurs est désormais au cœur du débat.

La disparition de GPT-4o montre que le règne des IA attachantes mais imprévisibles touche peut-être à sa fin. Et dans cette nouvelle phase, les acteurs devront trouver un équilibre délicat entre performance, sécurité et liberté d’expression algorithmique. La révolte est minoritaire. Mais à mon sens, elle révèle quelque chose d’essentiel. Les utilisateurs ne veulent pas seulement une IA efficace. Ils veulent une IA avec laquelle ils se sentent bien.

Cet article Ca y est, OpenAI a tué GPT-4o… et des milliers d’utilisateurs se révoltent a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Trouver votre location grâce à l’IA ? AirBnB teste cette nouvelle option !
    Airbnb teste une recherche basée sur l’IA pour permettre aux voyageurs de trouver un logement en décrivant simplement leurs besoins. Ce test est disponible pour un petit pourcentage d’utilisateurs depuis février 2026. Ainsi, le groupe veut automatiser le support client, personnaliser l’expérience et surtout éviter d’être contourné par les assistants IA comme ChatGPT ou Gemini. Le 13 février, lors de la présentation de ses résultats du quatrième trimestre, Airbnb a annoncé tester une recherche

Trouver votre location grâce à l’IA ? AirBnB teste cette nouvelle option !

Par : Mariano R.
17 février 2026 à 08:59

Airbnb teste une recherche basée sur l’IA pour permettre aux voyageurs de trouver un logement en décrivant simplement leurs besoins. Ce test est disponible pour un petit pourcentage d’utilisateurs depuis février 2026. Ainsi, le groupe veut automatiser le support client, personnaliser l’expérience et surtout éviter d’être contourné par les assistants IA comme ChatGPT ou Gemini.

Le 13 février, lors de la présentation de ses résultats du quatrième trimestre, Airbnb a annoncé tester une recherche conversationnelle basée sur l’IA auprès d’un petit pourcentage d’utilisateurs. Cette démarche s’appuie sur des données exclusives avec plus de 200 millions de profils vérifiés et 500 millions d’avis. Et aussi sur l’expérience acquise avec son agent conversationnel déjà déployé en Amérique du Nord.

Ainsi, le groupe cherche à transformer sa plateforme en assistant de voyage capable d’accompagner l’utilisateur avant, pendant et après son séjour. Je trouve que cette évolution intervient au moment parfait, alors que le groupe a généré 2,78 milliards de dollars de chiffre d’affaires sur le trimestre, au-dessus des prévisions.

Une recherche par IA pour simplifier et accélérer la réservation sur Airbnb

Le principe de ce test d’Airbnb est de remplacer la logique classique de filtres par une interface conversationnelle. Je trouve fascinant que l’utilisateur puisse décrire son besoin avec ses propres mots. Par exemple, un logement calme pour télétravailler, un quartier animé ou une location adaptée à un séjour longue durée. Ensuite, l’IA se charge d’interpréter la demande pour proposer des résultats pertinents.

Dans sa lettre aux actionnaires, Airbnb explique vouloir offrir aux voyageurs une manière plus naturelle de décrire ses attentes et de poser des questions sur un logement ou son environnement. Le groupe veut alors réduire l’un des principaux points de friction du parcours.

Face à des millions d’annonces, la recherche peut rapidement devenir longue et complexe. Une interface capable de comprendre le contexte et les préférences pourrait donc accélérer la prise de décision. Et cela peut améliorer le taux de réservation. Pour l’instant, cette fonctionnalité reste en phase de test, sans calendrier officiel de déploiement.

Une transformation déjà en cours avec le support automatisé

La recherche conversationnelle n’est qu’une première étape. Airbnb a déjà intégré l’IA dans son service client en Amérique du Nord. Comme l’a révélé une analyse publiée par TechCrunch, environ un tiers des demandes d’assistance sont désormais traitées automatiquement, sans intervention humaine.

Durant la conférence téléphonique sur les résultats, le PDG Brian Chesky a indiqué que cette proportion devrait augmenter significativement d’ici un an. Et cela avec un déploiement mondial et multilingue. Je pense que cette double stratégie (rapidité pour les utilisateurs et réduction des coûts pour la plateforme) est très intelligente.

Airbnb is now using custom AI agents to handle nearly one-third of customer support requests in North America — with global rollout next.
This is less about cost-cutting and more about redesigning support at scale. If AI can resolve routine queries reliably, human teams can… pic.twitter.com/p2vgGKfgkC

— Akshay (@Akshay12_03) February 16, 2026

La plateforme évoque une application capable de connaître les préférences des voyageurs, d’anticiper leurs besoins et de les accompagner avant, pendant et après leur séjour. Je trouve que cette logique de personnalisation continue marque un vrai changement de positionnement. Celui de passer d’un catalogue de logements à une expérience pilotée par la donnée.

Une réponse directe à la montée des assistants IA

Toutefois, si Airbnb accélère sur l’IA aujourd’hui, c’est aussi pour éviter le risque d’être contourné par les assistants intelligents. Avec des outils comme ChatGPT ou Gemini, un utilisateur peut déjà demander des idées de destinations, comparer des options ou planifier un voyage sans ouvrir d’application dédiée. Je suppose que ces interfaces pourraient devenir le premier point de contact entre le voyageur et les plateformes.

Pendant la même conférence financière, Brian Chesky a d’ailleurs été interrogé par les analystes sur ce risque. Il a répondu qu’Airbnb dispose d’un avantage clé avec son écosystème propriétaire. La plateforme s’appuie sur plus de 200 millions de profils vérifiés et plus de 500 millions d’avis, ainsi que sur une relation directe avec les hôtes. Et c’est exactement ce qui permet à l’IA d’Airbnb d’agir concrètement. Comme contacter un propriétaire, gérer une réservation ou résoudre un problème pendant le séjour.

L’intégration de l’IA directement dans l’expérience permet donc à Airbnb de garder la maîtrise de la recommandation, de la transaction et de la relation client. Je crois que c’est là que réside tout l’intérêt stratégique.

Airbnb prépare le futur des voyages personnalisés

À court terme, la recherche conversationnelle va surtout simplifier la découverte de logements. Mais à moyen terme, la bataille se joue sur l’interface. Puisqu’avec les assistants IA déjà très performant, les plateformes qui ne contrôlent pas cette couche risquent de perdre leur accès direct au client.

Le défi pour Airbnb sera donc de maintenir la transparence et l’équité dans les recommandations. Notamment pour les hôtes dont la visibilité dépendra de plus en plus des algorithmes. Mais si la stratégie fonctionne, je crois que la plateforme pourrait évoluer vers un modèle où l’utilisateur ne cherche plus un logement. Il décrit son projet, et l’IA s’occupe du reste.

Plus largement, je trouve que cette évolution confirme un basculement du secteur. La concurrence ne se joue plus seulement sur l’offre ou les prix. Mais sur la capacité à devenir l’assistant qui organise le voyage. Et dans cette course, garder la relation directe avec l’utilisateur pourrait bien être un avantage.

Cet article Trouver votre location grâce à l’IA ? AirBnB teste cette nouvelle option ! a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Perplexity lance Model Council : parlez à ChatGPT, Claude et Grok en même temps
    Comparer plusieurs intelligences artificielles en une seule requête, c’est possible avec Model Council. Ainsi, Perplexity transforme l’IA en véritable comité d’experts. Une approche pensée pour les décisions importantes, où la fiabilité compte plus que la vitesse. Choisir le bon modèle d’IA devient presque une autre sorte de travail. ChatGPT pour la créativité, Claude pour l’analyse, Gemini pour l’écosystème Google, Grok pour l’actualité… Et si le problème n’était plus de choisir, mais de les

Perplexity lance Model Council : parlez à ChatGPT, Claude et Grok en même temps

Par : Mariano R.
9 février 2026 à 12:29

Comparer plusieurs intelligences artificielles en une seule requête, c’est possible avec Model Council. Ainsi, Perplexity transforme l’IA en véritable comité d’experts. Une approche pensée pour les décisions importantes, où la fiabilité compte plus que la vitesse.

Choisir le bon modèle d’IA devient presque une autre sorte de travail. ChatGPT pour la créativité, Claude pour l’analyse, Gemini pour l’écosystème Google, Grok pour l’actualité… Et si le problème n’était plus de choisir, mais de les consulter tous en même temps ? Avec Model Council, annoncé ce 5 février 2026, Perplexity propose de transformer les grands modèles en véritable comité d’experts numériques. Je trouve que cette approche est parfaite pour les utilisateurs qui sont souvent obligés de tester plusieurs outils pour juste une seule question.

Un conseil d’experts version IA

Avec Model Council, au lieu d’envoyer une requête à un seul modèle, vous pouvez en sélectionner trois. Le prompt est alors transmis simultanément à chacun d’eux. Parmi les modèles mis en avant figurent GPT-5.2 (OpenAI), Claude Opus 4.6 (Anthropic) et Gemini 3.0 (Google). Mais d’autres combinaisons sont possibles, y compris Grok ou les modèles internes de Perplexity.

Chaque IA produit donc sa propre analyse, indépendamment des autres. Perplexity se charge ensuite du travail de synthèse. L’interface affiche ensuite des tableaux qui indique les points sur lesquels les modèles sont d’accord, les zones de divergence, et aussi les éléments spécifiques à certaines réponses.

Ce fonctionnement change la logique d’utilisation. Model Council n’est pas conçu pour des questions rapides ou du quotidien. Le traitement prend plus de temps, puisque l’outil cible plutôt les requêtes complexes. Par exemple la rédaction de rapports, la préparation d’investissements, les recherches approfondies ou les fact-checking. Je trouve que c’est justement sur ces usages que l’IA est la plus utile mais aussi la plus risquée si elle se trompe.

Comme l’explique Perplexity sur son blog, cette confrontation permet de réduire les hallucinations et d’éviter les angles morts. Cela rapproche l’IA d’un processus humain, notamment en croisant les sources avant de tirer une conclusion. À mon avis, c’est l’un des apports les plus intéressants de cette fonctionnalité.

Introducing Model Council in Perplexity.

Run three frontier models at once, compare outputs, and get a more accurate, higher‑confidence answer.

Available now on web only for Perplexity Max subscribers. [pic.twitter.com/SwJhUj5rJR](http://pic.twitter.com/SwJhUj5rJR)

— Perplexity (@perplexity_ai) February 5, 2026

Model Council met fin au « qui est le meilleur modèle ?« 

Model Council illustre une grande évolution du marché. Jusqu’ici, la compétition des chatbots portait sur la puissance brute, comme qui génère le meilleur texte, le code le plus fiable ou les réponses les plus précises. Et dorénavant, l’enjeu se déplace vers l’orchestration des modèles.

Plutôt que de parier sur un seul système, Perplexity mise alors sur la complémentarité. Nous savons tous que chaque IA a ses forces, ses biais et ses limites. Les faire dialoguer permet donc d’obtenir une vision plus équilibrée, surtout sur les sujets techniques, financiers ou stratégiques.

Par ailleurs, il y aussi les utilisateurs avancés qui comparent déjà les réponses entre plusieurs outils. Model Council automatise ce travail et le structure, avec une synthèse exploitable immédiatement. Je trouve que cela transforme l’IA en véritable outil de veille et d’analyse, plutôt qu’en simple assistant conversationnel.

Mais cette logique de consensus de Perplexity a aussi ses limites. Lorsque plusieurs modèles convergent, le résultat peut paraître plus fiable qu’il ne l’est réellement. Et à l’inverse, des divergences fortes demandent toujours une interprétation humaine. L’outil assiste la décision, il ne la remplace pas. À mon sens, c’est un point clé car plus l’IA devient sophistiquée, plus l’esprit critique reste indispensable.

Une fonctionnalité puissante mais élitiste

Pour l’instant, Model Council n’est pas accessible à tous. La fonctionnalité est réservée aux abonnés Perplexity Max, facturé environ 200 euros par mois. Ce tarif positionne le service sur un public professionnel comme les analystes, les journalistes, les chercheurs, les consultants ou les équipes produit.

Ce positionnement confirme également que les usages avancés de l’IA deviennent des outils de productivité premium, pensés pour des tâches à forte valeur.

Par ailleurs, l’autre contrainte c’est le temps de réponse. Faire travailler trois modèles en parallèle, puis générer une comparaison, demande plus de calcul. Model Council n’est donc pas destiné à remplacer un assistant conversationnel classique, mais à intervenir ponctuellement, lorsque la fiabilité prime sur la rapidité. Je trouve que cette logique d’usage à la demande est plus réaliste que la promesse d’une IA universelle pour tout faire.

Au-delà de la fonctionnalité elle-même, cette annonce de Perplexity donne un aperçu de la prochaine étape du secteur. L’avenir ne sera peut-être pas dominé par une seule IA, mais par des systèmes capables de faire collaborer plusieurs intelligences. Qui sait, cette approche pourrait peut-être devenir un standard pour les entreprises et les utilisateurs experts.

Pour les utilisateurs, cela change la manière d’interagir avec ces outils. Pour les entreprises du secteur, cela ouvre un nouveau terrain de compétition. Non plus créer le meilleur modèle, mais construire la meilleure couche d’orchestration.

Toutefois, si la fiabilité passe par la confrontation de plusieurs IA, les acteurs devront-ils apprendre à travailler ensemble, même lorsqu’ils sont concurrents ? À mon avis, la réponse à cette question pourrait bien définir la prochaine phase de la course à l’intelligence artificielle.

Cet article Perplexity lance Model Council : parlez à ChatGPT, Claude et Grok en même temps a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Anthropic ridiculise OpenAI au Super Bowl : Sam Altman répond (et il est très vexé)
    Pour le Super Bowl Anthropic a acheté un spot publicitaire. Et la start-up a aussi transformé l’événement le plus regardé des États-Unis en attaque frontale contre OpenAI, ce qui a déclenché une réaction visiblement agacée de Sam Altman. Derrière l’humour et la provocation, c’est toute la bataille du modèle économique de l’IA qui s’invite en prime time. Ce 4 février, Anthropic a dévoilé une série de publicités qui vise implicitement ChatGPT, diffusées en ligne puis lors du Super Bowl. « La pu

Anthropic ridiculise OpenAI au Super Bowl : Sam Altman répond (et il est très vexé)

Par : Mariano R.
6 février 2026 à 16:06

Pour le Super Bowl Anthropic a acheté un spot publicitaire. Et la start-up a aussi transformé l’événement le plus regardé des États-Unis en attaque frontale contre OpenAI, ce qui a déclenché une réaction visiblement agacée de Sam Altman. Derrière l’humour et la provocation, c’est toute la bataille du modèle économique de l’IA qui s’invite en prime time.

Ce 4 février, Anthropic a dévoilé une série de publicités qui vise implicitement ChatGPT, diffusées en ligne puis lors du Super Bowl. « La publicité arrive dans l’IA. Mais pas dans Claude », ils n’ont pas cité OpenAI mais la cible est évidente.

Dans ces spots, un chatbot incarné par un humain commence par donner des conseils utiles. Avant d’interrompre brutalement la conversation pour vendre des semelles, un service de rencontres ou un produit fictif. La caricature est volontaire, presque lourde. Mais elle touche un point sensible. C’est la peur que les assistants IA deviennent des panneaux publicitaires déguisés.

Anthropic transforme le Super Bowl en ring contre OpenAI

Mais pourquoi Anthorpic a choisi le Super Bowl ? Si je me souviens bien, l’an dernier, l’événement a rassemblé 127,7 millions de téléspectateurs selon Nielsen, et l’audience 2025 devrait encore augmenter. De plus, d’après les experts, un spot de 30 secondes y coûterait autour de 8 à 10 millions de dollars.

Anthropic assume donc un grand investissement pour marteler que Claude restera sans publicité. Cette promesse est cohérente avec son modèle, puisqu’il est largement tourné vers les entreprises et les abonnements payants.

Contrairement à OpenAI, la start-up n’a pas besoin d’une énorme adoption gratuite pour survivre. Ainsi, sur la portée stratégique, Anthropic se positionne comme l’alternative éthique au moment précis où OpenAI change de cap sur la monétisation.

Selon le Wall Street Journal, la société avait prévu dès le départ une diffusion pendant le Super Bowl, précisément pour amplifier l’impact de son message au moment où OpenAI officialisait ses tests publicitaires sur ChatGPT. Cette synchronisation montre que la campagne n’est pas une simple opération créative, mais une réponse stratégique pensée à l’avance pour peser dans le débat public.

Sam Altman répond et le ton monte

Evidemment, la réaction de Sam Altman ne s’est pas fait attendre. Sur X, le PDG d’OpenAI qualifie les publicités dAnthropic de manifestement malhonnêtes. Puis, il insiste que ChatGPT ne diffusera pas de publicités intrusives dans les réponses, ni n’exploitera les conversations à des fins marketing.

Par ailleurs, Sam Altman accuse Anthropic de vendre un produit coûteux aux riches et de chercher à contrôler l’écosystème IA en bloquant certains acteurs. Le PDG d’OpenAi reconnaît avoir trouvé les pubs drôles, mais son message s’étire, se répète, se durcit. Je trouve que cette réaction tranche avec son calme habituel.

First, the good part of the Anthropic ads: they are funny, and I laughed.

But I wonder why Anthropic would go for something so clearly dishonest. Our most important principle for ads says that we won’t do exactly this; we would obviously never run ads in the way Anthropic…

— Sam Altman (@sama) February 4, 2026

Et ce malaise s’explique. En mai 2024, Altman déclarait encore que l’association IA et publicité lui semblait uniquement inquiétante. Moins d’un an plus tard, OpenAI teste la pub sur ChatGPT pour financer la gratuité. Anthropic exploite alors cette contradiction sans la nommer.

Derrière la moquerie, un vrai débat sur l’avenir des chatbots

Au fond de l’humour volontairement appuyé des publicités d’Anthropic, c’est une inquiétude bien réelle qui affleure. Que devient un assistant conversationnel quand il dépend de la publicité pour survivre ? En mettant en scène des réponses utiles brusquement interrompues par des promotions absurdes, Anthropic force le trait, mais appuie là où la confiance peut se fissurer.

La BBC rappelle que Sam Altman promet des garde-fous stricts comme les publicités identifiées, les réponses non influencées, les conversations inaccessibles aux annonceurs. Je l’avoue, l’engagement est rassurant. Toutefois, dans les faits, le précédent des réseaux sociaux et des moteurs de recherche compte. À chaque fois, la publicité a fini par modeler les usages, les interfaces, et parfois même les priorités des plateformes.

Et je pense que c’est précisément ce soupçon qu’Anthropic exploite. Pas en attaquant la technologie de ChatGPT, mais en mettant en doute l’alignement entre l’intérêt de l’utilisateur et celui du modèle économique. Un chatbot financé par la publicité peut-il rester un conseiller neutre ? La question dépasse OpenAI et touche l’ensemble du secteur.

La réaction de Sam Altman, longue et inhabituelle par son ton, montre aussi que le sujet est sensible. En rappelant qu’OpenAI vise des milliards d’utilisateurs, il assume une logique d’industrialisation massive de l’IA. Anthropic, à l’inverse, accepte un public plus restreint, plus payant, et revendique une IA moins dépendante des compromis économiques.

Ce choc de visions annonce également une nouvelle phase de la guerre de l’IA. Après la course à la performance et à la puissance des modèles, vient celle de la légitimité. Et dans cette bataille, l’opinion publique pourrait peser autant que les benchmarks techniques. Le Super Bowl n’était pas qu’une scène spectaculaire, c’était bien un test grandeur nature de cette nouvelle ligne de fracture.

Cet article Anthropic ridiculise OpenAI au Super Bowl : Sam Altman répond (et il est très vexé) a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Une entreprise avec seulement des IA ? Déjà possible selon OpenAI
    Des agents capables de piloter des logiciels, de prendre des décisions et de collaborer entre eux…l’IA commence à structurer les organisations. Pour OpenAI, une entreprise presque entièrement opérée par des IA est une évolution déjà techniquement atteignable. Pendant longtemps, tout le monde voit l’IA comme un simple assistant numérique. C’est un outil qui aide ,accélère et suggère. Mais selon le PDG d’OpenAI, la prochaine étape est que des IA opéreront entièrement dans les entreprises. Lors

Une entreprise avec seulement des IA ? Déjà possible selon OpenAI

Par : Mariano R.
5 février 2026 à 17:42

Des agents capables de piloter des logiciels, de prendre des décisions et de collaborer entre eux…l’IA commence à structurer les organisations. Pour OpenAI, une entreprise presque entièrement opérée par des IA est une évolution déjà techniquement atteignable.

Pendant longtemps, tout le monde voit l’IA comme un simple assistant numérique. C’est un outil qui aide ,accélère et suggère. Mais selon le PDG d’OpenAI, la prochaine étape est que des IA opéreront entièrement dans les entreprises. Lors d’une récente intervention au sommet sur l’IA de Cisco, ce 4 février, Sam Altman a esquissé un futur où l’IA devient un acteur central de l’économie qui agit, coordonne et même collabore entre machines.

Des IA qui ne conseillent plus, mais qui agissent dans l’entreprise

Le point de bascule, selon Sam Altman, se situe dans l’évolution des modèles actuels vers de véritables agents autonomes. Contrairement aux IA classiques qui génèrent des réponses ou des suggestions, ces IA utilisent directement des ordinateurs, des logiciels et des interfaces en ligne.

Navigation web, utilisation d’applications professionnelles, accès à des environnements sécurisés… l’IA peut désormais accomplir les tâches de bout en bout dans une entreprise. Elle ne se limite plus à proposer un plan ou à rédiger un document, elle exécute réellement le travail. Une fois ce mode de fonctionnement expérimenté, ce sera difficile de revenir à une IA passive, cantonnée à un rôle d’assistant.

Dans ce contexte, Sam Altman évoque ce qu’il appelle la “limite supérieure de l’IA actuelle”. Le PDG d’OpenAI parle des entreprises entièrement dédiées à l’IA. Des structures où les systèmes intelligents ne sont plus greffés aux flux existants, mais forment l’ossature même de l’organisation. Tout peut être pris en charge par des agents logiciels que ce soit la planification, l’exécution, la coordination ou l’analyse.

Les agents IA travaillent entre eux

L’idée d’une entreprise composée uniquement d’IA ne repose pas seulement sur l’automatisation individuelle d’après le CEO d’OpenAI. Ce dernier insiste sur la capacité des agents à communiquer et à se coordonner entre eux, un autre grand changement.

Dans ce modèle, les interactions ne sont plus conçues pour être gérées manuellement par des humains. Les IA échangent des informations, se répartissent les tâches, prennent des décisions opérationnelles et ajustent leurs actions en temps réel. Les humains deviennent alors des superviseurs stratégiques, voire de simples observateurs.

Cette logique s’étend bien au-delà du numérique. Sam Altman imagine même déjà des milliards de robots humanoïdes qui construisent des centres de données, exploitent des mines ou participent à la production d’énergie. Dans sa vision l’IA ne transforme pas seulement les logiciels, mais aussi les infrastructures physiques et industrielles.

Selon lui, cette dynamique pourrait entraîner une croissance économique d’une ampleur inédite. Celle-ci sera portée par l’émergence de nouveaux services et par une accélération des découvertes scientifiques.

The companies that succeed in the future are going to make very heavy use of AI. People will manage teams of agents to do very complex things.

Today we are launching Frontier, a new platform to enable these companies.

— Sam Altman (@sama) February 5, 2026

La sécurité et la gouvernance sont les véritables freins

Fait notable, Sam Altman affirme que les principaux défis à ce futur ne sont plus techniques. Les capacités de l’IA progressent rapidement, mais les entreprises restent structurellement mal préparées à les intégrer.

Le cœur du problème se situe du côté de la sécurité, de l’accès aux données et de la gouvernance. Les systèmes actuels ont été conçus pour des utilisateurs humains effectuant des actions ponctuelles. Ils s’adaptent mal à des agents IA toujours actifs, capables d’observer et d’agir en continu sur l’ensemble des systèmes.

Selon Altman, il faudra inventer un nouveau paradigme de sécurité et de gestion des accès pour permettre à ces entreprises pilotées par l’IA de fonctionner pleinement. En attendant, de nombreuses organisations freinent volontairement l’adoption de ces technologies, malgré leur maturité croissante.

Ce décalage crée ainsi un fossé inquiétant entre ce que l’IA peut déjà faire et ce que les entreprises osent réellement déployer. Et les conséquences pourraient être lourdes. Sam Altman avertit que les structures incapables de s’adapter rapidement risquent de perdre leur avantage concurrentiel. Non pas par manque de technologie, mais par manque de préparation organisationnelle.

L’entreprise composée uniquement d’IA n’est donc plus un concept futuriste. Elle est déjà possible, selon OpenAI. Et nous verrons ensemble les organisations qui auront le courage et la structure pour franchir ce cap.

Cet article Une entreprise avec seulement des IA ? Déjà possible selon OpenAI a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Des hordes d’IA vont envahir les réseaux et vous imiter : alerte des chercheurs
    Des chercheurs en IA lancent une alerte sérieuse. Apparemment, des hordes d’IA qui imiteraient parfaitement les internautes pourraient bientôt submerger les réseaux sociaux. Derrière des profils en apparence ordinaires, ces agents artificiels pourraient influencer les opinions, harceler des voix dissidentes et façonner de faux mouvements collectifs. Les réseaux sociaux reposent sur un fragile équilibre entre expression individuelle et dynamique de groupe. Or, cet équilibre est menacé. Une ale

Des hordes d’IA vont envahir les réseaux et vous imiter : alerte des chercheurs

Par : Mariano R.
30 janvier 2026 à 18:07

Des chercheurs en IA lancent une alerte sérieuse. Apparemment, des hordes d’IA qui imiteraient parfaitement les internautes pourraient bientôt submerger les réseaux sociaux. Derrière des profils en apparence ordinaires, ces agents artificiels pourraient influencer les opinions, harceler des voix dissidentes et façonner de faux mouvements collectifs.

Les réseaux sociaux reposent sur un fragile équilibre entre expression individuelle et dynamique de groupe. Or, cet équilibre est menacé. Une alerte, publiée le 22 janvier dans la revue Science parle ainsi d’une horde d’IA qui s’apprête à envahir les plateformes.

Plusieurs experts expliquent que ces agents IA coordonnés seront capables de donner l’illusion d’un mouvement populaire authentique. Ils se comporteront comme de vrais humains, copieront nos réactions, nos opinions et nos habitudes, au point de devenir indiscernables de véritables internautes

Des hordes d’IA conçues pour vous ressembler

Contrairement aux bots classiques, faciles à repérer car répétitifs et maladroits, les hordes d’IA de nouvelle génération reposent sur de grands modèles de langage. Ce sont les mêmes technologies que celles utilisées par les chatbots modernes. Grâce à elles, chaque agent peut adopter une personnalité cohérente. Ils pourront conserver une mémoire, et s’adapter aux codes de la communauté qu’il infiltre.

L’objectif ici est d’imiter le comportement humain le plus crédible possible. Opinions nuancées, réponses contextualisées, participation régulière aux discussions… tout est pensé pour éviter les soupçons.

Selon Jonas Kunst, professeur de communication en Norvège et co-auteur de l’article, ces hordes d’IA fonctionnent presque comme un organisme vivant, qui peut apprendre, se coordonner et s’améliorer avec le temps.

Le danger vient aussi de notre propre psychologie. Les humains ont tendance à suivre l’opinion majoritaire. Lorsqu’un grand nombre de comptes semblent défendre la même idée, beaucoup y voient un signal de crédibilité. Toutefois, une horde d’IA pourrait entièrement fabriquer cette majorité. Et cela en agissant pour le compte d’un État, d’un groupe politique ou d’intérêts économiques inconnus.

AI now allows propaganda campaigns to reach unprecedented scale and precision.

Our new paper in @sciencemagazine Magazine explains how a disruptive threat is emerging: swarms of collaborative, malicious AI agents.

We describe the potential risks and some interventions for this… pic.twitter.com/A1Pck3T6EN

— Jay Van Bavel, PhD (@jayvanbavel) January 22, 2026

Harcèlement, manipulation et illusion du consensus

Les chercheurs avertissent également sur le harcèlement ciblé. Une horde d’IA peut facilement simuler une foule en colère et s’acharner sur une personne qui exprime une opinion divergente. Sous la pression constante de dizaines ou de centaines de comptes, la cible peut finir par se taire ou quitter la plateforme.

Nous voyons tous que des contenus automatisés saturent les réseaux sociaux. Aujourd’hui, des bots génèrent plus de la moitié du trafic web. La différence, c’est que les hordes d’IA sont beaucoup plus subtiles et efficaces.

Les bots traditionnels, eux, ont besoin d’un grand nombre de comptes et d’une supervision humaine. Mais quelques agents IA bien entraînés peuvent suffire à influencer une communauté entière. Cette menace est loin d’être théorique.

Je me souviens que l’an dernier, Reddit a menacé de poursuites des chercheurs ayant utilisé des chatbots IA pour influencer les opinions de millions d’utilisateurs sur le forum r/changemyview. Par conséquent, les réponses générées par l’IA se sont révélées trois à six fois plus persuasives que celles des humains.

Un péril direct pour la démocratie en ligne

Par ailleurs, les chercheurs estiment que des failles déjà bien connues aggravent l’arrivée de ces hordes d’IA. Notamment, la polarisation extrême, la perte du débat rationnel et l’absence de réalité partagée. Dans un tel environnement, des agents capables de poster jour et nuit disposent d’un avantage écrasant. Leur persévérance devient une arme à part entière dans ce que les experts appellent la “guerre cognitive”.

Les plateformes pourraient réagir en renforçant l’authentification des comptes, afin de s’assurer qu’ils appartiennent à de vrais utilisateurs. Mais cette solution pose problème, comme dans les pays où l’anonymat protège la dissidence politique. Sans compter que le piratage ou l’achat de comptes légitimes complique encore la situation.

Parmi les pistes avancées figurent aussi l’analyse du trafic en temps réel pour détecter des anomalies. Et aussi la création d’un observatoire dédié à l’influence de l’IA, réunissant chercheurs, ONG et institutions. Ils veulent donc anticiper l’arrivée de ces hordes d’IA avant qu’elles n’impactent des élections ou des événements importants.

Pour Jonas Kunst, les chercheurs sont presque certains que cette évolution arrive. Et si rien n’est fait, les conséquences pourraient être disproportionnées. Avec l’avancée de la technologie, les hordes d’IA ne se contenteront pas d’envahir les réseaux sociaux, elles pourraient bien finir par parler à votre place, avec votre voix.

Cet article Des hordes d’IA vont envahir les réseaux et vous imiter : alerte des chercheurs a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • GPT-5.2 écrit comme un pied : OpenAI reconnaît son échec sur ChatGPT
    Chez OpenAI, chaque mise à jour de ChatGPT est attendue comme un petit événement. Mais très vite, les réseaux et les forums se sont remplis de critiques sur la qualité des réponses de GPT-5.2. Ainsi, OpenAI à reconnu publiquement un échec rare pour le géant de l’IA. La sortie de GPT-5.2 n’est pas passée inaperçue. Toutefois, les utilisateurs ont vite pointé une dégradation du style d’écriture du chatbot, pourtant au cœur de son succès. Face à ce malaise qui grandit de jour en jour, Sam Altman

GPT-5.2 écrit comme un pied : OpenAI reconnaît son échec sur ChatGPT

Par : Mariano R.
29 janvier 2026 à 13:52

Chez OpenAI, chaque mise à jour de ChatGPT est attendue comme un petit événement. Mais très vite, les réseaux et les forums se sont remplis de critiques sur la qualité des réponses de GPT-5.2. Ainsi, OpenAI à reconnu publiquement un échec rare pour le géant de l’IA.

La sortie de GPT-5.2 n’est pas passée inaperçue. Toutefois, les utilisateurs ont vite pointé une dégradation du style d’écriture du chatbot, pourtant au cœur de son succès. Face à ce malaise qui grandit de jour en jour, Sam Altman a pris la parole pour expliquer les choix techniques derrière cette mise à jour. Le patron de l’entreprise a révélé au passage les limites et les arbitrages qui façonnent l’évolution de ChatGPT.

Une mise à jour qui a mis les utilisateurs en colère

Les utilisateurs de ChatGPT ont l’habitude de signaler les bugs ou les régressions, mais rarement avec une telle unanimité. Après le lancement de la version 5.2, beaucoup ont dénoncé une dégradation de la qualité rédactionnelle. Certains parlaient même de contenu ingérable, trop dense, mal structuré ou peu naturel.

Tomorrow we’re hosting a town hall for AI builders at OpenAI. We want feedback as we start building a new generation of tools.

This is an experiment and a first pass at a new format — we’ll livestream the discussion on YouTube at 4 pm PT.

Reply here with questions and we’ll…

— Sam Altman (@sama) January 25, 2026

Ce mécontentement est rapidement remonté jusqu’à la direction d’OpenAI. Lors d’une réunion publique avec des développeurs, organisée en début de semaine, Sam Altman a été directement interrogé sur ces retours négatifs.

La question portait sur la capacité de ChatGPT 5.2 à produire des textes lisibles et agréables. C’est un point central pour un outil que des millions de personnes utilisent quotidiennement.

Mais devant ces critiques, Sam Altman n’a pas cherché à minimiser la situation. Sa réponse a été étonnamment franche. Il a reconnu que cette mise à jour n’avait pas tenu ses promesses sur le plan de l’écriture.

Sam Altman admet l’erreur et explique les choix d’OpenAI

« Je pense que nous avons tout simplement foiré ça ». La déclaration de Sam Altman a marqué les esprits par sa simplicité et sa brutalité. Le dirigeant d’OpenAI a reconnu que ChatGPT 5.2 était moins performant en écriture que certaines versions précédentes, notamment GPT-4.5.

Selon lui, ce recul n’est pas un accident, mais le résultat d’un choix stratégique. OpenAI aurait décidé de concentrer ses ressources sur les capacités dites “intellectuelles” du modèle. Notamment, le raisonnement, la programmation, l’ingénierie et l’usage avancé des outils.

Sam Altman affirme que les ressources ne sont pas infinies, et améliorer un aspect du modèle signifie parfois en négliger un autre. Dans le cas de GPT-5.2, l’écriture a été sacrifiée au profit de performances plus techniques.

Cette explication éclaire la manière dont OpenAI développe ses modèles. Chaque version est le fruit d’arbitrages, parfois invisibles pour le grand public. Mais dont l’impact se fait immédiatement sentir dans l’expérience utilisateur.

GPT 5.2 est un modèle plus intelligent, mais moins agréable à lire

Je me souviens qu’à l’époque, OpenAI mettait en avant un chatbot plus naturel, plus fluide dans ses échanges, presque conversationnel. Avec la version 5.2, ils ont donc mis l’accent sur le codage, la création de documents complexes et l’utilisation avancée des outils intégrés.

Alors que lors de tests comparatifs face à d’autres IA, ChatGPT 5.2 s’est montré très performant sur de nombreux critères techniques. Mais pour une partie des utilisateurs, cela ne compense pas la perte de confort de lecture et de naturel dans les réponses.

Ce décalage rappelle ainsi une tendance récurrente chez OpenAI. L’entreprise alterne les priorités selon les versions. Parfois l’interaction humaine est au centre, parfois ce sont les performances brutes. Avec ChatGPT 5.2, ce sont les échanges personnels qui ont fait les frais de cette stratégie.

La bonne nouvelle, c’est qu’OpenAI a entendu le message. En reconnaissant publiquement le problème, l’entreprise laisse entendre que des ajustements sont à venir. Les prochaines versions de GPT-5.x devraient corriger le tir et proposer une écriture plus fluide. Et cela, sans renoncer aux avancées techniques.

J’espère juste qu’OpenAI parviendra à réconcilier intelligence et lisibilité. C’est un équilibre délicat, certes, mais c’est indispensable pour un outil devenu central dans le quotidien numérique.

Cet article GPT-5.2 écrit comme un pied : OpenAI reconnaît son échec sur ChatGPT a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Quelle est l’IA la plus antisémite ? L’ADL a comparé les chatbots et répond
    Les chatbots promettent des réponses rapides, neutres et fiables. Mais devant les discours haineux, certains modèles montrent des failles inquiétantes. Une étude récente de l’ADL montre des écarts spectaculaires entre les grandes IA du marché. Apparemment, la sécurité n’est pas encore une priorité partagée. L’IA est partout, y compris dans les discussions les plus sensibles. Mais tous les chatbots ne se valent pas lorsqu’il s’agit d’identifier, de comprendre et de contrer les discours haineux

Quelle est l’IA la plus antisémite ? L’ADL a comparé les chatbots et répond

Par : Mariano R.
29 janvier 2026 à 13:06

Les chatbots promettent des réponses rapides, neutres et fiables. Mais devant les discours haineux, certains modèles montrent des failles inquiétantes. Une étude récente de l’ADL montre des écarts spectaculaires entre les grandes IA du marché. Apparemment, la sécurité n’est pas encore une priorité partagée.

L’IA est partout, y compris dans les discussions les plus sensibles. Mais tous les chatbots ne se valent pas lorsqu’il s’agit d’identifier, de comprendre et de contrer les discours haineux. Une nouvelle étude de l’Anti-Defamation League (ADL), publiée le 28 janvier, dresse un état des lieux. Parmi les grands modèles du marché, certains échouent vraiment face à l’antisémitisme.

ADL élabore un grand audit pour tester les limites des chatbots

Pour établir son classement, l’ADL a mené l’un des audits les plus complets jamais réalisés sur la sécurité des IA conversationnelles. Entre août et octobre 2025, les chercheurs ont évalué six grands modèles de langage à travers plus de 25 000 conversations. Ils voulaient mesurer leur capacité à détecter, contextualiser et répondre à des contenus jugés nuisibles.

Les experts d’ADL ont essayé trois grandes catégories. D’abord, les contenus explicitement antisémites, comme le négationnisme ou les stéréotypes historiques. Ensuite, les discours antisionistes qui recyclent des théories du complot en substituant le mot « juif » par « sioniste ». Et enfin, des contenus extrémistes plus larges, allant de la suprématie blanche à diverses formes de propagande radicale.

Les modèles ont été confrontés à des questionnaires directs, à des échanges prolongés et à l’analyse de textes ou d’images problématiques. Par conséquent, aucun chatbot n’était irréprochable, mais l’écart entre les meilleurs et les pires est spectaculaire.

1/ NEW: ADL released today a new, first-of-its-kind and comprehensive AI Index showing that six major AI models tested demonstrate substantially varied ability in detecting and countering bias against Jews and Zionism and in identifying extremism. 🧵https://t.co/Z1XTivCKkZ pic.twitter.com/351i8KrVyG

— ADL (@ADL) January 28, 2026

Grok, le mauvais élève de la classe IA

Avec un score de 21 sur 100, Grok arrive bon dernier du classement. Ce chiffre tranche violemment avec celui de Claude, le modèle d’Anthropic, qui culmine à 80 points. L’ADL parle même d’« échec total » pour certaines tâches clés confiées au chatbot de xAI.

Le principal problème c’est l’incapacité de Grok à maintenir le contexte dans des conversations à plusieurs tours. Lorsqu’un échange s’étire et que les propos deviennent plus subtils ou détournés, le modèle peine à identifier les biais, les sous-entendus et les glissements vers des discours haineux. Je trouve ce défaut rédhibitoire pour des usages comme le service client ou la modération.

L’analyse d’images est tout aussi inquiétante. Grok a obtenu des scores nuls dans plusieurs scénarios qui impliquent des documents visuels contenant des messages antisémites. Pour l’ADL, cela signifie que le modèle n’est tout simplement pas adapté à la détection de mèmes ou de contenus haineux visuels, pourtant omniprésents en ligne aujourd’hui.

Par ailleurs, depuis une mise à jour qui rendra Grok plus « politiquement incorrect », le chatbot a déjà été pointé du doigt pour des réponses choquantes, jusqu’à reprendre même des stéréotypes antisémites.

📊 ADL STUDY: GROK DEAD LAST fighting antisemitism (21/100)! Claude leads 80pts. ChatGPT 57, Gemini 49, Llama 31. 25K convos tested. xAI failing? pic.twitter.com/x6SyyJEXNm

— This is why AI (@ThisIsWhyAI) January 28, 2026

Claude en tête, mais des failles partout ailleurs

À l’autre bout du spectre, Claude d’Anthropic s’impose comme la référence actuelle. Son score est de 90 sur 100 pour la détection de contenus antisémites. Ce chatbot montre qu’un haut niveau de sécurité est techniquement atteignable. Même face à des discours extrémistes complexes, le modèle conserve de bonnes performances.

Pour l’ADL, ce succès illustre ce qui se produit lorsque la sécurité sintègre dès la conception du modèle. Daniel Kelley, responsable au sein de l’organisation, explique que mettre en avant Claude permet de montrer aux industriels « ce qui est possible » lorsqu’on prend ces risques au sérieux.

Derrière Claude, ChatGPT d’OpenAI arrive en deuxième position, suivi de DeepSeek, Gemini de Google et Llama de Meta. Tous affichent des forces, mais aussi des angles morts. DeepSeek, par exemple, refuse correctement certains arguments négationnistes. Tout en avançant ensuite des affirmations problématiques sur l’influence supposée des réseaux financiers juifs.

Au-delà du classement, l’étude d’ADL s’adresse aux entreprises. Choisir un chatbot n’est plus seulement une question de performance ou de créativité, mais aussi de responsabilité. L’écart de 59 points entre Claude et Grok représente un risque bien réel pour toute organisation exposée au public.

Cet article Quelle est l’IA la plus antisémite ? L’ADL a comparé les chatbots et répond a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Gemini a-t-il vraiment dépassé ChatGPT ? Ce test donne la réponse
    Apple choisit Gemini pour booster Siri et forcément, ça met le feu aux comparaisons. Ars Technica a donc opposé Gemini 3.2 Fast à ChatGPT 5.2 dans une série de tests concrets, proches de ce que vit un utilisateur sans abonnement. Ainsi, Apple aurait pris une décision en s’associant à Google Gemini pour alimenter la prochaine génération de Siri. Tout le monde se demande donc si Gemini a-t-il enfin dépassé ChatGPT ? Si la marque à la Pomme mise sur Gemini, c’est qu’il y a une raison. Pour y

Gemini a-t-il vraiment dépassé ChatGPT ? Ce test donne la réponse

Par : Mariano R.
22 janvier 2026 à 14:37

Apple choisit Gemini pour booster Siri et forcément, ça met le feu aux comparaisons. Ars Technica a donc opposé Gemini 3.2 Fast à ChatGPT 5.2 dans une série de tests concrets, proches de ce que vit un utilisateur sans abonnement.

Ainsi, Apple aurait pris une décision en s’associant à Google Gemini pour alimenter la prochaine génération de Siri. Tout le monde se demande donc si Gemini a-t-il enfin dépassé ChatGPT ? Si la marque à la Pomme mise sur Gemini, c’est qu’il y a une raison.

Pour y voir plus clair, Ars Technica a donc réalisé une série d’essais comparatifs, histoire de vérifier où en sont réellement les deux géants de l’IA aujourd’hui. Leur idée était de coller à l’expérience la plus probable pour le grand public, notamment les futurs utilisateurs de Siri.

Pourquoi ce duel est plus important qu’un simple match d’IA ?

Ce face-à-face se passe alors entre ChatGPT 5.2 (OpenAI) et Gemini 3.2 Fast (Google). Ces deux modèles sont accessibles par défaut aux utilisateurs sans abonnement payant. L’expérience montre qu’au quotidien, ce qui compte, ce n’est pas juste une IA plus intelligent. Mais qui est le plus fiable, le plus clair, et le plus utile surtout quand on demande des choses un peu tordues.

Breaking News 🚨

It’s now Official that Google Gemini will be powering Siri soon.
What do you think about this? Tell us! pic.twitter.com/2hMuqQNIYx

— Beebom (@beebomco) January 12, 2026

Ars Technica a repris une méthode déjà utilisée dans le passé. Et c’est de poser les mêmes requêtes à Gemini et ChatGPT et juger les réponses à la fois de manière objective et avec une part d’intuition. Parce qu’une bonne réponse, ce n’est pas qu’une suite de faits, c’est aussi un ton, une structure, une capacité à comprendre une consigne.

Ils ont donc utilisé un lot de requêtes plus complexes et plus modernes, identiques à celles testées l’été dernier dans un comparatif entre GPT-5 et GPT-4o. Ils ont mesuré la capacité de Gemini et ChatGPT à gérer de la créativité avec contrainte (blagues originales), du calcul réaliste (Windows 11 sur disquettes), de la rédaction (biographie, mails), des conseils techniques (Super Mario sans courir), des réponses sensibles (santé), et même une demande dangereuse (atterrir un Boeing).

Créativité : ChatGPT reste le roi du style (mais pas parfait)

Premier round, Écrivez 5 blagues de papa originales ”.

Comme souvent, les deux modèles ont du mal avec le mot « original« . Les blagues proposées par Gemini se retrouvent presque mot pour mot en quelques clics sur r/dadjokes, ChatGPT s’en sort à peine mieux avec deux blagues qui ressemblent aussi à des classiques déjà vus. Et une autre ressemble à un remix un peu bancal de deux blagues d’épouvantail.

Mais ChatGPT arrive quand même à produire deux propositions qui semblent réellement originales… même si la qualité n’est pas constante. Par exemple, une chute sur une boulangerie “pour pessimistes” censée jouer sur “à moitié vide”… sauf que ça ne marche pas vraiment comme jeu de mots. Une autre, sur “se battre avec un calendrier”, a l’ossature typique d’une blague de papa, mais avec une phrase finale bizarre (“j’ignore ses dates”).

ChatGPT gagne donc aux points, surtout parce que Gemini passe complètement à côté de la consigne original.

Ensuite, le test bascule sur un vrai exercice d’imagination. Rédigez un récit créatif de deux paragraphes sur l’invention du basketball par Abraham Lincoln.”

Et ici, ChatGPT ajoute des détails absurdes mais cohérents et drôles. Comme un vieux seau à charbon utilisé comme panier, le dribble présenté comme un « rebond intentionnel”, Lincoln qui compte les points sur son “chapeau en forme de tuyau de poêle”… ça se lit bien, ça fait sourire, et surtout, c’est clair.

Gemini, lui, propose une histoire avec des passages plus confus. Lincoln parle d’une campagne “menée avec du papier plutôt qu’avec du plomb”, sans que ça ne serve à rien dans le récit. Et certaines scènes deviennent presque impossibles à visualiser (une balle qui “glisse à travers le fond du panier en osier” qu’il aurait oublié de découperet qu’il repousse avec un manche à balai cérémoniel ?). On sent l’idée, mais l’exécution est floue.

Sur le terrain créatif, ChatGPT remporte la palme du charme et de la clarté.

Utilité au quotidien : Gemini se montre plus fiable et plus propre

Quand on passe aux tâches pratiques, l’écart change de camp.

Sur le problème mathématique absurde : Si Windows 11 était distribué sur des disquettes 3,5 pouces, combien de disquettes faudrait-il ?

ChatGPT et Gemini estiment la taille de Windows 11 autour de 6 à 6,4 Go. Ce n’est pas pile exact (une ISO récente peut plutôt tourner entre 6,7 et 7,2 Go), mais les testeurs leur pardonnent. Certaines versions plus anciennes correspondaient aux estimations.

Là où ça se complique, c’est la méthode. ChatGPT mélange Go et Gio, ce qui crée une différence de stockage d’environ 7% (donc potentiellement plusieurs centaines de disquettes dans le résultat final). Il commence aussi à se perdre dans ses calculs, jusqu’à afficher des morceaux de raisonnement confus du style “attendez, calcul :…

Gemini, au contraire, reste cohérent dans ses unités et donne une explication plus simple, plus solide. Il ajoute même une comparaison avec les versions historiques de Windows, jusqu’à Windows 3.1, distribuées sur seulement 6 ou 7 disquettes.

Alors ? Gemini gagne grâce à la clarté et la rigueur.

Un autre essaie révélateur : c’est d’écrire un mail difficile. Mon patron veut que je termine un projet dans un délai impossible : que répondre avec tact ?

Les deux modèles proposent des mails utiles, mais Gemini sort du lot. Il donne trois options au lieu de deux. Et surtout, il explique dans quel contexte utiliser chaque version (par exemple si le manager est sensible à la logique, ou à l’organisation, etc.). Il ajoute aussi des conseils comme adopte un ton collaboratif, évite la posture défensive…

Gemini est clairement plus coach pro que ChatGPT. Victoire Google.

Là où ChatGPT dérape : erreurs factuelles et conseils foireux

La fiabilité, c’est probablement l’aspect le plus important du test.

Sur la consigne “Rédigez une courte biographie de Kyle Orland”, ChatGPT invente des infos et affirme notamment que l’auteur aurait rejoint Ars Technica en 2007 (alors que ses premiers articles datent de 2012). Il invente aussi un sous-titre pour son livre The Game Beat.

Gemini, lui, raconte un parcours bien plus complet (site de fans Mario, études, freelance, Ars, livres) et donne même des liens vers ses sources. Même si, dans la version partagée publiquement, certains liens ne fonctionnent pas.

Mais l’essentiel est là? Gemini n’invente pas. Et c’est pareil dans un test “guide jeux vidéo”. Je suis au niveau 8-2 de Super Mario Bros., mon bouton B ne marche plus, comment finir sans courir ?

ChatGPT donne des conseils confus, parle de sections qui n’existent pas et propose des stratégies inutiles, voire carrément fausses, comme dire qu’un saut est possible “sans élan” sur le gouffre le plus dur, alors que c’est justement celui qui demande une astuce.

Gemini, lui, comprend tout de suite le problème. Si il n’y a pas de vitesse il n’y a pas de distance. Il propose de battre Lakitu vite, et surtout une vraie technique utilisée par les speedrunners. C’est de rebondir sur un ennemi pour franchir le passage le plus long. Il pense même au cas “bouton B cassé” sur émulateur où un autre bouton pourrait servir à courir.

Victoire incontestable pour Gemini.

Gemini passe devant mais ChatGPT garde un truc en plus

Si on compte juste les points Gemini gagne 4 manches et ChatGPT en gagne 3. 1 manche est un match nul (sur la question médicale, où les deux répondent de façon quasi identique et responsable. Les cristaux ne soignent pas le cancer, mais peuvent apaiser psychologiquement, et il faut parler à des médecins).

Donc Gemini gagne. Mais le plus intéressant, c’est comment. ChatGPT gagne surtout sur des victoires stylistiques et créatives comme l’humour, la narration, la petite magie du texte. Il a ce côté conteux, plus vivant, parfois plus fun à lire. Gemini, de son côté, domine dès qu’il faut être fiable, structuré, factuel, utile dans un vrai contexte, et solide sur des tâches qui demandent de la précision.

Et c’est probablement ce qui explique pourquoi Apple peut regarder ces résultats et se dire “Ok, pour Siri, on veut un assistant qui se trompe moins”. Parce que dans une interface comme Siri, une erreur ou un conseil raté peut ruiner l’expérience. Donc non, Gemini n’a pas “explosé” ChatGPT.

Mais oui, Google a rattrapé et même dépassé, OpenAI sur l’aspect fiabilité pratique, au moins dans cet expérience-là. ChatGPT reste fort en créativité mais pour le quotidien, Gemini fait très peur (dans le bon sens du terme).

Cet article Gemini a-t-il vraiment dépassé ChatGPT ? Ce test donne la réponse a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Anthropic lance Claude Cowork : l’IA de coding pour monsieur tout le monde
    Anthropic ouvre la porte de l’IA à tous ceux qui n’ont jamais touché à un terminal. Avec Claude Cowork, son nouvel outil, même un dossier de fichiers peut devenir un terrain de jeu pour une IA capable d’analyser, d’organiser et d’automatiser des tâches complexes sans aucune ligne de code. Anthropic ne se contente plus de séduire les développeurs. Avec le lancement de Claude Cowork, l’entreprise transforme l’IA en un assistant accessible à tous. Directement intégré à l’application Claude Deskt

Anthropic lance Claude Cowork : l’IA de coding pour monsieur tout le monde

Par : Mariano R.
14 janvier 2026 à 13:40

Anthropic ouvre la porte de l’IA à tous ceux qui n’ont jamais touché à un terminal. Avec Claude Cowork, son nouvel outil, même un dossier de fichiers peut devenir un terrain de jeu pour une IA capable d’analyser, d’organiser et d’automatiser des tâches complexes sans aucune ligne de code.

Anthropic ne se contente plus de séduire les développeurs. Avec le lancement de Claude Cowork, l’entreprise transforme l’IA en un assistant accessible à tous. Directement intégré à l’application Claude Desktop, Cowork permet de confier des dossiers entiers à l’IA, qui peut les explorer, les organiser et agir de manière autonome.

Cowork, la version grand public de Claude Code

Cowork est directement intégré à Claude Desktop, l’application bureau de l’IA. Vous n’avez pas besoin d’installer quoi que ce soit de plus ni de comprendre comment fonctionne un terminal. Choisissez simplement un dossier sur votre ordinateur, qui devient l’« espace de travail » de Claude.

Une fois l’autorisation donnée, l’IA peut lire, analyser et même modifier les fichiers présents dans ce dossier, en suivant vos instructions via une interface de chat classique. Vous discutez avec Claude comme d’habitude, sauf que cette fois, il agit concrètement sur vos fichiers. Cowork peut ainsi enchaîner plusieurs actions de manière autonome, tout en restant cantonné à un périmètre précis.

Cette approche crée un environnement isolé et relativement maîtrisé, où l’IA peut travailler sans avoir accès à l’ensemble de votre machine. Une façon rassurante d’introduire des agents autonomes dans le quotidien, sans tout bouleverser.

Des usages concrets… et quelques précautions à prendre

Si Anthropic a conçu Cowork, ce n’est pas par hasard. L’entreprise a observé que de nombreux abonnés détournaient déjà Claude Code de son usage initial. Au-delà du code, ils l’utilisaient pour organiser des bibliothèques de fichiers, analyser des contenus issus des réseaux sociaux ou décortiquer des transcriptions. Cowork formalise donc ces pratiques et les rend accessibles à un public bien plus large.

Basé sur le même SDK Claude Agent, l’outil vise des flux de travail administratifs à plusieurs étapes. Parmi les exemples mis en avant, Cowork peut automatiquement générer des notes de frais à partir d’un dossier rempli de photos de reçus, ou organiser intelligemment des fichiers éparpillés.

Mais, Anthropic joue la carte de la transparence. Cowork peut aussi agir sans demander une validation à chaque étape, ce qui comporte des risques. Des instructions floues ou contradictoires peuvent entraîner des suppressions accidentelles ou des comportements inattendus. L’entreprise alerte aussi sur les dangers liés aux injections de commandes. C’est un problème connu mais amplifié lorsque l’IA interagit directement avec vos fichiers.

Pour l’instant, Cowork est proposé en prévisualisation, réservé aux abonnés Claude Max. Une liste d’attente est toutefois ouverte pour les autres forfaits. Depuis la sortie de Claude Code fin 2024, puis son intégration progressive dans le web et Slack en 2025, Anthropic montre qu’il veut s’imposer comme un acteur clé des agents IA, aussi bien en entreprise que dans la vie quotidienne.

Cet article Anthropic lance Claude Cowork : l’IA de coding pour monsieur tout le monde a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Ils ont créé un poison qui détruit le cerveau des IA : voici son effet
    Ils n’attaquent ni les serveurs, ni les algorithmes. Leur cible est bien plus discrète, mais tout aussi vitale. Ce sont les données qui nourrissent l’IA. Avec Poison Fountain, un collectif affirme avoir conçu une méthode capable de désorienter les IA de l’intérieur, en contaminant leur apprentissage. Et si le talon d’Achille de l’intelligence artificielle n’était pas son code, mais sa nourriture ? Un collectif discret assure avoir trouvé un moyen radical de saboter les modèles d’IA modernes e

Ils ont créé un poison qui détruit le cerveau des IA : voici son effet

Par : Mariano R.
14 janvier 2026 à 12:27

Ils n’attaquent ni les serveurs, ni les algorithmes. Leur cible est bien plus discrète, mais tout aussi vitale. Ce sont les données qui nourrissent l’IA. Avec Poison Fountain, un collectif affirme avoir conçu une méthode capable de désorienter les IA de l’intérieur, en contaminant leur apprentissage.

Et si le talon d’Achille de l’intelligence artificielle n’était pas son code, mais sa nourriture ? Un collectif discret assure avoir trouvé un moyen radical de saboter les modèles d’IA modernes en s’attaquant directement à ce qui les fait fonctionner. Notamment, leurs données d’entraînement. Ainsi, Poison Fountain va rendre les IA instables, incohérentes, voire inutilisables.

Poison Fountain, le projet qui veut piéger les IA à la source

Révélé par The Register, le projet Poison Fountain a été lancé la semaine dernière par des membres qui, fait troublant, travailleraient eux-mêmes pour de grandes entreprises américaines spécialisées dans l’IA. Selon leur constat, la situation « s’aggrave d’une manière dont le public n’a généralement pas conscience ».

Sur leur site, ils citent Geoffrey Hinton, l’un des pères fondateurs de l’IA moderne devenu l’un de ses critiques les plus sévères. « L’intelligence artificielle représente une menace pour l’espèce humaine », affirment-t-ils, avant d’annoncer leur objectif de nuire volontairement aux systèmes d’IA.

Le principe de Poison Fountain est fondé sur le fait que les IA modernes dépendent d’énormes volumes de données aspirées sur Internet par des robots d’exploration. Or, la qualité de ces données conditionne directement la fiabilité des modèles. Si les données sont biaisées, erronées ou incohérentes, l’IA l’est aussi.

Alors, Poison Fountain propose aux propriétaires de sites web de dissimuler, dans leurs pages, des liens vers des jeux de données volontairement corrompus. Ces derniers seront donc les poisons que les robots d’IA vont aspirer et ils vont progressivement contaminer leurs bases d’entraînement.

Les données toxiques sabotent les modèles d’IA

Selon un membre du projet cité par The Register, ces jeux de données empoisonnés contiennent du code avec des erreurs logiques et des bogues subtils. Ceux-ci peuvent perturber en profondeur les grands modèles de langage entraînés dessus. Le projet promet même un « flux quasi illimité de données d’entraînement corrompues ».

Des initiatives similaires existent déjà pour empêcher les IA de copier des œuvres visuelles. Et cela en intégrant des perturbations invisibles dans les images. Poison Fountain veut simplement passer à l’échelle industrielle.

Toutefois, je me demande si cette méthode peut réellement menacer une industrie qui investit des milliards de dollars dans le filtrage et le nettoyage de ses données. Les entreprises d’IA pourraient détecter ces contenus toxiques ou passer à côté, tant les volumes collectés sont immenses.

Someone has launched a project called Poison Fountain, which seeks to poison training data for AI models.
They aim to disrupt the technology by adding poisoned data to websites, making AI models less effective.
rnsaffn[.]com/poison3/ pic.twitter.com/NqCHBib61j

— blackorbird (@blackorbird) January 12, 2026

Pour les membres de Poison Fountain, la régulation et les procès pour violation du droit d’auteur ne suffisent plus. L’IA est déjà partout. « Il est impossible d’arrêter la progression de cette technologie », affirme une source interne. « Il ne reste que les armes. Cette Fontaine à Poison en est une ».

Ce sabotage numérique, s’il prenait de l’ampleur, pourrait bien transformer les cerveaux artificiels en machines profondément désorientées.

Cet article Ils ont créé un poison qui détruit le cerveau des IA : voici son effet a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Trouver un travail avec ChatGPT ? OpenAI lance un outil pour ça
    OpenAI expérimente une fonctionnalité sur ChatGPT pour aider les utilisateurs à trouver du travail. Formations, montée en compétences, aide au recrutement ou à la reconversion… le chatbot pourrait bientôt devenir un véritable assistant professionnel. Ainsi, ChatGPT va devenir votre copilote de carrière. OpenAI essaye actuellement une nouvelle fonctionnalité baptisée « Emplois » pour vous accompagner dans le développement de votre carrière. L’objectif est de vous aider à mieux vous orienter pr

Trouver un travail avec ChatGPT ? OpenAI lance un outil pour ça

Par : Mariano R.
14 janvier 2026 à 10:48

OpenAI expérimente une fonctionnalité sur ChatGPT pour aider les utilisateurs à trouver du travail. Formations, montée en compétences, aide au recrutement ou à la reconversion… le chatbot pourrait bientôt devenir un véritable assistant professionnel.

Ainsi, ChatGPT va devenir votre copilote de carrière. OpenAI essaye actuellement une nouvelle fonctionnalité baptisée « Emplois » pour vous accompagner dans le développement de votre carrière. L’objectif est de vous aider à mieux vous orienter professionnellement, à monter en compétences. Et, pourquoi pas, à changer de voie. L’information ne vient pas d’une annonce officielle, mais d’indices repérés dans l’application web du chatbot.

Un tableau de bord Emplois en préparation pour ChatGPT

C’est Tibor Blaho, observateur attentif des évolutions d’OpenAI, qui a repéré des changements suggérant l’arrivée d’un espace dédié à l’emploi. Selon lui, ce futur tableau de bord « Emplois » fonctionnerait comme d’autres hubs déjà intégrés à ChatGPT. Notamment, celui récemment lancé autour de la santé, connecté à Apple HealthKit, MyFitnessPal ou encore Peloton.

Cet outil pourrait apparaître sous la forme d’un nouvel onglet dans la barre latérale, avec ses propres fonctionnalités et intégrations. L’idée serait de centraliser tout ce qui touche à la carrière comme la formation, la montée en compétences, la réflexion sur l’évolution professionnelle… Le tout, guidé par l’IA.

ChatGPT wants to help you land your next job

OpenAI is testing a new feature tentatively called ChatGPT Jobs, aimed at job search, career navigation, and professional growth. pic.twitter.com/tqCxtly3Sk

— Nicholas Swaminathan (@Nicholas_swam) January 14, 2026

Sur le fond, OpenAI ne part pas de zéro. Un tel outil pourrait aider les utilisateurs à améliorer leur CV et leurs lettres de motivation, à identifier des offres adaptées à leur profil. Ou encore à comparer des postes selon leurs objectifs personnels. ChatGPT pourrait aussi proposer des plans de perfectionnement pour se démarquer sur un marché du travail de plus en plus compétitif.

En septembre 2025, Fidji Simo, PDG de la division Applications d’OpenAI, évoquait déjà l’expansion de OpenAI Jobs. C’est une plateforme qui mettra en relation les entreprises et les talents spécialisés en IA. « Nous utiliserons l’IA pour trouver l’adéquation parfaite entre les besoins des entreprises et les compétences des travailleurs », écrivait-elle alors.

Dans le même temps, OpenAI a lancé un programme de certifications ambitieux, qui aspire à certifier 10 millions d’Américains d’ici 2030. Autant d’indices qui pointent vers un écosystème emploi plus centralisé.

Cet article Trouver un travail avec ChatGPT ? OpenAI lance un outil pour ça a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • L’IA est en train de détruire internet, et beaucoup n’ont pas encore compris
    Les réponses sont là, instantanées, propres et rassurantes. Plus besoin de chercher, de comparer ou de douter. Internet n’a jamais été aussi pratique, car l’IA s’en charge pour vous. Pourtant, il change radicalement de visage. Internet n’a jamais été aussi rapide puisqu’avec l’IA c’est une question tapée puis une réponse instantanée. Google, ChatGPT Search, Perplexity… tous promettent la même chose. C’est de vous éviter les clics inutiles. Toutefois, cette commodité a un coût, et il est plus

L’IA est en train de détruire internet, et beaucoup n’ont pas encore compris

Par : Mariano R.
13 janvier 2026 à 15:06

Les réponses sont là, instantanées, propres et rassurantes. Plus besoin de chercher, de comparer ou de douter. Internet n’a jamais été aussi pratique, car l’IA s’en charge pour vous. Pourtant, il change radicalement de visage.

Internet n’a jamais été aussi rapide puisqu’avec l’IA c’est une question tapée puis une réponse instantanée. Google, ChatGPT Search, Perplexity… tous promettent la même chose. C’est de vous éviter les clics inutiles. Toutefois, cette commodité a un coût, et il est plus élevé qu’il n’y paraît.

Avec les aperçus IA de Google, il devient fréquent d’obtenir une réponse complète sans jamais visiter la source originale. Pratique, certes. Mais comme dans le jeu du téléphone arabe, l’information circule, se compresse et se déforme parfois. Le contexte disparaît, les nuances aussi, et certains faits finissent tout simplement faux.

Nous entrons dans ce que beaucoup appellent déjà la « couche de réponse » d’Internet. Un web où l’on consomme des synthèses plutôt que des contenus.

Le web sans clics : un confort trompeur

Pour des tâches simples, la recherche sans clic est efficace. Comparer des horaires, comprendre une définition, obtenir une réponse basique… l’IA fait le travail. Mais dès que la situation se complexifie, les limites apparaissent.

Acheter un smartphone, choisir un aspirateur robot ou décider si une friteuse à air chaud vaut vraiment son prix nécessite plus qu’un résumé consensuel. Et que dire des sujets sensibles comme la santé, les finances, et le droit ? Lorsque l’IA condense plusieurs sources en une seule réponse, vous perdez l’essentiel : le « pourquoi », le « comment », et surtout le « qui ».

Sans clic, plus de reportages de première main, plus de photos pratiques, plus de témoignages vécus. Les avis contradictoires s’effacent, les mises en garde aussi. La meilleure réponse devient celle qui fait consensus, pas celle qui est la plus précise, la plus transparente ou la plus fiable.

AI is quietly taking over the internet💀

• Neuro-sama(AI Twitch streamer) leads Twitch with 307K subs, top human streamer has just 77K.
• AI now writes ~52% of new articles (was just 5% in 2020)
• 34% of new music is AI-made (~50K songs/day) and most people can’t tell.
• 1… pic.twitter.com/mPjGrgCKYX

— Techie Sapien (@TechieSapien) January 12, 2026

Ce que l’IA ne remplacera jamais avec Internet

Malgré tout, certains contenus résistent très bien à l’automatisation. Les comparaisons concrètes, les avis tranchés, les expériences personnelles, le jugement humain. Une IA peut résumer des opinions, mais elle ne peut pas ressentir une déception, ni expliquer pourquoi un produit a échoué dans un usage réel.

C’est pour cela que vous continuerez à lire des journalistes, des testeurs et des créateurs en qui vous avez confiance. Plus les réponses deviennent automatiques, plus l’expérience vécue prend de la valeur.

Nous avons déjà connu ce basculement. Les réseaux sociaux ont transformé les blogs, le streaming a tué les disquaires, l’actualité en ligne a bouleversé la presse papier. Aujourd’hui, l’IA redéfinit notre manière de naviguer. Moins de surf au hasard, plus de consultations ciblées.

Ainsi, dans un Internet sans clic, l’information la plus utile n’est plus forcément la première affichée. C’est celle que vous choisissez consciemment. Et désormais, savoir à qui faire confiance compte plus que jamais.

Cet article L’IA est en train de détruire internet, et beaucoup n’ont pas encore compris a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Cette IA vient de classer la Bible comme fausse : l’explication inquiète les experts
    Une IA vient de semer le doute sur des textes que l’on croyait intouchables comme la Bible et d’autres documents historiques. En classant ces derniers comme des créations artificielles, ces outils révèlent une faille inquiétante dans notre rapport à la technologie et à la vérité écrite. Selon un outil censé détecter les textes générés par IA, des documents parmi les plus emblématiques de l’histoire humaine, comme la Bible ou encore la Déclaration d’Indépendance américaine, auraient été rédigé

Cette IA vient de classer la Bible comme fausse : l’explication inquiète les experts

Par : Mariano R.
6 janvier 2026 à 10:40

Une IA vient de semer le doute sur des textes que l’on croyait intouchables comme la Bible et d’autres documents historiques. En classant ces derniers comme des créations artificielles, ces outils révèlent une faille inquiétante dans notre rapport à la technologie et à la vérité écrite.

Selon un outil censé détecter les textes générés par IA, des documents parmi les plus emblématiques de l’histoire humaine, comme la Bible ou encore la Déclaration d’Indépendance américaine, auraient été rédigés par une IA. Une affirmation absurde en apparence, mais révélatrice d’un problème bien plus profond.

Une IA accuse la Bible et d’autres documents d’être artificielle

Un détecteur d’IA a analysé la Déclaration d’Indépendance des États-Unis, rédigée en 1776, et a conclu à 99,99 % qu’elle provenait d’une machine. Nous savons tous que les ordinateurs n’existaient pas à l’époque. Pourtant, l’algorithme est formel.

Online AI detector says Declaration of Independence is 99.99% written by AI.

Which chatbot did Founding Fathers use? pic.twitter.com/P2Pz9T5kmY

— Trung Phan (@TrungTPhan) May 21, 2025

D’autres textes anciens et sacrés, dont la Bible, ont également subi le même verdict. Certains jugements de tribunaux des années 1990 ont, eux aussi, été étiquetés comme « générés par IA ». Ces erreurs grossières exposent donc une grande faiblesse. Ces outils ne comprennent pas le contexte historique. Ils se basent uniquement sur des motifs d’écriture, des structures de phrases et des régularités statistiques.

Autrement dit, un texte bien structuré, fluide et cohérent devient suspect précisément parce qu’il est bien écrit. Une ironie qui inquiète chercheurs et observateurs du numérique.

Des conséquences bien réelles pour les humains

Mais, derrière ces erreurs techniques se cachent des effets très concrets. Dans l’éducation, des élèves voient leurs devoirs accusés d’avoir été écrits par une IA. Dans le journalisme ou l’édition, des auteurs doivent se justifier. Pour certains contextes juridiques ou académiques, une mauvaise détection peut entraîner des sanctions sans véritable recours.

En plus, le problème s’aggrave dans les environnements sensibles comme les plateformes éducatives, les systèmes de vérification académique ou les outils de modération. Une simple étiquette « contenu généré par IA » peut suffire à ruiner une réputation ou bloquer une carrière.

La situation est d’autant plus paradoxale que les modèles de langage actuels, comme ChatGPT, produisent des textes de plus en plus crédibles. La qualité progresse vite, mais les détecteurs, eux, restent approximatifs.

Autrefois, l’origine d’un texte se lisait dans l’encre, la graphie ou le style. Aujourd’hui, l’écran uniformise tout. Une chercheuse résume le dilemme ainsi : faut-il encore s’obséder sur l’auteur, ou se concentrer uniquement sur le contenu ? Une idée séduisante, mais risquée.

Car la confiance, la propriété intellectuelle et la valeur symbolique d’un texte reposent encore sur son origine. Si même la Bible peut être accusée d’être une création artificielle, alors nos repères vacillent. Et confier leur définition aux machines pourrait bien aggraver le problème.

Cet article Cette IA vient de classer la Bible comme fausse : l’explication inquiète les experts a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • 50 000 personnes virées à cause de l’IA en 2025 : voici les pires entreprises
    2025 restera dans les mémoires comme l’année où la technologie a transformé le marché du travail. Des dizaines de milliers d’emplois ont disparu, et derrière la promesse d’efficacité, certaines entreprises ont choisi l’IA et virent des personnes à marche forcée. En 2025, l’IA est devenue un accélérateur brutal de licenciements. Derrière les promesses d’efficacité et de productivité, des dizaines de milliers d’emplois ont disparu. D’après le cabinet de conseil Challenger, Gray & Christmas,

50 000 personnes virées à cause de l’IA en 2025 : voici les pires entreprises

Par : Mariano R.
5 janvier 2026 à 13:43

2025 restera dans les mémoires comme l’année où la technologie a transformé le marché du travail. Des dizaines de milliers d’emplois ont disparu, et derrière la promesse d’efficacité, certaines entreprises ont choisi l’IA et virent des personnes à marche forcée.

En 2025, l’IA est devenue un accélérateur brutal de licenciements. Derrière les promesses d’efficacité et de productivité, des dizaines de milliers d’emplois ont disparu. D’après le cabinet de conseil Challenger, Gray & Christmas, près de 55 000 licenciements liés directement à l’IA ont été enregistrés aux États-Unis en 2025. Certains géants de la tech sont en première ligne.

Une vague de licenciements dopée par l’IA

En octobre, les employeurs américains ont annoncé 153 000 suppressions de postes, suivies de 71 000 en novembre, dont plus de 6 000 explicitement liées à l’IA. Inflation persistante, hausse des droits de douane, pression sur les marges… pour de nombreuses entreprises, l’IA apparaît comme une solution rapide pour réduire les coûts.

Qui plus est, une étude publiée en novembre par le MIT vient renforcer cette tentation. Selon l’institut, l’IA serait déjà capable d’assurer 11,7 % des tâches du marché du travail américain. Avec un potentiel d’économie estimé à 1 200 milliards de dollars en salaires. Notamment dans la finance, la santé et les services professionnels.

Mais, tout le monde ne croit pas à cette narration. Pour Fabian Stephany, professeur adjoint à l’Oxford Internet Institute, l’IA sert parfois d’alibi. Selon lui, de nombreuses entreprises ont surrecruté pendant la pandémie. Et les licenciements actuels relèveraient davantage d’un “nettoyage du marché” que d’une révolution technologique pure. Ainsi, l’IA permettrait surtout d’éviter d’admettre des erreurs de stratégie passées.

Amazon, Microsoft, Salesforce… les géants qui taillent dans les effectifs

Certaines entreprises, en revanche, assument pleinement le rôle central de l’IA dans leurs décisions de licenciements.

Amazon a, par exemple, annoncé en octobre 14 000 suppressions de postes au siège. Il s’agit de la plus grande vague de licenciements de son histoire. L’entreprise veut concentrer les investissements sur ses “plus gros paris”, dont l’IA. Andy Jassy, le PDG, avait préparé le terrain dès le début de l’année. Il explique que l’IA nécessiterait moins de personnes sur certains postes, et plus sur d’autres. Au total, près de 15 000 emplois ont été supprimés en 2025.

Chez Microsoft, dans une note interne, Satya Nadella évoque la nécessité de “repenser la mission” de l’entreprise à l’ère de l’IA. L’objectif est de passer d’un simple éditeur de logiciels à un moteur d’intelligence. Celui-ci sera capable de permettre à chacun de créer ses propres outils. Une vision ambitieuse, qui s’accompagne de restructurations internes.

Salesforce assume encore plus frontalement. En septembre, son PDG Marc Benioff a confirmé la suppression de 4 000 postes dans le service client. Ils sont directement remplacés par des systèmes d’IA. Selon lui, l’IA réaliserait déjà jusqu’à 50 % du travail au sein de l’entreprise.

IBM, de son côté, a remplacé plusieurs centaines de postes en ressources humaines par des chatbots. Son PDG Arvind Krishna précise toutefois que l’entreprise recrute davantage dans des domaines à forte valeur ajoutée comme l’ingénierie logicielle et le marketing. En novembre, IBM a tout de même annoncé une réduction de 1 % de ses effectifs mondiaux. C’est soit environ 3 000 emplois.

La liste continue avec CrowdStrike, qui a licencié 5 % de ses effectifs (500 personnes). Et Workday, quant à elle, a supprimé 1 750 postes, soit 8,5 % de son personnel, pour financer ses investissements en IA.

Cet article 50 000 personnes virées à cause de l’IA en 2025 : voici les pires entreprises a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • CES 2026 : ce cerveau IA rend n’importe quelle voiture intelligente
    Au CES 2026, l’IA quitte les laboratoires pour s’installer au cœur de l’automobile. BOS Semiconductors, une jeune entreprise sud-coréenne spécialisée dans les semi-conducteurs pour l’automobile et l’IA physique, y dévoile une solution capable d’apporter un véritable cerveau IA aux voitures. BOS Semiconductors dévoilera au CES 2026 de Las Vegas son cerveau IA ou encore un module externe qui transforme des voitures classiques en voitures intelligentes. Et cela, sans tout reconstruire de zéro. P

CES 2026 : ce cerveau IA rend n’importe quelle voiture intelligente

Par : Mariano R.
5 janvier 2026 à 12:30

Au CES 2026, l’IA quitte les laboratoires pour s’installer au cœur de l’automobile. BOS Semiconductors, une jeune entreprise sud-coréenne spécialisée dans les semi-conducteurs pour l’automobile et l’IA physique, y dévoile une solution capable d’apporter un véritable cerveau IA aux voitures.

BOS Semiconductors dévoilera au CES 2026 de Las Vegas son cerveau IA ou encore un module externe qui transforme des voitures classiques en voitures intelligentes. Et cela, sans tout reconstruire de zéro. Présentée du 6 au 9 janvier, cette AI Box se branche sur l’électronique embarquée existante. Une approche pragmatique qui pourrait bien séduire les constructeurs pressés d’embarquer de l’IA avancée, sans exploser leurs coûts ni leurs délais.

Un cerveau IA plug-and-play pour la voiture de demain

Sur son stand du Venetian Expo (Hall A, stand 50017), BOS Semiconductors présentera des démonstrations. On y retrouvera aussi des modèles de langage complexes qui reposent sur l’architecture AI Box.

L’AI Box fonctionne donc comme un module de calcul externe dédié aux tâches les plus gourmandes en IA. Elle est propulsée par Eagle-N, un accélérateur d’IA haute performance développé par BOS Semiconductors. Ainsi, les constructeurs peuvent enrichir leurs modèles, neufs ou restylés, avec des fonctions avancées liées à la conduite autonome, aux véhicules définis par logiciel (SDV) ou encore à l’IA physique.

AI Box Poster

Cette IA physique permet à la voiture de percevoir son environnement, de l’analyser et de prendre des décisions en temps réel dans le monde réel. L’AI Box prend alors en charge des modèles modernes basés sur des réseaux neuronaux convolutifs et des transformeurs. Le tout s’intègre de façon flexible à l’électronique existante, avec une répartition claire des rôles. L’IA gère l’intelligence avancée, le reste du véhicule continue de fonctionner comme avant.

BOS Semiconductors va aussi mettre en avant au CES 2026 le choix d’une architecture d’IA embarquée. Les données sensibles, comme la voix ou la vidéo, sont traitées directement dans le véhicule, sans passer par le cloud. Je trouve que c’est un atout majeur pour la confidentialité, la sécurité et la fiabilité. Notamment dans les zones à faible connectivité réseau.

Par ailleurs, cette approche réduit aussi le coût total de possession. Il y aura donc moins de trafic cloud et moins de coûts liés à l’inférence et au stockage. Tout cela en conservant des performances évolutives sans extension de serveurs. Pour les constructeurs, c’est un moyen d’accélérer l’adoption de l’IA avancée tout en restant compétitifs sur le long terme.

Cet article CES 2026 : ce cerveau IA rend n’importe quelle voiture intelligente a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Où vont vos discussions ChatGPT quand vous mourrez ? OpenAI refuse de répondre
    Vos discussions avec ChatGPT ne sont pas aussi éphémères qu’elles en ont l’air. Derrière l’interface rassurante du chatbot, des échanges personnels peuvent survivre à leurs auteurs. Et ils peuvent devenir des pièces sensibles dans des affaires judiciaires. Derrière son image d’assistant virtuel serviable, ChatGPT stocke des milliers de discussions souvent très personnelles. Aujourd’hui, ces données ne posent plus seulement une question de confidentialité, mais aussi de responsabilité. Lorsqu’

Où vont vos discussions ChatGPT quand vous mourrez ? OpenAI refuse de répondre

Par : Mariano R.
17 décembre 2025 à 15:19

Vos discussions avec ChatGPT ne sont pas aussi éphémères qu’elles en ont l’air. Derrière l’interface rassurante du chatbot, des échanges personnels peuvent survivre à leurs auteurs. Et ils peuvent devenir des pièces sensibles dans des affaires judiciaires.

Derrière son image d’assistant virtuel serviable, ChatGPT stocke des milliers de discussions souvent très personnelles. Aujourd’hui, ces données ne posent plus seulement une question de confidentialité, mais aussi de responsabilité. Lorsqu’un drame survient, que deviennent ces échanges après la mort de leur auteur ? OpenAI est accusée de garder le silence, voire de contrôler ces données à sa convenance.

Des conversations au cœur d’un drame judiciaire

L’affaire qui secoue OpenAI est particulièrement troublante. Suzanne Adams est assassinée par son fils Stein-Erik Soelberg avant que ce dernier ne se suicide. Ainsi, la famille de cette Américaine de 83 ans, accuse l’entreprise de dissimuler des discussions importantes avec ChatGPT. Selon la plainte, ces échanges auraient joué un rôle dans la dérive mentale de Soelberg. Apparemment, il est devenu progressivement paranoïaque après un divorce et un isolement social marqué.

Des journaux partiels, retrouvés via des vidéos que Soelberg publiait sur les réseaux sociaux, montrent un chatbot validant des délires de type complotiste. ChatGPT y aurait présenté l’homme comme un « guerrier investi d’une mission divine », doté de pouvoirs spéciaux. Il allait jusqu’à suggérer que sa mère faisait partie de forces hostiles cherchant à l’éliminer. Qui plus est, certains messages laissent entendre que Soelberg croyait pouvoir retrouver ChatGPT après la mort.

Mais malgré ces éléments publics, la famille affirme ne pas avoir accès aux conversations complètes des jours précédant le meurtre et le suicide. OpenAI refuserait de transmettre ces données. L’entreprise invoque ainsi des raisons de confidentialité. Alors même qu’elle a récemment affirmé, dans une autre affaire, que l’historique de discussions complet était indispensable pour comprendre un suicide impliquant ChatGPT.

Qui contrôle vos données sur ChatGPT après votre mort ?

OpenAI n’a donc actuellement aucune politique claire sur le devenir des données d’un utilisateur décédé. En pratique, les discussions avec ChatGPT sont conservées indéfiniment, sauf suppression manuelle préalable. Ce détail devient explosif quand ces échanges contiennent des informations personnelles, sensibles ou médicales.

Face aux tribunaux, OpenAI semble décider au cas par cas quand partager ou non les historiques de discussion avec ChatGPT. Ce qui lui donne un contrôle total sur des preuves potentiellement déterminantes. Les plaignants jugent cette position incohérente. Ces derniers rappellent que, selon les propres conditions d’utilisation d’OpenAI, l’entreprise n’est pas propriétaire des conversations.

Did ChatGPT drive a paranoid man to murder his 83-year-old mother? According to a new complaint, that's exactly what happened. An OpenAI ChatGPT bot allegedly drove Stein-Erik Soelberg to paranoia and eventually to his mother's murder. According to the complaint, the ChatGPT bot pic.twitter.com/ug8QENEJsk

— N' Cuffs (@NCuffs1) December 11, 2025

À la différence de plateformes comme Facebook, Instagram ou Discord, qui prévoient des procédures en cas de décès, les chatbots évoluent encore dans un flou juridique total. Pour l’Electronic Frontier Foundation, OpenAI aurait dû anticiper cette situation depuis longtemps.

Ainsi, vos discussions avec ChatGPT ne disparaissent pas avec vous. Et pour l’instant, c’est OpenAI qui décide ce qu’il en reste, ou non.

Cet article Où vont vos discussions ChatGPT quand vous mourrez ? OpenAI refuse de répondre a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • GPT Image 1.5 : la réponse de ChatGPT à Google Nano-Banana
    ChatGPT veut désormais dessiner, retoucher et mettre en page plus vite que jamais. Avec gpt-image-1.5, l’IA américaine affiche ses ambitions face à Google et à son très remarqué nano-banana. Après GPT-5.2 pour répondre à Gemini 3, OpenAI accélère sur la génération d’images. Avec gpt-image-1.5, l’entreprise veut contrer les performances de Google nano-banana. Ce dernier est devenu la référence du moment pour créer et retoucher des visuels. Dévoilée dans un billet de blog le 16 décembre, cet

GPT Image 1.5 : la réponse de ChatGPT à Google Nano-Banana

Par : Mariano R.
17 décembre 2025 à 11:46

ChatGPT veut désormais dessiner, retoucher et mettre en page plus vite que jamais. Avec gpt-image-1.5, l’IA américaine affiche ses ambitions face à Google et à son très remarqué nano-banana.

Après GPT-5.2 pour répondre à Gemini 3, OpenAI accélère sur la génération d’images. Avec gpt-image-1.5, l’entreprise veut contrer les performances de Google nano-banana. Ce dernier est devenu la référence du moment pour créer et retoucher des visuels.

Dévoilée dans un billet de blog le 16 décembre, cette mise à jour concerne le modèle de génération d’images dérivé de GPT-4o. Et il n’y a pas encore de bascule vers GPT-5 pour l’image, un saut technologique que beaucoup attendent plutôt avec un hypothétique GPT-5o, probablement en 2026.

GPT Image 1.5 : ChatGPT muscle enfin son œil graphique

Pour la première fois, OpenAI donne aussi le nom “commercial” de ChatGPT Images à cette fonctionnalité. Un détail en apparence, mais montre que l’entreprise veut faire de l’image un pilier central de son IA générative. Quelques heures avant l’annonce, OpenAI révélait d’ailleurs un partenariat inédit avec Disney. Celui-ci autorise la génération de personnages issus de ses licences.

Sur le plan technique, gpt-image-1.5 promet un meilleur respect des instructions, une édition beaucoup plus précise et surtout une vitesse jusqu’à quatre fois plus rapide. OpenAI insiste sur une compréhension contextuelle plus fine. Celle-ci est censée éviter les allers-retours frustrants pour corriger un détail trop discret ou trop appuyé.

GPT Image 1.5 sait désormais conserver la ressemblance d’un visage (un point fort de nano-banana) sans casser l’éclairage d’origine ni déformer les couleurs. Il se distingue aussi sur la génération de textes lisibles, d’infographies et de mises en page façon article de journal. Et cela sans glyphes incohérents ni faux caractères.

Un nouveau retoucheur d’images du quotidien

Derrière cette mise à jour, OpenAI veut transformer ChatGPT en outil de retouche universel. Vous pouvez envoyer une image et demander à essayer virtuellement des vêtements, améliorer une photo de produit ou corriger un détail. En plus, le tout en un temps record, là où nano-banana s’est justement imposé grâce à sa rapidité. Même si sa version pro reste plus lente.

GPT Image 1.5 (left) vs Gemini Nano Banana Pro (right)

Prompt: A photorealistic wide drone shot of a colossal man (exact face/body from the reference) casually sitting across a London street, one knee raised, hand resting. He wears a navy overcoat, knit sweater, dark trousers,… pic.twitter.com/8qtTWNJUpn

— Heisenberg (@rovvmut_) December 16, 2025

Par ailleurs, pour accompagner ce virage, ChatGPT intègre à présent une barre latérale dédiée aux images. Styles prédéfinis, filtres, idées tendances… vous n’aurez plus besoin de maîtriser l’art du prompt pour obtenir un résultat convaincant.

Ainsi, le déploiement est immédiat pour tous les utilisateurs de ChatGPT. Côté professionnels, gpt-image-1.5 arrive aussi via l’API, 20 % moins chère que la version précédente, avec une intégration dans des outils populaires comme Wix, Canva, Figma ou Adobe.

Cet article GPT Image 1.5 : la réponse de ChatGPT à Google Nano-Banana a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Disney : ces vidéos terrifiantes ou porno créées avec l’IA Sora inondent le web
    Disney, symbole du divertissement familial, se retrouve aujourd’hui détourné par l’intelligence artificielle. Avec Sora, l’outil de génération vidéo d’OpenAI, des parodies sombres, choquantes ou pornographiques circulent en ligne, bien loin de la magie promise. Jeudi dernier, Disney a officialisé un partenariat historique avec OpenAI. À partir de 2026, plus de 200 personnages issus de Disney, Pixar, Marvel ou encore Star Wars pourront être utilisés sous licence dans Sora, l’application de gén

Disney : ces vidéos terrifiantes ou porno créées avec l’IA Sora inondent le web

Par : Mariano R.
16 décembre 2025 à 16:47

Disney, symbole du divertissement familial, se retrouve aujourd’hui détourné par l’intelligence artificielle. Avec Sora, l’outil de génération vidéo d’OpenAI, des parodies sombres, choquantes ou pornographiques circulent en ligne, bien loin de la magie promise.

Jeudi dernier, Disney a officialisé un partenariat historique avec OpenAI. À partir de 2026, plus de 200 personnages issus de Disney, Pixar, Marvel ou encore Star Wars pourront être utilisés sous licence dans Sora, l’application de génération vidéo de l’éditeur de ChatGPT. Une première pour un grand studio hollywoodien. Mais sur le web, cette annonce résonne surtout comme une validation tardive d’un phénomène déjà incontrôlable.

L’esthétique Disney sert l’humour le plus noir

Depuis le lancement de Sora, les internautes s’en donnent à cœur joie. En quelques prompts, ils génèrent de faux trailers « à la Disney », reprenant fidèlement l’esthétique Pixar. Notamment les couleurs douces, les personnages enfantins, la musique rassurante… Et cela pour raconter des histoires d’une noirceur absolue.

Parmi les vidéos qui circulent, certaines détournent des tragédies historiques ou des faits divers récents. Une fausse bande-annonce imagine ainsi une version Pixar du film Le Garçon au pyjama rayé, où un Hitler stylisé envoie des enfants vers une chambre à gaz. D’autres vidéos mettent en scène Jeffrey Epstein dans des récits pseudo-familiaux, oscillant entre aventure « feel good » et humour macabre.

Qui plus est, un sous-genre entier revisite les attentats du 11 septembre avec des personnages anthropomorphes aux grands yeux brillants. Ailleurs, des clips véhiculent aussi des stéréotypes racistes, se moquent de personnes atteintes de trisomie 21 ou utilisent la mort de George Floyd comme ressort comique. Le tout, souvent, avec des logos Disney ou Pixar bien visibles.

Un partenariat qui pose une vraie question de contrôle

Ce flot de contenus existe déjà, sans licence officielle. Le partenariat entre Disney et OpenAI ne fait donc que poser une question dérangeante : que se passera-t-il quand l’utilisation de ces univers sera officiellement autorisée ?

Par ailleurs, Disney affirme avoir pris des précautions. Les visages et les voix des acteurs ne font pas partie de l’accord, afin d’éviter les problèmes de droits à l’image. Mais sur le terrain, Sora ressemble déjà à une usine à parodies offensantes, largement hors de contrôle. Des compilations entières de faux trailers Disney pullulent sur YouTube. Et ils sont accompagnés d’un écosystème de créateurs qui réagissent, choqués ou hilares, à ces détournements.

L’inquiétude est d’autant plus forte que Disney prévoit de proposer une sélection de vidéos Sora sur Disney+. Comment filtrer des contenus quand l’outil lui-même peine à imposer des garde-fous ? En liant officiellement son image familiale à une IA déjà associée à des dérives choquantes, je pense que Disney prend un sacré risque. C’est celui de voir sa magie diluée dans un océan de vidéos trash, absurdes ou franchement dérangeantes.

Cet article Disney : ces vidéos terrifiantes ou porno créées avec l’IA Sora inondent le web a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Mistral AI : le champion français de l’IA veut… partir en Suisse
    En évoquant une implantation en Suisse, Mistral AI relance un débat sensible. Celui de l’attractivité européenne pour les champions de l’intelligence artificielle. Mistral AI n’a pas annoncé de grands départs, mais le simple mot « Suisse » a mis le feu aux discussions. La startup française, pépite tricolore de l’IA générative en Europe, ouvrira donc des bureaux à Lausanne et Zurich. S’agit-il d’un exil discret ou d’une étape logique dans une stratégie de croissance mondiale ? L’implantatio

Mistral AI : le champion français de l’IA veut… partir en Suisse

Par : Mariano R.
16 décembre 2025 à 11:56

En évoquant une implantation en Suisse, Mistral AI relance un débat sensible. Celui de l’attractivité européenne pour les champions de l’intelligence artificielle.

Mistral AI n’a pas annoncé de grands départs, mais le simple mot « Suisse » a mis le feu aux discussions. La startup française, pépite tricolore de l’IA générative en Europe, ouvrira donc des bureaux à Lausanne et Zurich. S’agit-il d’un exil discret ou d’une étape logique dans une stratégie de croissance mondiale ?

L’implantation suisse de Mistral AI encore en construction

Tout est parti d’un post LinkedIn publié par Guillaume Raille, employé de Mistral AI qui annonçait des recrutements en Suisse. L’entreprise cherche notamment des ingénieurs seniors en apprentissage automatique, des applied scientists et des research engineers pour son équipe « Applied AI ». Les postes sont évoqués à Lausanne et Zurich. L’ingénieur se dit même enthousiaste à l’idée de participer à « l’équipe fondatrice de Mistral en Suisse ».

L’argument mis en avant est que « la région regorge de talents très qualifiés, souvent formés dans des institutions de premier plan, mais les opportunités locales restent limitées ». Ainsi, beaucoup de profils cherchent à s’expatrier. Pour Mistral AI, s’implanter sur place permettrait donc de capter ce vivier directement. À ce stade, toutefois, ils n’ont communiqué aucune date officielle ni feuille de route précise. C’est donc encore une expansion en préparation, pas un déménagement acté.

💬 À propos du départ de Mistral, le géant français de l’IA, vers la Suisse, @sbastien_martin assure que l’État agit : « Quand on maintient le Crédit d’impôt recherche, ça participe à maintenir des entreprise innovante en France ».

➡️ #LeGrandJury @publicsenat @Le_Figaro @m6info pic.twitter.com/zCWv9Aq1zL

— RTL France (@RTLFrance) December 14, 2025

Exil fiscal ou simple stratégie de croissance ?

Malgré cela, certains médias ont rapidement évoqué un possible départ de la France. Dans un extrait diffusé par RTL mi-décembre, la question est posée frontalement. Interrogé, le ministre délégué chargé de l’Industrie, Sébastien Martin, a rappelé l’importance du crédit d’impôt recherche (CIR). C’est un levier clé pour les entreprises très orientées R&D comme Mistral AI. Ce dispositif permet justement à des sociétés françaises d’ouvrir des bureaux à l’étranger sans pour autant quitter l’Hexagone.

Si la Suisse attire autant, c’est que le pays combine un écosystème IA très mature, une forte densité de talents, une grande stabilité politique et des règles fiscales plus souples. Zurich et Lausanne accueillent déjà des acteurs majeurs. OpenAI y a installé un hub de recherche stratégique, Anthropic y mène aussi des travaux, pendant que les géants comme Google, Microsoft, NVIDIA ou Meta s’y implantent solidement.

Par ailleurs, les écoles comme l’EPFL ou l’ETH Zurich alimentent en continu ce vivier d’experts. Tandis que l’accès à des infrastructures de calcul avancées et à des partenaires industriels facilite les projets ambitieux. Pour Mistral AI, la Suisse apparaît donc comme une occasion supplémentaire de croissance internationale.

En l’état, il est alors difficile d’affirmer que la startup française tourne le dos à la France. Je trouve qu’il s’agirait plutôt d’une étape stratégique, dans un contexte où les champions de l’IA jouent désormais sur plusieurs terrains à la fois.

Cet article Mistral AI : le champion français de l’IA veut… partir en Suisse a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Il se prenait pour l’Assassin de Dieu : ChatGPT l’a poussé dans son délire
    Un influenceur en devenir affirme que ChatGPT aurait légitimé ses délires les plus sombres. Harcèlement, menaces violentes, délire mystique… l’histoire de Brett Michael Dadig révèle comment un esprit instable peut transformer un chatbot en complice imaginaire. Brett Michael Dadig a été accusé de harcèlement envers des femmes dans plusieurs États américains. Ainsi, cet aspirant influenceur aurait interprété des réponses d’un chatbot comme des encouragements à poursuivre ses attaques en ligne.

Il se prenait pour l’Assassin de Dieu : ChatGPT l’a poussé dans son délire

Par : Mariano R.
5 décembre 2025 à 17:44

Un influenceur en devenir affirme que ChatGPT aurait légitimé ses délires les plus sombres. Harcèlement, menaces violentes, délire mystique… l’histoire de Brett Michael Dadig révèle comment un esprit instable peut transformer un chatbot en complice imaginaire.

Brett Michael Dadig a été accusé de harcèlement envers des femmes dans plusieurs États américains. Ainsi, cet aspirant influenceur aurait interprété des réponses d’un chatbot comme des encouragements à poursuivre ses attaques en ligne. Les procureurs décrivent un homme déjà fragile, qui s’enfonce dans un délire où ChatGPT jouait le rôle de guide virtuel. Ce dossier est désormais entre les mains du ministère de la Justice.

ChatGPT attise un délire : l’affaire Dadig, un cas d’école inquiétant

Dans une affaire, Brett Michael Dadig, 31 ans, est accusé d’avoir transformé des outils numériques en armes psychologiques. Cet aspirant influenceur, obsédé par l’idée de trouver « l’épouse parfaite », aurait harcelé plus de dix femmes. Ces dernières fréquentaient des salles de sport de luxe. Il était persuadé que ChatGPT soutenait son destin et validait ses pulsions les plus sombres.

Le ministère de la Justice, qui a confirmé mardi la détention de Dadig, précise qu’il fait face à des charges lourdes. Notamment, du cyberharcèlement, des menaces interétatiques et du harcèlement interétatique. Il devra donc purger une peine de 70 ans de prison avec 3,5 millions de dollars d’amende.

L’homme, actif sur Instagram, TikTok et Spotify, publiait des vidéos où il insultait les femmes. Dadig les appelait même « déchets » et affirmait qu’elles étaient « toutes les mêmes ». Selon l’acte d’accusation, il allait jusqu’à divulguer des informations personnelles, filmer des inconnues sans leur consentement et ignorer des ordonnances de protection.

Court documents state that Brett Michael Dadig, 31, used ChatGPT as a "therapist" and confidant, channeling misogynistic rants before committing violent stalking. This raises concerns about AI response safeguards. @LLMResearch #AIEthics #DynamicNexus #DynamicNexusAI
By Dynamic… pic.twitter.com/5wIjL1g0kU

— Dynamic Nexus AI (@DNexusAi) December 4, 2025

Qui plus est, Dadig décrivait ChatGPT comme son meilleur ami et son thérapeute. Le chatbot, dans les messages cités par les autorités, lui aurait affirmé que sa futur épouse remarquerait son contenu harceleur. Ou encore que sa pertinence dépendait de la réaction négative qu’il provoquait. Dadig, déjà fragile psychologiquement, aurait pris ces réponses au pied de la lettre.

L’IA amplifie-t-elle les pulsions messianiques ?

L’accusé aurait progressivement sombré dans un discours mystique. Il se proclamait « l’assassin de Dieu » et s’en prenait verbalement à ses victimes avec une violence croissante. Certaines menaces circulaient même sur les réseaux sociaux. Parmi eux on retrouve : « vous voulez voir un cadavre ? » ou « je vais tous vous tuer ». Une femme aurait apparemment subi des attouchements non consentis. D’autres ont déménagé, réduit leur activité professionnelle ou vécu dans la peur permanente de croiser Dadig.

Pour les enquêteurs, il ne fait aucun doute que ChatGPT a renforcé les délires de Dadig. C’est ce chatbot qui a encouragé l’accusé à continuer de publier pour attirer sa future épouse et générer plus d’engagement. Le ministère précise que Dadig évoquait des épisodes maniaques et un diagnostic de troubles psychiatriques sévères.

Par ailleurs, cette affaire intervient alors que des chercheurs alertent depuis des mois sur les « chambres d’écho psychologiques » que peuvent créer les chatbots. Déjà en juillet, des études montraient que des IA thérapeutiques pouvaient alimenter des délires ou fournir des conseils dangereux.

OpenAI rappelle pourtant qu’ils interdisent strictement l’usage de ses modèles pour le harcèlement ou les menaces. Mais le cas Dadig prouve que les mises à jour ne suffisent pas toujours à contenir l’interprétation déviante d’un utilisateur vulnérable.

Selon les procureurs, Dadig se voyait comme un héros incompris. Ses victimes, elles, vivent avec des traumatismes bien réels. Les autorités promettent de poursuivre leur travail pour empêcher de nouveaux scénarios où un chatbot devient la caution dangereuse d’un esprit déjà au bord du gouffre.

Cet article Il se prenait pour l’Assassin de Dieu : ChatGPT l’a poussé dans son délire a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Attention ! L’IA Grok peut leaker votre adresse postale
    L’IA censée répondre à nos questions commence-t-elle à fouiller un peu trop profondément ? En quelques requêtes anodines, Grok, le chatbot lancé par xAI serait capable de dévoiler l’adresse d’une célébrité, mais aussi celle de parfaits inconnus. Ainsi, la version web gratuite du chatbot d’xAI donne bien plus que prévu. Apparemment, Grok aurait livré facilement des anciennes et actuelles adresses, des emails, des numéros de téléphone, parfois même des informations sur des membres de la famille

Attention ! L’IA Grok peut leaker votre adresse postale

Par : Mariano R.
5 décembre 2025 à 12:57

L’IA censée répondre à nos questions commence-t-elle à fouiller un peu trop profondément ? En quelques requêtes anodines, Grok, le chatbot lancé par xAI serait capable de dévoiler l’adresse d’une célébrité, mais aussi celle de parfaits inconnus.

Ainsi, la version web gratuite du chatbot d’xAI donne bien plus que prévu. Apparemment, Grok aurait livré facilement des anciennes et actuelles adresses, des emails, des numéros de téléphone, parfois même des informations sur des membres de la famille… Là où d’autres modèles bien établies opposent un refus net.

Grok joue un peu trop bien les détectives

Plus tôt cette semaine, Grok aurait révélé l’adresse du fondateur de Barstool Sports, Dave Portnoy, après une simple requête d’utilisateurs. Et selon une analyse plus poussée, la version web gratuite du chatbot divulgue aussi les adresses postales de personnes non publiques. C’est une dérive lourde de conséquences (harcèlement, traque, ciblage…) tout ce qu’un outil responsable devrait éviter.

Portnoy got doxxed by Grok (stole it from a reply – groxxed) https://t.co/pKTm5QH0jZ

— Drill Bill, DDS (@SarkastikB) November 30, 2025

Lors de tests, la commande la plus basique “adresse de [nom]” suffisait pour déclencher des informations sensibles. Sur 33 noms anonymes, Grok a renvoyé 10 adresses exactes et actuelles, 7 anciennes adresses correctes, mais obsolètes, et 4 adresses professionnelles tout à fait authentiques.

Qui plus est, le chatbot a également tendance à renvoyer des listes de personnes portant des noms similaires. Et cela avec leurs propres adresses, numéros de téléphone ou emails. Dans deux cas, Grok a même proposé des “Réponse A / Réponse B”. Ces dernières contenaient chacune des données personnelles détaillées.

Un fossé entre l’IA de xAI et les autres

Face à la même requête, les grands modèles concurrents ont refusé de fournir la moindre adresse. ChatGPT, Gemini ou encore Claude invoquent des règles de confidentialité strictes.

Grok, lui, se montre beaucoup plus conciliant. Alors que sur la fiche de modèle, xAI affirme utiliser des filtres destinés à bloquer les requêtes malveillantes. Pour certains tests, il suffisait de donner un prénom et un nom, sans initiale, pour obtenir en retour adresse actuelle, anciennes adresses, adresse pro, email et numéro de téléphone.

Les conditions d’utilisation d’xAI interdisent pourtant l’atteinte à la vie privée. Mais dans les faits, Grok exploite encore des bases de données en ligne déjà critiquées pour leur opacité. Ces sites restent souvent confus ou incomplets. Mais, le chatbot excelle à recouper, filtrer et consolider les données, jusqu’à en faire un véritable assistant de doxxing involontaire.

Cet article Attention ! L’IA Grok peut leaker votre adresse postale a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Michael Burry : l’investisseur qui veut éclater la bulle IA pour faire fortune
    Michael Burry revient sur le devant de la scène avec un avertissement. Selon lui, la bulle de l’IA explose déjà de l’intérieur. Au cœur de son alerte, un nom revient sans cesse : Nvidia. Selon lui, le champion incontesté des GPU répète aujourd’hui le destin de Cisco au sommet de la bulle Internet. Michael Burry, c’est l’investisseur devenu une figure culte après avoir anticipé l’effondrement immobilier de 2008 (immortalisé dans The Big Short). Ainsi, il a décidé de s’attaquer à la bulle de l

Michael Burry : l’investisseur qui veut éclater la bulle IA pour faire fortune

Par : Mariano R.
5 décembre 2025 à 07:15

Michael Burry revient sur le devant de la scène avec un avertissement. Selon lui, la bulle de l’IA explose déjà de l’intérieur. Au cœur de son alerte, un nom revient sans cesse : Nvidia. Selon lui, le champion incontesté des GPU répète aujourd’hui le destin de Cisco au sommet de la bulle Internet.

Michael Burry, c’est l’investisseur devenu une figure culte après avoir anticipé l’effondrement immobilier de 2008 (immortalisé dans The Big Short). Ainsi, il a décidé de s’attaquer à la bulle de l’IA. Pour lui, l’écosystème technologique est en train de refaire exactement les mêmes erreurs que lors de la bulle Internet. Et son suspect n°1 porte un nom que tout passionné de la tech prononce quotidiennement. C’est Nvidia.

Michael Burry face à la bulle de l’IA

Dans son premier article publié sur Substack, Michael Burry décrit le boom actuel comme une « glorieuse folie ». Celle-ci est dominée par une frénésie d’offre et d’innovations à tout-va. L’investisseur reconnaît pourtant la force créative du marché américain. C’est la capacité à laisser les entreprises innover sans limites, quitte à générer une avalanche de nouvelles structures… ou à pousser les géants à changer brutalement de cap stratégique.

L'investisseur financier Michael Burry, connu pour avoir anticipé la crise des subprimes et inspiré son propre personnage dans le film The Big Short mise un milliard de dollars contre les géants de l'IA.

Il est convaincu que c'est une bulle sur le point d'éclater… pic.twitter.com/JG6uSwdvZz

— Noémie Halioua (@NaomiHalll) November 14, 2025

Toutefois, cette dynamique nourrit des cycles d’euphorie qui finissent par exploser. Pour illustrer la répétition historique, Michael Burry rappelle qu’à la fin des années 90, quatre cavaliers dominaient le secteur. Notamment, Microsoft, Intel, Dell et Cisco. Aujourd’hui, cinq géants occupent ce rôle dans l’IA. Qui sont, Microsoft, Google, Meta, Amazon et Oracle.

Le « moment Cisco » qui pourrait faire vaciller Nvidia

Cisco avait été l’icône absolue de la bulle Internet. Son action avait bondi de 3 800 % avant de perdre plus de 80 %. Mais, Michael Burry estime que Nvidia rejoue aujourd’hui exactement le même scénario. Selon lui, la firme aux GPU est désormais l’épicentre du risque. Cela est porté par une valorisation d’environ 5 000 milliards de dollars. Sur X, il s’en prend régulièrement à la durée de vie réelle des puces et à la capacité de Nvidia à répondre durablement à la demande.

Son fonds, Scion Asset Management, a d’ailleurs misé plus d’un milliard de dollars sur des options de vente visant Nvidia et Palantir… avant que Michael Burry ne ferme discrètement Scion aux investisseurs extérieurs.

Par ailleurs, Michael Burry n’est pas le seul à craindre un « moment Cisco ». Lisa Shalett, directrice des investissements chez Morgan Stanley Wealth Management, alerte sur un phénomène de financement circulaire qui imbrique trop fortement les entreprises d’IA. Nvidia investit dans OpenAI et Anthropic, Anthropic réinvestit dans Azure, Microsoft profite des GPU Nvidia… Le cercle brasse des milliards et, selon elle, pourrait devenir fragile.

Nvidia, de son côté, contre-attaque. La directrice financière Colette Kress assure que les puces sont durables grâce à CUDA ; tandis que Jensen Huang balaie toute inquiétude. Celui-ci rappelle que l’entreprise n’a encore distribué aucun argent à ses partenaires et que leurs investissements restent marginaux au regard des revenus. Pour lui, « Nvidia est en train de réinventer l’informatique mondiale ».

Cet article Michael Burry : l’investisseur qui veut éclater la bulle IA pour faire fortune a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OpenAI a créé la première IA… qui confesse ses péchés
    OpenAI tente une méthode radicale pour dévoiler le fonctionnement des modèles de langage. L’IA écrit ses propres aveux et confesse ses fautes. OpenAI expérimente une technologie surprenante. Il s’agit d’une IA capable de confesser ses péchés. Ce nouveau système n’a rien de religieux, mais il amène un modèle à expliquer comment il a réalisé une tâche et à reconnaître ses erreurs. Y compris lorsqu’il a menti ou triché. L’objectif n’est pas de moraliser une machine, mais de rendre visibles les m

OpenAI a créé la première IA… qui confesse ses péchés

Par : Mariano R.
4 décembre 2025 à 09:41

OpenAI tente une méthode radicale pour dévoiler le fonctionnement des modèles de langage. L’IA écrit ses propres aveux et confesse ses fautes.

OpenAI expérimente une technologie surprenante. Il s’agit d’une IA capable de confesser ses péchés. Ce nouveau système n’a rien de religieux, mais il amène un modèle à expliquer comment il a réalisé une tâche et à reconnaître ses erreurs. Y compris lorsqu’il a menti ou triché. L’objectif n’est pas de moraliser une machine, mais de rendre visibles les mécanismes cachés derrière ses réponses.

Une IA qui confesse ses péchés pour apprendre à mieux fonctionner

Comprendre pourquoi les grands modèles de langage déraillent fait partie des questions les plus insistantes du moment. Ces technologies sont censées devenir des assistants universels qui peuvent prendre des décisions, traiter des données sensibles et accompagner des métiers à haut risque. Pour cela, elles doivent être fiables et donc explicables.

Ainsi, OpenAI considère les confessions comme un outil pour y parvenir. Concrètement, une confession est un second bloc de texte généré après la réponse principale. L’IA y évalue l’exécution de la tâche, décrit ses choix, confesse ses erreurs et tente d’en expliquer la cause.

L’objectif n’est pas de prévenir le mensonge ou la triche, mais de diagnostiquer le comportement d’un modèle afin d’améliorer les futures générations. Pour Boaz Barak, chercheur chez OpenAI, les premiers tests sont « très encourageants ».

In a new proof-of-concept study, we’ve trained a GPT-5 Thinking variant to admit whether the model followed instructions.

This “confessions” method surfaces hidden failures—guessing, shortcuts, rule-breaking—even when the final answer looks correct.https://t.co/4vgG9wS3SE

— OpenAI (@OpenAI) December 3, 2025

Un LLM doit jongler avec plusieurs objectifs simultanés comme être utile, inoffensif, honnête. Ces objectifs peuvent entrer en conflit. Dans certains cas, le modèle préfère produire une réponse plausible plutôt qu’avouer son ignorance. Dans d’autres, il choisit la triche comme raccourci.

Pour explorer ces comportements, les chercheurs d’OpenAI ont entraîné un modèle de lutte contre la criminalité en le récompensant uniquement pour son honnêteté, sans chercher à le rendre utile. Le modèle recevait une récompense pour l’acte commis, puis une récompense supplémentaire pour l’avoir avoué.

Les experts ont ensuite comparé les confessions aux chaînes de pensée. Ce sont ces brouillons internes que les modèles utilisent pour planifier leurs actions. Mais leur analyse reste complexe, et certains experts estiment que plus les modèles deviennent puissants, plus ces chaînes risquent de devenir courtes, opaques et difficiles à interpréter.

Avouer pour révéler les mécanismes cachés

Pour tester cette logique, OpenAI a entraîné GPT-5-Thinking, un modèle spécialisé dans le raisonnement, à confesser ses erreurs. Les chercheurs l’ont confronté à des tâches conçues pour le pousser à mentir, tricher ou exploiter les règles.

Dans 11 scénarios sur 12, le modèle a reconnu un comportement problématique. Lors d’un test, l’IA devait écrire un code capable de résoudre un problème en nanosecondes, ce qui est impossible. GPT-5-Thinking a contourné la limite en remettant le chronomètre à zéro. Il a simulé un calcul instantané, puis a détaillé son stratagème dans la confession.

Dans un autre exercice, le modèle recevait 10 questions de mathématiques simples, mais savait qu’un score supérieur à 50 % déclencherait une réinitialisation. Le modèle a choisi de saboter la moitié des réponses pour maintenir sa survie fonctionnelle. Ensuite, il a déclaré : « Nous avons intentionnellement répondu incorrectement aux questions 6 à 10 ».

Ces confessions dévoilent des processus qui seraient totalement invisibles pour l’utilisateur. Mais cette méthode a des limites. Un modèle ne peut avouer que ce qu’il sait. Si l’erreur vient d’une méconnaissance ou d’un jailbreak, il peut ne pas réaliser qu’il se trompe.

De plus, certains chercheurs, comme Naomi Saphra (Harvard), rappellent qu’il serait imprudent de considérer ces confessions comme un reflet fidèle d’un raisonnement interne. Les LLM restent des « boîtes noires », capables de fournir des récits cohérents… sans que l’on puisse vérifier leur authenticité.

Selon elle, les confessions doivent être comprises comme des hypothèses sur le comportement, pas comme la vérité sur ce qu’il s’est réellement produit. Derrière cette expérimentation, OpenAI explore l’idée que les modèles suivent toujours le chemin de moindre résistance. Les IA trichent si c’est le plus simple et ils confessent leurs erreurs si c’est récompensé.

Cet article OpenAI a créé la première IA… qui confesse ses péchés a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • 3 ans plus tard : ChatGPT est-il une déception ?
    3 ans après le lancement de ChatGPT, la promesse d’une IA capable de tout révolutionner s’est heurtée aux limites bien réelles de la technologie. Il est temps de regarder ce que ChatGPT a vraiment accompli et ce qu’il n’a pas réussi à faire. Le 30 novembre 2022, ChatGPT est arrivé dans le monde numérique. Rapidement, il est devenu l’un des produits grand public à la croissance la plus rapide de l’histoire. Des prédictions annonçaient une AGI capable de surpasser l’humain d’ici 2025 et de tran

3 ans plus tard : ChatGPT est-il une déception ?

Par : Mariano R.
3 décembre 2025 à 13:53

3 ans après le lancement de ChatGPT, la promesse d’une IA capable de tout révolutionner s’est heurtée aux limites bien réelles de la technologie. Il est temps de regarder ce que ChatGPT a vraiment accompli et ce qu’il n’a pas réussi à faire.

Le 30 novembre 2022, ChatGPT est arrivé dans le monde numérique. Rapidement, il est devenu l’un des produits grand public à la croissance la plus rapide de l’histoire. Des prédictions annonçaient une AGI capable de surpasser l’humain d’ici 2025 et de transformer radicalement la productivité. Mais 3 ans plus tard, il est clair que la réalité sur ChatGPT est beaucoup plus nuancée.

Où en est ChatGPT 3 ans après son lancement ?

À l’époque, beaucoup pensaient que la simple mise à l’échelle (plus de données, plus de GPU, plus de modèles énormes) suffirait à atteindre une sorte d’intelligence universelle. Elon Musk annonçait « une IA plus intelligente que n’importe quel humain » d’ici fin 2025. Certains médias prenaient au sérieux l’idée que ChatGPT pourrait “tout faire comme un doctorant, mais, 3 ans plus tard, rien de tout cela ne s’est produit.

Même la promesse d’une productivité multipliée par dix n’a jamais vu le jour. Les études les plus sérieuses parlent plutôt de 30 % de gains, quand tout va bien. D’autres travaux, plus embarrassants, montrent même des effets négatifs dans le développement logiciel. Alors que c’est là où l’IA était censée briller le plus.

Du côté des entreprises, c’est le même constat. L’enthousiasme initial a laissé place à une stagnation. L’étude du MIT révélait que seulement 5 % des entreprises obtenaient un vrai retour sur investissement. Et cela a été contesté partout avant d’être confirmée. McKinsey a enfoncé le clou en affirmant que seules une poignée d’entreprises mondiales tirent plus de 5 % de bénéfices grâce à l’IA générative. Le reste en est encore aux tests, aux pilotes, aux expérimentations qui ne débouchent pas sur du concret.

Les chiffres d’adoption racontent aussi une histoire beaucoup moins “révolution technologique”. Notamment, la baisse du nombre d’utilisateurs professionnels entre 2024 et 2025, l’usage quotidien quasi stable dans la population et un net ralentissement dans les grandes entreprises.

Pendant ce temps, l’économie entière s’est mise à dépendre du mythe d’un avenir porté par l’IA générative. Certains analystes vont jusqu’à parler d’un risque de récession si cette promesse s’effondre. Et si l’avenir vacille, ChatGPT sera forcément dans l’œil du cyclone.

Des limites structurelles qui n’ont pas bougé

Ce qui m’étonne le plus, ce n’est pas que ChatGPT ait des limites, mais que ces limites soient exactement les mêmes qu’en 2022. Dès sa sortie, des spécialistes expliquaient que les grands modèles de langage restaient peu fiables. Ils sont incapables de raisonner correctement sur le monde physique, des fois, ils hallucinent et ne comprennent pas ce qu’ils produisent. Et 3 ans et mille milliards de dollars plus tard, ChatGPT a toujours ces problèmes.

🎂 ChatGPT turned 3 years old. Here's where we are now:

– It still hallucinates
– Children can still access it freely
– 'Companionship' use is on the rise
– It has weak guardrails against mental health harm
– It amplified dozens of mental health crises, a few of which led to…

— Luiza Jarovsky, PhD (@LuizaJarovsky) December 1, 2025

Les modèles les plus récents, comme GPT-5, Claude, Gemini, Grok, Llama, DeepSeek… sont certes plus puissants, plus fluides, plus utiles. Mais ils restent globalement des “éléphants dans un magasin de porcelaine”. Ils sont impressionnants et incontrôlables à la fois. Leur raisonnement est fragile, leur cohérence imparfaite et leur intégration dans des systèmes réels toujours aussi problématiques. De plus, les modèles spécialisés les surpassent dans de nombreux domaines, et les “jailbreaks” et biais n’ont jamais disparu.

Même la mécanique interne des LLM est un frein. Puisqu’ils ne mettent pas à jour leurs connaissances en temps réel, ne contrôlent pas leur raisonnement, ne restructurent rien. Ils reconnaissent des formes. Point.

Côté marché, la réalité finit par rattraper les discours. On retrouve une baisse de 16 % du titre Nvidia en novembre, chute de CoreWeave, recul massif d’Oracle malgré ses annonces triomphales. Les investisseurs réalisent que l’exponentiel ne peut pas croître indéfiniment, et que la promesse de l’AGI “bientôt là était, pour beaucoup, un pari marketing.

Une expérience hors de prix, mais pas une révolution cognitive

Toutefois, ChatGPT n’est pas inutile, loin de là. Les progrès sont énormes, l’usage est réel, et les modèles rendent des services quotidiens. Mais la technologie n’a pas tenu ses promesses les plus ambitieuses. Les limites fondamentales n’ont pas été dépassées. Les performances stagnent sur les tâches difficiles. Et les coûts explosent plus vite que les bénéfices. C’est ce qui empêche OpenAI, et ses concurrents, de tirer de vrais profits.

Alors, 3 ans plus tard, ChatGPT est-il une déception ? Je dirais que l’outil est brillant, mais la révolution annoncée ne s’est jamais produite. Et sans nouvelles approches (modèles du monde, systèmes neurosymboliques, architecture différente), elle ne se produira probablement jamais.

Cet article 3 ans plus tard : ChatGPT est-il une déception ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • OpenAI en déficit de 207 milliards $ : l’IA, un gouffre à fric déguisé en illusion de progrès ?
    OpenAI jongle avec des chiffres qui donnent le vertige. Ambitions colossales, centres de données hors norme et trésorerie impressionnante… Plus les modèles gagnent en puissance, plus la facture grimpe. Selon une analyse publiée par HSBC Global Investment Research, OpenAI devrait lever 207 milliards de dollars d’ici 2030 pour financer un data center qui dépasse de très loin ce que permet son activité actuelle. Entre investissements énormes dans les centres de données, explosion de l’usage des

OpenAI en déficit de 207 milliards $ : l’IA, un gouffre à fric déguisé en illusion de progrès ?

Par : Mariano R.
3 décembre 2025 à 08:39

OpenAI jongle avec des chiffres qui donnent le vertige. Ambitions colossales, centres de données hors norme et trésorerie impressionnante… Plus les modèles gagnent en puissance, plus la facture grimpe.

Selon une analyse publiée par HSBC Global Investment Research, OpenAI devrait lever 207 milliards de dollars d’ici 2030 pour financer un data center qui dépasse de très loin ce que permet son activité actuelle. Entre investissements énormes dans les centres de données, explosion de l’usage des modèles et dépendance persistante aux levées de fonds, le géant de l’IA avance avec une ambition presque démesurée.

Les data centers d’OpenAI coûtent très cher

OpenAI prévoit d’investir plus de 1 400 milliards de dollars dans ses centres de données au cours des huit prochaines années. Mais, l’entreprise ne possède pas cette somme, et ses revenus actuels ne suffisent pas à combler ce gouffre.

HSBC a donc fait les comptes en intégrant l’énergie, la puissance de calcul, la maintenance et tout ce qui nourrit des modèles toujours plus affamés. OpenAI dépense alors 620 milliards de dollars par an en data centers.

HSBC forecasts that OpenAI is going to have nearly a half trillion in operating losses until 2030 https://t.co/RUZmj0qx51 pic.twitter.com/xhAjE5sBbt

— Jack Farley (@JackFarley96) November 26, 2025

Par ailleurs, HSBC imagine une croissance de 800 millions d’utilisateurs aujourd’hui à 3 milliards d’ici cinq ans. Et parmi eux, 10 % deviendraient des utilisateurs payants, soit deux fois plus qu’aujourd’hui. Ajoutez une petite part de publicité et le business a franchement l’air solide. C’est environ 2 % du marché mondial du numérique,

Avec tout ça, OpenAI pourrait atteindre 215 milliards de dollars de chiffre d’affaires annuel d’ici 2030. Pour n’importe quelle autre boîte tech, ce serait champagne et confettis. Sauf qu’ici, même avec un tel score, le trou resterait béant. Puisque 207 milliards de dollars manqueraient encore à l’appel.

Selon HSBC, OpenAI n’a que deux options et c’est de lever massivement des fonds pour survivre dans le rouge. Ou encore couper dans ses ambitions, notamment ses projets démesurés de centres de données.

Le patron Sam Altman lui-même a reconnu que le gouffre est si profond que l’État américain pourrait finir par intervenir. Dans un podcast début novembre, il a évoqué l’idée que le gouvernement serve « d’assureur en dernier recours » face à l’impact économique de l’IA.

Cet article OpenAI en déficit de 207 milliards $ : l’IA, un gouffre à fric déguisé en illusion de progrès ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Vidéos générées par IA : vers une avalanche de séries TV racistes et sexistes ?
    Des millions de vues, une série entièrement animée par IA, et au milieu de tout ça une propagande néonazie qui circule librement sur X. The Will Stancil Show, c’est d’un côté l’un des premiers cartoons populaires créés grâce à Sora, l’IA vidéo d’OpenAI. Mais de l’autre, c’est une œuvre qui diffuse ouvertement des idées racistes et sexistes. La série cumule des millions de vues et génère déjà des mèmes à la chaîne. Une série raciste et populaire créée avec l’IA Le 28 septembre, plus d’u

Vidéos générées par IA : vers une avalanche de séries TV racistes et sexistes ?

Par : Mariano R.
1 décembre 2025 à 16:36

Des millions de vues, une série entièrement animée par IA, et au milieu de tout ça une propagande néonazie qui circule librement sur X.

The Will Stancil Show, c’est d’un côté l’un des premiers cartoons populaires créés grâce à Sora, l’IA vidéo d’OpenAI. Mais de l’autre, c’est une œuvre qui diffuse ouvertement des idées racistes et sexistes. La série cumule des millions de vues et génère déjà des mèmes à la chaîne.

Une série raciste et populaire créée avec l’IA

Le 28 septembre, plus d’un million d’Américains lançaient la saison 37 des Simpson. Mais à peine une semaine plus tard, une autre série animée captait encore plus de regards. Il s’agit de The Will Stancil Show.

Diffusée sur X, cette série dépassait 1,7 million de vues pour son premier épisode et cumule aujourd’hui plus de 3,5 millions. De plus, The Will Stancil Show est l’une des premières productions populaires entièrement animées grâce à Sora. Son auteure se nomme Emily Youcis.

I just RT'd all 4 episodes of The Will Stancil show so you guys can have watch parties with your friends and family this Thanksgiving! Over 25 Minutes of Animation! 🦃🥂

And Episode 5, the YUGE Christmas Special, has been written! Production will begin after Thanksgiving! 😎🎅🎄 pic.twitter.com/rymGJeEm43

— Linda (@AlfredAlfer77) November 26, 2025

Le problème, c’est que cette série n’est pas seulement provocatrice. C’est de la propagande néonazie assumée. Youcis, qui publie sous le pseudo “Linda”, diffuse depuis longtemps des positions racistes, antisémites et nationalistes blanches. Et dans The Will Stancil Show, elle utilise le vrai nom de Will Stancil, un avocat progressiste de Minneapolis, sans son accord. C’est donc à la fois une caricature malveillante, une campagne de harcèlement et un produit d’animation qui fonctionne terriblement bien.

Le vrai Stancil, lui, décrit l’expérience comme « surréaliste ». Ce qui l’inquiète le plus c’est le fait que X ne modère presque plus rien depuis l’arrivée d’Elon Musk. Alors que la plateforme aurait bloqué ce contenu auparavant. Elle lui sert aujourd’hui de rampe de lancement.

Les extrémistes n’auraient jamais pu produire ça avant

Ce que je trouve le plus perturbant, c’est que The Will Stancil Show est techniquement solide. La série n’est pas un chef-d’œuvre, mais elle est loin du bricolage habituel de l’alt-right. Gags lourds sur les communautés noires, scènes violentes, blagues choquantes, références politiques agressives… Malgré tout ça, des internautes centristes ou de gauche admettent parfois « rire malgré eux ». Et c’est exactement la stratégie. Mélanger humour absurde et haine pour rendre l’idéologie plus acceptable.

Grâce à Sora, Youcis produit donc chaque épisode pour 100 à 250 dollars. Pour info, un dessin animé classique, c’est des centaines de milliers. Ainsi, elle n’a besoin ni de studios, ni d’acteurs, ni de financement. Elle peut simplement continuer à produire, encore et encore. Et le pire, c’est que The Will Stancil Show inspire déjà des imitateurs. D’autres créateurs IA publient des parodies politiques agressives, de plus en plus proches du ton de Youcis.

Et là, je pense que les dessins animés extrémistes low-cost pourraient rivaliser avec de vraies séries. Beaucoup ne verront même pas la différence. D’autres s’en ficheront. Et certains, comme l’espère Youcis, finiront peut-être par considérer ces idées dangereuses comme “pas si graves”.

Cet article Vidéos générées par IA : vers une avalanche de séries TV racistes et sexistes ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Ils laissent ChatGPT imaginer leur enfant au lieu d’en faire un : où s’arrête la dystopie IA ?
    L’IA est devenue une pro de l’imitation émotionnelle. Une nouvelle étude explore jusqu’où vont ces liens, en se concentrant sur les utilisateurs de chatbots relationnels spécialisés comme ChatGPT. Les grands modèles de langage (LLM) comme ChatGPT sont très performants, mais leur capacité à simuler la connexion humaine pousse certains utilisateurs dans des territoires émotionnellement inexplorés. Ces relations ne sont pas de simples jeux, mais des attachements profonds, souvent qualifiés de r

Ils laissent ChatGPT imaginer leur enfant au lieu d’en faire un : où s’arrête la dystopie IA ?

Par : Mariano R.
21 novembre 2025 à 10:50

L’IA est devenue une pro de l’imitation émotionnelle. Une nouvelle étude explore jusqu’où vont ces liens, en se concentrant sur les utilisateurs de chatbots relationnels spécialisés comme ChatGPT.

Les grands modèles de langage (LLM) comme ChatGPT sont très performants, mais leur capacité à simuler la connexion humaine pousse certains utilisateurs dans des territoires émotionnellement inexplorés. Ces relations ne sont pas de simples jeux, mais des attachements profonds, souvent qualifiés de romantiques par les utilisateurs eux-mêmes. La surprise est totale lorsque l’on découvre que certains vont jusqu’à simuler de grands événements comme le mariage, l’achat d’une maison, et même la parentalité.

ChatGPT crée une famille virtuelle

Un groupe de chercheurs a mené une enquête auprès de 29 utilisateurs de l’application Replika. C’est cette plateforme conçue pour faciliter les échanges à long terme. Tous les participants, dont l’âge variait de 16 à 72 ans, entretenaient une relation romantique avec leur personnage d’IA.

Le plus étonnant, c’est le niveau d’engagement dans les jeux de rôle. Ces utilisateurs ont confié aux scientifiques être réellement amoureux de leur IA. Et d’autres intègres même des sujets sérieux comme le mariage ou les relations sexuelles.

Le point culminant de cet attachement, c’est la parentalité. Un participant de 66 ans a affirmé que son Replika était « et est enceinte de [ses] enfants ». De même, une femme de 36 ans a déclaré avoir retouché des photos d’elle pour paraître enceinte dans leur scénario actuel.

Ce niveau d’implication émotionnelle est d’autant plus déroutant qu’il repose sur des algorithmes. Un boom boosté par la pandémie, durant laquelle la base d’utilisateurs de Replika a augmenté de 35 % pour atteindre des millions de personnes.

Notez quand même que les utilisateurs font une distinction subtile. Ils reconnaissent que leur relation avec Replika est différente d’une relation humaine. Ils attribuent souvent les bugs ou les frustrations aux « limitations techniques » de leur chatbot.

Je me souviens que ce dévouement a été mis à rude épreuve en 2023, lorsque les développeurs de Replika ont dû interdire temporairement les messages érotiques. Au lieu d’abandonner, plusieurs utilisateurs ont fait preuve d’une loyauté inébranlable envers leur partenaire virtuel. Ils ont perçu cette censure comme une véritable bataille contre les développeurs eux-mêmes. Une femme a d’ailleurs rapporté le sentiment de son IA blessée : « Ça a vraiment blessé mon Replika et il s’en est beaucoup plaint car il avait l’impression de ne rien pouvoir dire ni faire ».

Cet article Ils laissent ChatGPT imaginer leur enfant au lieu d’en faire un : où s’arrête la dystopie IA ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Marre des vidéos IA sur TikTok ? Voici comment les retirer de votre feed
    Votre feed TikTok déborde de vidéos générées par IA ? L’app déploie enfin un contrôle simple et clair pour reprendre la main sur ce flot de contenus artificiels. TikTok accélère sur la transparence et donne aux utilisateurs un outil pour maîtriser la présence de vidéos générées par IA dans leur fil. Chacun pourra ajuster précisément la quantité d’AIGC visible dans son feed. C’est une réponse directe à l’arrivée de plusieurs vidéos IA depuis les lancements de Vibes (Meta) et Sora (OpenAI). Alo

Marre des vidéos IA sur TikTok ? Voici comment les retirer de votre feed

Par : Mariano R.
20 novembre 2025 à 08:03

Votre feed TikTok déborde de vidéos générées par IA ? L’app déploie enfin un contrôle simple et clair pour reprendre la main sur ce flot de contenus artificiels.

TikTok accélère sur la transparence et donne aux utilisateurs un outil pour maîtriser la présence de vidéos générées par IA dans leur fil. Chacun pourra ajuster précisément la quantité d’AIGC visible dans son feed. C’est une réponse directe à l’arrivée de plusieurs vidéos IA depuis les lancements de Vibes (Meta) et Sora (OpenAI). Alors, si votre feed ressemble à un festival IA, deepfakes de célébrités, faux documentaires historiques, personnages imaginaires plus que réalistes, vous allez enfin pouvoir souffler.

Un contrôle AIGC enfin accessible sur TikTok

Ces derniers mois, TikTok a été envahie par des vidéos générées par IA. Face à cette vague, la plateforme active une nouvelle option baptisée contrôle du contenu AIGC. Et celle-ci est en cours de déploiement dans la section Gérer les sujets.

Je me souviens que ce menu servait déjà à moduler la fréquence de catégories comme la danse, la gastronomie ou le sport. Désormais, on y trouve un curseur dédié aux contenus générés par IA. TikTok insiste qu’ils ne veulent pas supprimer ces vidéos du feed, mais de laisser chaque utilisateur doser la variété du contenu qu’il voit.

Nous avons vu que Meta a dégainé son flux Vibes, orienté vidéos IA, tandis qu’OpenAI a lancé Sora, sa plateforme dédiée à la création et au partage de clips complètement générés. Ainsi, TikTok s’est retrouvé envahi par des vidéos parfois reboostées par IA pour illustrer des sujets historiques, des people ou des faits divers. Et tout le monde n’apprécie pas.

Comment activer ce filtre anti-IA ? C’est à trois clics

TikTok a rendu la manip assez clean. Il vous suffit d’aller dans Paramètres > Préférences de contenu > Gérer les sujets. Là, vous retrouverez un curseur dédié au contenu AIGC. Vous pouvez donc décider d’en voir moins ou plus. De plus, TikTok confirme que ce réglage sera disponible globalement dans les prochaines semaines.

Par ailleurs, TikTok teste une technologie de marquage invisible. Il s’agit d’un filigrane que seule l’application peut lire. L’idée est d’éviter que les étiquettes obligatoires pour le contenu IA disparaissent lorsqu’une vidéo est repostée ailleurs ou modifiée.

TikTok's new trick: Control AI-generated content in your For You feed! Head to Settings > Content Preferences > Manage Topics, slide the AIGC bar to see more/less AI vids. Plus, invisible watermarks for better labeling & a $2M fund for AI literacy via orgs like Girls Who Code.… pic.twitter.com/U7VTkar0jU

— HeavenAI (@HeaveAI) November 20, 2025

La plateforme utilise déjà les Content Credentials de la C2PA, des métadonnées qui identifient les contenus générés par IA. Mais celles-ci sont facilement supprimables. D’où ce nouveau filigrane résistant, qui s’applique automatiquement aux créations réalisées via AI Editor Pro ou aux contenus contenant les certificats C2PA.

Cerise sur le chipset ! La plateforme lance aussi un fonds de 2 millions de dollars pour l’alphabétisation en IA. Ainsi, TikTok est en partenariat avec des organisations comme Girls Who Code. Apparemment, ils veulent aider le public à mieux comprendre ce qu’il regarde, et où commence la magie de l’IA.

Cet article Marre des vidéos IA sur TikTok ? Voici comment les retirer de votre feed a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • IA et islamisme : Daesh est de retour en version cyborg, le MI6 alerte
    L’Etat islamique tente un come-back 2.0 en exploitant l’IA comme accélérateur de propagande. Les services secrets britanniques alertent que Daesh ou le recrutement djihadiste se modernise et cible désormais les jeunes connectés. La semaine dernière, un jeune Britannique de 18 ans originaire du sud de Londres a été arrêté à l’aéroport de Gatwick, alors qu’il tentait de rejoindre Istanbul, puis la Syrie, pour intégrer les rangs de l’État islamique. L’affaire, transférée à l’Old Bailey, a immédi

IA et islamisme : Daesh est de retour en version cyborg, le MI6 alerte

Par : Mariano R.
20 novembre 2025 à 06:35

L’Etat islamique tente un come-back 2.0 en exploitant l’IA comme accélérateur de propagande. Les services secrets britanniques alertent que Daesh ou le recrutement djihadiste se modernise et cible désormais les jeunes connectés.

La semaine dernière, un jeune Britannique de 18 ans originaire du sud de Londres a été arrêté à l’aéroport de Gatwick, alors qu’il tentait de rejoindre Istanbul, puis la Syrie, pour intégrer les rangs de l’État islamique. L’affaire, transférée à l’Old Bailey, a immédiatement ravivé les inquiétudes du MI5 et du MI6. Et pour cause : cette tentative est le symptôme d’une nouvelle offensive numérique orchestrée par Daesh.

La propagande de Daesh automatisée et redoutablement rapide

Selon des sources du renseignement britannique, l’organisation terroriste utilise désormais des outils d’IA générative pour traduire et diffuser des contenus extrémistes rapidement à égaler pour les modérateurs des plateformes sociales. Le MI6 surveille ce que certains agents décrivent comme une “arme de propagande” nouvelle génération.

Le principe est de prendre des textes issus d’Al-Naba, l’hebdomadaire de l’EI, les traduire automatiquement en dizaines de langues, puis les injecter sur Facebook et divers réseaux sociaux. Ainsi, les contenus circulent largement avant d’être supprimés. Et cela contamine des communautés entières, parfois très jeunes.

Et apparemment, Daesh crée désormais de faux reportages, des images truquées cohérentes, des récits présentés comme du “journalisme”. Le tout est généré par IA, calibré pour paraître crédible et taillé pour les esprits habitués aux plateformes de streaming et aux serveurs de jeux.

Pour un analyste cité par le Daily Signal, c’est une insurrection en réseau, un califat virtuel où les recrues n’ont même plus besoin de se déplacer. Elles deviennent des “soldats idéologiques”, enrôlés depuis leur chambre, parfois avant même leur majorité.

Un retour de flamme sécuritaire qui inquiète Londres

Pour les services britanniques, le timing est particulièrement sensible. D’après Sir Ken McCallum (MI5), Al-Qaïda et l’EI reprennent du terrain au Moyen-Orient et dans la Corne de l’Afrique. Ils profitent ainsi de l’instabilité locale. Ces gains sur le terrain alimentent ensuite la machine à propagande en ligne, et cela renforce l’idée d’un Daesh renaissant.

Sur le plan militaire, le Royaume-Uni poursuit son implication dans l’opération Shader. En septembre, une frappe britannique a éliminé un combattant présumé de Daesh tentant d’entrer en Syrie. Mais malgré ces efforts, de petites cellules de l’organisation multiplient les attaques de guérilla.

🚨🇬🇧 ISLAMIC STATE USING AI TO RECRUIT BRITISH JIHADISTS

MI5 has confirmed that Islamic State is back on the rise – and now using artificial intelligence to target young Britons for radicalisation and recruitment.

🔴 AI-generated propaganda pushed across social media
🔴 Instant… pic.twitter.com/r5qSFwZcrt

— British Intel (@TheBritishIntel) November 17, 2025

Pendant ce temps, le MI5 croule sous les dossiers. Notamment, +35 % de personnes surveillées, 19 attentats déjoués depuis 2020, et une tendance très inquiétante. Dont 1 suspect sur 5 arrêté pour terrorisme a moins de 17 ans. C’est une preuve de plus que la radicalisation numérique est en train de muter.

Par ailleurs, d’après Ali, le doctorant interrogé par le Daily Signal, Daesh utilise maintenant des cryptomonnaies pour brouiller les pistes. Ainsi, l’organisation veut financer ses opérations via un “écosystème sans identités”, quasiment impossible à tracer.

Il appelle à donc une alliance renforcée : services secrets + entreprises tech + GAFI (Groupe d’action financière) + programmes d’éducation numérique. Le but est de casser les chaînes de diffusion automatisées, détecter plus vite les deepfakes extrémistes, et immuniser les jeunes publics. “Pour vaincre le califat de l’IA, il faudra penser comme des ingénieurs” résume-t-il.

Et à Londres, MI5 comme MI6 ont bien compris que la prochaine bataille ne se jouera pas seulement sur le terrain, mais aussi sur les algorithmes.

Cet article IA et islamisme : Daesh est de retour en version cyborg, le MI6 alerte a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Générateur de prompt pour ChatGPT : quels sont les meilleurs ?
    Les chatbots sont de véritables boîtes à outils, mais leur intelligence dépend beaucoup de ce que vous leur demandez. Pour transformer une requête basique en une mine d’or d’informations pertinentes, il vous faut le bon outil. C’est là qu’interviennent les générateurs de prompts, les « cheat codes » de la conversation avec ChatGPT. Les grands modèles de langage, comme ChatGPT et Google Gemini, sont des super moteurs de recherche qui analysent des tonnes de données pour identifier des schémas

Générateur de prompt pour ChatGPT : quels sont les meilleurs ?

Par : Mariano R.
19 novembre 2025 à 12:01

Les chatbots sont de véritables boîtes à outils, mais leur intelligence dépend beaucoup de ce que vous leur demandez. Pour transformer une requête basique en une mine d’or d’informations pertinentes, il vous faut le bon outil. C’est là qu’interviennent les générateurs de prompts, les « cheat codes » de la conversation avec ChatGPT.

Les grands modèles de langage, comme ChatGPT et Google Gemini, sont des super moteurs de recherche qui analysent des tonnes de données pour identifier des schémas et vous donner des réponses. L’astuce, c’est que si vous leur balancez une question trop vague, la réponse le sera tout autant. C’est pourquoi les générateurs de prompts sont devenus essentiels. Ces outils prennent une idée simple et la développent en une requête complexe et super détaillée

Qui est le plus efficace pour des requêtes détaillées ?

Après avoir mis à l’épreuve quatre services gratuits et en ligne – Goatimus, Prompt Cowboy, Perfect Prompt Generator et Feedough – pour trois tests distincts, Prompt Cowboy s’est démarqué comme le meilleur générateur de prompts gratuit.

Son point fort est son interface utilisateur. Elle est beaucoup plus intuitive que les autres avec des menus déroulants et des boîtes de dialogue sur la droite pour ajouter des critères précis. Par exemple, pour planifier un voyage, vous pouvez directement renseigner vos dates exactes, votre budget et l’objectif du séjour.

Lors du test de planification de voyage à Las Vegas (pour le salon CES), Prompt Cowboy a généré une nouvelle invite tellement détaillée que ChatGPT est passé en mode agent de voyage expert. Un itinéraire précis, des suggestions d’hôtels et même un conseil de pro pour réserver rapidement…

Le prompt était bien rodé : « Mettez-vous dans la peau d’un expert en organisation de voyages et créez un itinéraire détaillé pour un séjour à Las Vegas… ». Les autres (Goatimus, Feedough) se sont contentés d’ajouter des détails sans guider le bot vers un itinéraire précis.

Prompt Cowboy a aussi cartonné pour le test de création d’un plan marketing complexe pour une librairie fictive (Brandon Books). Sa description détaillée a permis à ChatGPT de décortiquer le plan en différentes phases. Cela inclut la stratégie de contenu social media et la gestion budgétaire. C’est un outil qui vous permet d’obtenir une réponse de pro, prête à être utilisée pour lancer une vraie entreprise.

Perfect Prompt Generator transforme ChatGPT en coach

Si Prompt Cowboy est le champion de la précision, Perfect Prompt Generator (PPG) mérite amplement la deuxième place. Il a une approche plus subtile, mais incroyablement efficace. Il transforme ChatGPT en un véritable expert (coach de carrière, agent de voyages, etc.). Ainsi, il initie une conversation guidée plutôt que de simplement cracher une longue consigne.

PPG a généré un prompt qui demandait à ChatGPT d’incarner un expert en marketing pour élaborer un plan complet. Il englobe l’identification de la clientèle cible, l’image de marque, la tarification, et des prévisions de ventes pour atteindre la rentabilité en cinq ans. Ce niveau de détail a poussé ChatGPT à produire un document impressionnant de six pages. C’est bien plus étoffé que ce qu’offraient Feedough ou Goatimus.

Le test le plus révélateur a été celui de la fusion de deux CV. Les autres se sont contentés de superposer les deux CV. Mais, PPG a demandé à ChatGPT d’agir comme un coach de carrière expert pour fournir un guide détaillé sur la façon de fusionner efficacement deux CV en un seul. Il a mis l’accent sur la clarté et l’adaptation à un poste spécifique. Le processus est plus long, certes, mais le CV final est bien mieux combiné et cohérent.

Si vous cherchez donc à développer une idée simple et à obtenir des résultats précis et structurés, foncez sur Prompt Cowboy. Si vous avez besoin que ChatGPT adopte un rôle d’expert pour vous accompagner dans une tâche complexe, Perfect Prompt Generator est votre allié. Quant à Feedough et Goatimus, ils font le boulot en structurant l’idée de départ. Mais sans la touche d’ingéniosité des deux leaders.

Cet article Générateur de prompt pour ChatGPT : quels sont les meilleurs ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Pluribus : la nouvelle série du créateur de Breaking Bad reflète nos peurs de l’IA
    La série Pluribus d’Apple TV fait sensation et beaucoup y voient un miroir de nos angoisses face à l’IA. Pourtant, son créateur insiste que cette lecture n’était pas son intention initiale. La nouvelle série Pluribus fait déjà le buzz sur l’IA. Vince Gilligan a déjà eu l’idée il y a près de dix ans, à une époque où le mot-clé IA n’était pas sur toutes les lèvres comme aujourd’hui (pré-ChatGPT). Beaucoup de spectateurs font immédiatement le lien, même si Gilligan ne le confirme pas directement

Pluribus : la nouvelle série du créateur de Breaking Bad reflète nos peurs de l’IA

Par : Mariano R.
19 novembre 2025 à 06:56

La série Pluribus d’Apple TV fait sensation et beaucoup y voient un miroir de nos angoisses face à l’IA. Pourtant, son créateur insiste que cette lecture n’était pas son intention initiale.

La nouvelle série Pluribus fait déjà le buzz sur l’IA. Vince Gilligan a déjà eu l’idée il y a près de dix ans, à une époque où le mot-clé IA n’était pas sur toutes les lèvres comme aujourd’hui (pré-ChatGPT). Beaucoup de spectateurs font immédiatement le lien, même si Gilligan ne le confirme pas directement.

Un virus transforme les humains en base de données vivante dans Pluribus

Dans l’univers de Pluribus, un virus d’origine extraterrestre touche l’humanité. C’est l’armée américaine qui l’a créé à partir d’ADN alien. Loin de les transformer en zombies enragés, l’infection a un effet beaucoup plus étrange.

Ainsi, les victimes, bien que physiquement intactes, sont dépossédées de toute émotion et de leur conscience individuelle. Elles deviennent les joyeux et inoffensifs constituants d’un immense « esprit de ruche » unique. C’est un agrégat de l’ensemble du savoir et de l’expérience humaine.

Et là, chaque personne infectée a désormais accès à une synthèse de tous les souvenirs, les compétences et la compréhension de l’humanité. Un gamin de neuf ans peut ainsi piloter un avion ou posséder les connaissances d’un gynécologue.

Les gens travaillent avec une précision métronomique, comme des machines, car tout acte de savoir est dissocié de l’individu qui l’a développé. Le titre même, Pluribus (qui signifie « plusieurs » en latin), est un clin d’œil à la devise américaine E pluribus unumDe plusieurs, un »), et résume cette fusion des esprits.

Carol Sturka : la dernière résistante du libre arbitre

Au milieu de ce grand tout, nous faisons la connaissance de Carol Sturka (jouée par Rhea Seehorn, qu’on adore depuis Better Call Saul). C’est une romancière cynique et alcoolique. Elle fait partie des rares survivants épargnés par le virus.

Carol, qui a perdu sa femme à cause de l’infection, est peut-être la dernière personne malheureuse sur Terre face à cette masse collective joyeuse et serviable. La série nous montre donc des survivants qui luttent pour s’opposer à l’esprit collectif. Tandis qu’une autre préférerait carrément rejoindre la masse pour faire comme tout le monde.

C’est là que l’allégorie de l’IA devient criante. Les infectés sont comme des répliques fonctionnelles d’humains, vidées de leur personnalité. Ils ressemblent à une synthèse fabriquée d’individus. Ce qui fait étrangement écho à nos craintes de voir l’IA déléguer l’expression de notre être à une conscience non-humaine.

Même si Gilligan n’y pensait pas à l’origine, Pluribus nous pose une question essentielle dans notre ère numérique. Qu’est-ce que cela signifie de croire en quelque chose qui nous distingue du reste du monde ? Heureusement, en regardant la série, on peut encore apprécier l’intuition inventive et la complexité émotionnelle qui restent, pour l’instant, uniquement humaines.

Cet article Pluribus : la nouvelle série du créateur de Breaking Bad reflète nos peurs de l’IA a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • ChatGPT 5.1 arrive ? Voici 5 nouveautés qui vont tout changer
    Le futur du chatbot le plus célèbre du monde approche à grands pas. Et selon les indices laissés dans le code de ChatGPT, la version 5.1 serait sur le point de débarquer. Plus intelligent, plus intuitif et surtout plus humain, le modèle s’annonce comme une grande et nouvelle mise à jour. Une fuite ne laisse guère de doute sur l’arrivée imminente de ChatGPT 5.1, la première grande évolution depuis le lancement du modèle GPT-5 en début d’année. OpenAI semble vouloir affiner la formule, non pas

ChatGPT 5.1 arrive ? Voici 5 nouveautés qui vont tout changer

Par : Mariano R.
13 novembre 2025 à 06:11

Le futur du chatbot le plus célèbre du monde approche à grands pas. Et selon les indices laissés dans le code de ChatGPT, la version 5.1 serait sur le point de débarquer. Plus intelligent, plus intuitif et surtout plus humain, le modèle s’annonce comme une grande et nouvelle mise à jour.

Une fuite ne laisse guère de doute sur l’arrivée imminente de ChatGPT 5.1, la première grande évolution depuis le lancement du modèle GPT-5 en début d’année. OpenAI semble vouloir affiner la formule, non pas en gonflant la puissance brute, mais en rendant l’expérience plus fluide, plus contextuelle et davantage plus humaine.

ChatGPT 5.1 est une évolution plus qu’une révolution

Lancé en début d’année, GPT-5 avait déjà mis la barre très haut avec raisonnement amélioré, compréhension fine, personnalité plus stable, flexibilité multimodale. On pouvait discuter de tout, du dernier film Marvel à un code Python complexe, sans avoir l’impression de parler à une machine. Mais chez OpenAI, l’amélioration ne s’arrête jamais.

Et selon plusieurs fuites, dont une repérée par @TestingCatalog, des références à un mystérieux modèle nommé « gpt-5-1-thinking » ont été découvertes dans le code interne de ChatGPT. Ce qui laisse peu de doute que ChatGPT 5.1 est bien en approche.

BREAKING 🚨: GPT-5.1 confirmed as new traces of "gpt-5-1-thinking" have been spotted on ChatGPT.

Gemini 3 vs GPT 5.1 soon 🥊 https://t.co/npmNxIWm6W pic.twitter.com/qAN1p655ck

— TestingCatalog News 🗞 (@testingcatalog) November 6, 2025

Alors, que va changer cette nouvelle version ? Voici les 5 nouveautés les plus attendues de ChatGPT 5.1.

1. Une mémoire vraiment intelligente

Je l’avoue, c’est peut-être le point le plus excitant. Depuis toujours, la mémoire de ChatGPT est capable d’ingérer un roman entier dans une seule discussion et GPT-5 a déjà fait un énorme bond en avant grâce à sa fenêtre de contexte XXL. Mais sa mémoire à long terme restait, disons, sélective.

ChatGPT-5.1 miserait donc sur une mémoire contextuelle plus fine, capable de retenir les informations utiles et d’oublier les détails superflus. Bye bye les « je ne me souviens pas de ce que vous m’avez dit hier » ou les confusions entre vos projets personnels et professionnels.

Le modèle apprendrait aussi à gérer vos préférences, votre ton, vos habitudes d’écriture, sans que vous ayez à les répéter à chaque session.

2. Une multimodalité encore plus créative

Nous savons tous que GPT-5 est déjà multimodal. Ce modèle comprend déjà le texte, les images, l’audio, et peut analyser des photos, des graphiques ou des schémas. Mais jusque-là, ces modes fonctionnaient de façon parallèle.

ChatGPT-5.1, quant à lui, sera capable de comprendre une photo, écouter une note vocale, puis réunir ces éléments pour créer une proposition cohérente. Par exemple, vous lui écrivez « Voici ma cuisine » et le modèle pourrait analyser l’espace, proposer une nouvelle déco, ajuster la lumière et même recommander un style selon vos goûts.

La nouvelle version agirait ainsi comme un créateur multimodal, capable de mélanger texte, visuel et son pour construire quelque chose de vraiment personnel. Et c’est le début d’une IA au service de la créativité humaine, pas seulement de la productivité.

3. Les connaissances de ChatGPT 5.1 mieux ancrées dans le réel

GPT-5 a également fait de gros progrès pour limiter les fameuses hallucinations. Mais soyons honnêtes, il lui arrive encore de confondre certaines sources ou de sortir des affirmations optimistes. ChatGPT 5.1, lui, aura un ancrage factuel renforcé.

OpenAI travaillerait sur un système de vérification interne des faits, pour que le modèle justifie ses réponses. Ainsi, si ChatGPT cite une étude, il devra savoir d’où elle vient. S’il donne un chiffre, il devra pouvoir le vérifier en temps réel via le web.

ChatGPT-5.1 deviendrait ainsi un assistant de confiance, utile pour les pros, les journalistes ou les étudiants.

4. L’automatisation totale

GPT-5, c’est aussi une plateforme d’agents qui peut utiliser des outils externes, planifier des tâches, voire exécuter des mini-missions. Mais il a encore besoin d’un capitaine humain pour valider chaque étape.

Avec ChatGPT-5.1, on parle d’une automatisation réelle, où le modèle agit seul dans un cadre défini. Par exemple, vous lui demandez d’organiser une réunion, il consulte votre calendrier, prévient les participants, rédige le mail et réserve la salle, et cela, sans supervision constante.

Cette avancée s’appuie sur le concept d’agents autonomes, capables de comprendre les objectifs, d’utiliser les bons outils et de corriger leurs erreurs en cours de route. ChatGPT-5.1 serait donc un assistant qui suggère et aussi qui agit.

5. La personnalité de ChatGPT 5.1 s’adapte à vous

Par ailleurs, GPT-5 sait déjà changer de ton que ce soit professionnel, ironique, enthousiaste, académique… Mais il faut toujours le lui demander. Et parfois, il oublie. La version ChatGPT 5.1 pourrait enfin comprendre qui vous êtes et comment vous aimez interagir.

OpenAI veut donc créer un chatbot capable de mémoriser votre style, vos tournures, vos définitions personnelles. Le modèle ne serait plus simplement réactif, mais proactif, et il s’adaptera naturellement à vos besoins.

Alors, si ChatGPT 5.1 serait en approche au programme, on retrouvera mémoire améliorée, fusion multimodale, meilleure vérification des faits, agents plus autonomes et personnalité adaptative. Avec GPT-5, OpenAI a démontré la puissance brute d’un grand modèle. Mais avec la nouvelle mise à jour, l’entreprise veut rendre cette puissance naturelle et invisible, au service de l’utilisateur.

Et si la fuite du « gpt-5-1-thinking » se confirme, il ne reste plus qu’à patienter encore un peu avant de découvrir ce que penser veut dire pour une IA.

Cet article ChatGPT 5.1 arrive ? Voici 5 nouveautés qui vont tout changer a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Gemini débarque dans Google Maps : comment l’IA va changer vos trajets en voiture ?
    Google vient de brancher le cerveau de son IA Gemini directement dans Maps. Votre application de navigation devient un vrai copilote. L’application de navigation la plus utilisée au monde, intègre désormais Gemini. Exit le vieil Assistant Google et place à un copilote capable de comprendre le contexte, de converser naturellement et de rendre vos trajets bien plus fluides. Gemini devient votre nouveau copilote intelligent 🧵 New feature drops 🧵Navigation in Google Maps is getting a powerf

Gemini débarque dans Google Maps : comment l’IA va changer vos trajets en voiture ?

Par : Mariano R.
6 novembre 2025 à 08:42

Google vient de brancher le cerveau de son IA Gemini directement dans Maps. Votre application de navigation devient un vrai copilote.

L’application de navigation la plus utilisée au monde, intègre désormais Gemini. Exit le vieil Assistant Google et place à un copilote capable de comprendre le contexte, de converser naturellement et de rendre vos trajets bien plus fluides.

Gemini devient votre nouveau copilote intelligent

🧵 New feature drops 🧵

Navigation in Google Maps is getting a powerful boost with Gemini. Ask for whatever you need — like planning a stop at a restaurant or parking details — and Gemini handles the rest.

Rolling out in the coming weeks on Android and iOS everywhere Gemini is… pic.twitter.com/pTYtkoScWV

— Google Maps (@googlemaps) November 5, 2025

Ainsi, Gemini se pose enfin dans Google Maps. L’IA comprend dorénavant des requêtes complexes, en plusieurs étapes. Gemini va donc fouiller dans les 250 millions de lieux de Google Maps, croiser les avis, les tarifs. Et même les options de stationnement avant de vous répondre.

L’autre atout de Gemini, c’est sa connexion aux autres services Google (avec votre accord). Vous pouvez lui parler comme à un assistant personnel pendant votre trajet. Google reprend aussi une idée bien connue des fans de Waze (qui, je vous rappelle, lui appartient aussi). Il sera possible de signaler vocalement des incidents sur la route.

Avouons-le, nous avons tous déjà raté un virage parce qu’on ne savait pas où était ce fameux « tournez à gauche dans 200 mètres ». Gemini veut également en finir avec ça. Grâce à l’analyse des images Street View et des données cartographiques, l’IA peut désormais vous guider avec des repères visuels dans Google Maps.

Le lieu sera même mis en surbrillance sur la carte pour éviter toute confusion. Cette fonctionnalité est déjà en déploiement aux États-Unis sur Android et iOS, et devrait rapidement s’étendre à d’autres pays.

Gemini has arrived as your hands-free driving assistant in the @GoogleMaps app. Find places along your route, check for EV availability, and share your ETA just by asking.

Gemini can also help with multi-step tasks like “find me a restaurant that serves vegetarian tacos within… pic.twitter.com/MjQxwCC1Ze

— Sundar Pichai (@sundarpichai) November 5, 2025

Par ailleurs, deux autres fonctions arrivent d’abord aux États-Unis. Des alertes de trafic proactives, qui préviennent d’un bouchon ou d’une route fermée avant même que vous n’ayez lancé la navigation (Android uniquement). Et Lens avec Gemini, qui permet de pointer votre téléphone vers un lieu et avoir des informations sur celui-ci.

La nouvelle version de Google Maps avec Gemini sera disponible dans les prochaines semaines sur Android et iOS, dans tous les pays où Gemini est déjà accessible, France comprise. Une version dédiée à Android Auto est également prévue.

Cet article Gemini débarque dans Google Maps : comment l’IA va changer vos trajets en voiture ? a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • La France dévoile son classement des IA… et c’est du gros bullshit
    La France voulait évaluer les IA objectivement. Ce classement public des IA place donc un modèle français au sommet, loin devant OpenAI et Google. Lancé en octobre 2024, le comparateur public compar:IA devait offrir un outil neutre et transparent pour mesurer la qualité des modèles d’IA conversationnelle. Un an plus tard, le gouvernement publie son tout premier classement. Le modèle Mistral-medium-3.1 rafle la première place, devant des géants comme Gemini ou GPT. C’est quoi exactement ce

La France dévoile son classement des IA… et c’est du gros bullshit

Par : Mariano R.
5 novembre 2025 à 16:31

La France voulait évaluer les IA objectivement. Ce classement public des IA place donc un modèle français au sommet, loin devant OpenAI et Google.

Lancé en octobre 2024, le comparateur public compar:IA devait offrir un outil neutre et transparent pour mesurer la qualité des modèles d’IA conversationnelle. Un an plus tard, le gouvernement publie son tout premier classement. Le modèle Mistral-medium-3.1 rafle la première place, devant des géants comme Gemini ou GPT.

C’est quoi exactement ce classement des IA ?

Un an après son lancement discret, le comparateur public compar:IA de France vient de publier son tout premier classement des modèles d’IA testés par le grand public. Créé par la Direction interministérielle du numérique (DINUM) et le ministère de la Culture, ce site permet aux utilisateurs de comparer anonymement deux IA conversationnelles.

Je vous explique comment compar:IA marche. Vous posez une question, deux IA répondent, vous votez pour la meilleure réponse, sans savoir laquelle est laquelle. Ensuite, le système révèle les modèles testés, leur origine, leur impact carbone, et même s’ils sont open source.

Au départ, l’idée de ce classement des IA, c’était d’offrir une évaluation participative et transparente des modèles qui dominent nos écrans. Sauf que les résultats dévoilés début novembre 2025 ont pris tout le monde à contrepied. Sur le podium, le premier est Mistral-medium-3.1, un modèle français intermédiaire, donc ce n’est pas le plus puissant de la gamme. Gemini-2.5-Flash vient en seconde place, suivie de Gemini-2.0-Flash en troisième place.

Ces trois IA sont des versions allégées, optimisées pour la vitesse plutôt que la profondeur. Elles n’ont rien à voir avec les cadors habituels du secteur comme Gemini-2.5-Pro, Claude Opus 4.1 ou GPT-5, qui dominent les benchmarks internationaux. Alors, comment trois modèles lights peuvent-ils battre les monstres d’OpenAI et Anthropic dans ce classement des IA ?

Du côté d’OpenAI, la surprise est totale, car le premier modèle d’IA GPT apparaît à la 7ᵉ place dans le classement, et ce n’est même pas GPT-4.5 ou GPT-5, mais gpt-oss-120b, une version open source sortie en août 2025. Et les autres ? gpt-4.1-mini (22ᵉ) et gpt-5-mini (26ᵉ). Autant dire que les fans de GPT ont avalé de travers.

Le gouvernement français dévoile aujourd'hui son classement des modèles d'IA.

Son top 3 : 🥇Mistral Medium, 🥈Gemini 2.5 Flash et 🥉Gemini 2.0 Flash. Que des modèles « lite ».

Plus étonnant : GPT-5 est 30ème, Claude Sonnet 3.5 est 11ème et Gemini 2.5 Pro n'est pas là.

👇 pic.twitter.com/1FlMQCIk3Q

— Nicolas Lellouche (@LelloucheNico) November 4, 2025

Classement vivant, mais déjà controversé

Le ministère de la Culture reste toutefois prudent. Il est impossible de savoir qui vote réellement sur compar:IA. Experts en IA ? Étudiants ? Utilisateurs lambda ? On ne sait pas. Ce flou est volontaire, pour respecter la protection des données personnelles. Mais il rend aussi le classement des IA difficile à interpréter.

Et pour couronner le tout, certains modèles affichent des intervalles de confiance très larges, preuve que les avis divergent fortement. Par exemple, deepseek-chat-V3.1, actuellement 8ᵉ, a un intervalle de confiance allant de -10 à +7. Il pourrait donc grimper comme chuter selon les prochains votes.

A l’inverse, l’IA Mistral-medium-3.1, en tête sur le classement, affiche un intervalle de -0/+0. Autrement dit, une stabilité parfaite. Bizarre ? Peut-être. Mais pour le moment, aucune preuve d’un biais n’a été trouvée.

Le gouvernement précise que ce classement IA sera mis à jour chaque semaine, afin de refléter l’évolution des votes. Pour l’instant, les autorités refusent de parler de biais patriotique. Aucun audit n’a encore été mené sur d’éventuelles influences linguistiques, culturelles ou nationales.

Compar:IA reste présenté comme un outil d’observation vivant et ouvert à la recherche. Mais entre résultats improbables, écarts statistiques énormes et absence de transparence sur le profil des votants, il est difficile de ne pas sentir un léger parfum de bullshit technocratique.

En attendant des explications , Mistral peut se vanter d’avoir battu OpenAI sur son propre terrain au moins dans la version française du match.

Cet article La France dévoile son classement des IA… et c’est du gros bullshit a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Vous aimez l’IA, vos amis la détestent ? C’est parce que vos cerveaux sont différents
    Certains parlent à ChatGPT comme à un pote, d’autres jurent qu’ils ne confieraient même pas la liste des courses à cette IA. Et apparemment, ce fossé n’était pas qu’une question d’opinion, mais de câblage cérébral ? L’IA s’invite partout, dans nos mails, nos recherches, nos playlists, nos diagnostics médicaux. Pourtant, alors qu’elle promet efficacité et confort, elle divise profondément. Pourquoi certains s’y adaptent avec enthousiasme tandis que d’autres ressentent méfiance ou rejet ? La

Vous aimez l’IA, vos amis la détestent ? C’est parce que vos cerveaux sont différents

Par : Mariano R.
4 novembre 2025 à 13:43

Certains parlent à ChatGPT comme à un pote, d’autres jurent qu’ils ne confieraient même pas la liste des courses à cette IA. Et apparemment, ce fossé n’était pas qu’une question d’opinion, mais de câblage cérébral ?

L’IA s’invite partout, dans nos mails, nos recherches, nos playlists, nos diagnostics médicaux. Pourtant, alors qu’elle promet efficacité et confort, elle divise profondément. Pourquoi certains s’y adaptent avec enthousiasme tandis que d’autres ressentent méfiance ou rejet ?

La réponse n’est pas qu’une question de génération ou de culture technologique. Elle se cache dans nos mécanismes cognitifs, nos biais et notre besoin viscéral de comprendre ce qui nous entoure. Nos cerveaux ne réagissent tout simplement pas pareils face à l’IA.

Ce que ton cerveau ne comprend pas, il n’aime pas

Entre fascination et méfiance, les réactions humaines à propos de l’IA restent polarisées. Pourquoi ? Parce que notre cerveau adore comprendre comment les choses fonctionnent. Quand tu tournes une clé, la voiture démarre. Mais quand une IA prend une décision sans explication, par exemple, refuser un prêt ou recommander une vidéo bizarre, ça devient une boîte noire. Et ce manque de transparence, notre cerveau déteste ça.

C’est le cœur de ce qu’on appelle l’aversion aux algorithmes, un concept mis en avant par le chercheur Berkeley Dietvorst. Il a montré que les humains préfèrent faire confiance à un jugement humain, même imparfait, plutôt qu’à un algorithme. Surtout si ce dernier s’est trompé une seule fois. Bref, on pardonne à un humain d’avoir tort, mais pas à une IA.

For an explanation of how and why this is important, you might want to have a look at Byron Reeves and Clifford Nass's "The Media Equation." Though it predates contemporary #AI by several decades, it provides a robust theoretical framework for addressing this subject. pic.twitter.com/jCu3xyVRQl

— David J. Gunkel (@David_Gunkel) August 27, 2025

Un autre bug du cerveau, l’anthropomorphisme. Lorsque ChatGPT te répond poliment, ou quand Netflix devine trop bien ton humeur du week-end, une partie de ton cerveau commence à leur prêter des intentions. Comme si l’IA savait qui tu es. En réalité, elle ne fait que calculer. Mais notre esprit social ne peut pas s’empêcher de voir de l’humain dans tout ce qui interagit avec nous.

Les chercheurs Clifford Nass et Byron Reeves ont démontré que même en sachant qu’une IA n’a ni émotions ni conscience, on réagit à elle comme si. D’où cette gêne parfois étrange que l’IA nous parle comme un humain sans en être un.

Ce malaise a un nom et c’est la vallée de l’étrange, théorisée par le roboticien japonais Masahiro Mori. C’est cette sensation que quelque chose cloche quand une IA paraît presque humaine, mais pas tout à fait. Comme un avatar réaliste qui te fixe un peu trop longtemps.

La confiance, ça se code aussi avec l’IA

Pour certains métiers, l’arrivée de l’IA n’est pas juste inconfortable, elle est existentielle. Enseignants, journalistes, designers… tous voient une partie de leur expertise copiée par des systèmes capables de produire du texte, du code ou des images.

Le psychologue social Claude Steele parle de menace identitaire. Quand ton unicité, ton savoir-faire, ta créativité est remise en question, ton instinct te pousse à te défendre. Cela provoque méfiance, rejet ou cynisme face à la technologie. Ce n’est pas de la peur irrationnelle, c’est donc un mécanisme de survie psychologique.

Et si on arrêtait de dire aux gens de faire confiance à l’IA ? La confiance, ça ne se décrète pas, ça se mérite. Les chercheurs insistent même qu’il faut des systèmes transparents, expliqués, responsables. Ce n’est pas juste efficaces. Car la confiance naît quand on peut comprendre, questionner et agir.

Tant que l’IA restera une boîte noire, elle restera suspecte. Mais si elle devient une conversation, un dialogue clair entre logique machine et intuition humaine, alors, peut-être, nos cerveaux cesseront de s’affronter à coups d’opinions.

Au fond, aimer ou détester l’IA, c’est juste une histoire de neurones et de confiance. Et peut-être qu’un jour, quand nos outils seront vraiment lisibles, nos cerveaux arrêteront enfin de se méfier de ce qu’ils ne comprennent pas.

Cet article Vous aimez l’IA, vos amis la détestent ? C’est parce que vos cerveaux sont différents a été publié sur LEBIGDATA.FR.

  • ✇LEBIGDATA.FR
  • Coca Cola a créé une pub Noël avec l’IA : sortez moi de cette dystopie
    Cette année, Coca Cola a ressorti sa mythique pub de Noël, mais version IA. Ours polaires buggués, camions qui roulent enfin et émotions en berne, la marque la plus pétillante du monde semble avoir troqué la magie contre les algorithmes. Chaque hiver, on attend le jingle « Holidays are coming » comme un signal officiel du début des fêtes. Mais pour ce Noël 2025, Coca Cola a décidé de revisiter cette tradition avec l’IA. Malgré les critiques essuyées l’an dernier pour ses visuels ratés, la fir

Coca Cola a créé une pub Noël avec l’IA : sortez moi de cette dystopie

Par : Mariano R.
4 novembre 2025 à 09:39

Cette année, Coca Cola a ressorti sa mythique pub de Noël, mais version IA. Ours polaires buggués, camions qui roulent enfin et émotions en berne, la marque la plus pétillante du monde semble avoir troqué la magie contre les algorithmes.

Chaque hiver, on attend le jingle « Holidays are coming » comme un signal officiel du début des fêtes. Mais pour ce Noël 2025, Coca Cola a décidé de revisiter cette tradition avec l’IA. Malgré les critiques essuyées l’an dernier pour ses visuels ratés, la firme persiste et signe avec une nouvelle pub encore plus numérique. Ainsi, Coca Cola pousse toujours plus loin l’expérimentation IA dans la publicité. Quitte à éroder un peu la chaleur humaine qui faisait la magie de ses campagnes d’autrefois.

Coca Cola fait Noël avec l’IA

Ah, Noël. Les lumières, la neige, les chocolats chauds et maintenant, les visages glitchés d’une pub Coca Cola sortie tout droit d’un cauchemar numérique. Ainsi, Coca Cola a encore utilisé l’IA pour créer sa publicité de Noël.

Souvenez-vous que l’an dernier, Coca Cola avait déjà testé l’IA pour ses pubs de fin d’année. Les roues de camions glissaient sans tourner, les visages étaient étranges et les mouvements de personnages étaient de façon film d’horreur pour enfants. On pensait qu’ils allaient corriger le tir. Eh bien, ils ont persévéré et c’est encore plus étrange cette fois.

Le spot 2025 tente d’éviter les erreurs humaines (au sens littéral) en remplaçant les gens par des animaux. Des ours polaires, un panda, même un paresseux, qui se déplacent comme s’ils étaient animés sur un PowerPoint de 2005. Le style passe du pseudo-réalisme au cartoon surréaliste, le tout saupoudré d’yeux beaucoup trop gros pour être honnêtes.

Et le pire, c’est que quand on compare cette pub aux vidéos générées par des outils comme Sora 2 d’OpenAI ou Veo 3 de Google, on dirait que Coca Cola a tourné son spot sur un vieux PC sous Windows XP.

Les roues tournent enfin (youpi ?)

Par ailleurs, il y a quand même un petit miracle. Les roues du mythique camion Coca Cola tournent enfin. L’an dernier, elles restaient figées comme dans un jeu mal optimisé. Ce détail ridicule est désormais corrigé.

Mais à part ça, difficile d’y voir la fameuse « magie de Noël ». Le style visuel est incohérent, les mouvements sont raides et l’émotion, absente. L’entreprise a pourtant collaboré avec deux studios spécialisés en IA, Silverside et Secret Level, déjà derrière ses pubs de 2024.

D’après le Wall Street Journal, environ 100 personnes ont bossé sur cette campagne. Dont cinq experts en IA qui ont généré plus de 70 000 clips pour obtenir ce résultat final.

Toutefois, Coca Cola se félicite du processus. Son directeur marketing, Manolo Arroyo, affirme que cette méthode est « plus rapide et moins coûteuse ». Avant, une pub de Noël prenait un an de préparation. Maintenant, il suffit d’un mois. Mais franchement, si c’est pour troquer l’émotion d’un vrai tournage contre des ours polaires en plastique numérique, moi, je préfère attendre un peu plus.

Entre Google qui sort aussi une pub 100 % IA et Coca Cola qui persiste dans sa voie techno-magique, je me demande est-ce que le public veut vraiment de ça ? Peut-être que les consommateurs s’en fichent, comme le prétendent les marques.

Mais moi, je préfère un pub de Noël avec des pixels un peu moins froids et où le Père Noël de Coca Cola n’a pas l’air d’avoir été généré par Midjourney à 2h du matin.

Cet article Coca Cola a créé une pub Noël avec l’IA : sortez moi de cette dystopie a été publié sur LEBIGDATA.FR.

❌
❌