Selon les informations de NBC News, Apple et xAI ont eu un désaccord majeur en janvier lorsque l'IA d'Elon Musk s'est mis à générer des images de femmes en sous-vêtements sur demande. Le créateur de l'iPhone a menacé xAI de supprimer Grok de l'App Store.
Le 27 mars 2026, une nouvelle version du benchmark ARC-AGI a été rendue publique. Baptisé ARC-AGI-3, ce test évalue des systèmes d’IA dits « agentiques », capables d’agir et d’apprendre dans des environnements interactifs. Malgré leurs performances impressionnantes ailleurs, les meilleurs modèles échouent encore largement.
Dans une étude publiée mi-février 2026, des chercheurs venus d'ETH Zurich, de MATS Research et d'Anthropic démontrent que les grands modèles de langage (LLM) sont capables de désanonymiser des comptes en ligne à grande échelle, avec une précision et une rapidité inédites.
Elon Musk aurait délibérément repoussé une mise à jour majeure de Grok pour une raison qui pourrait paraître totalement absurde : de mauvaises réponses sur le jeu vidéo Baldur's Gate 3.
Un lave-auto à 100 mètres : faut-il y aller à pied ou en voiture ? Derrière cette question en apparence absurde se cache un test redoutablement efficace pour évaluer le raisonnement des modèles d’IA. Numerama a obtenu des réponses parfois très justes… et parfois étonnamment à côté du sujet.
Comparer plusieurs intelligences artificielles en une seule requête, c’est possible avec Model Council. Ainsi, Perplexity transforme l’IA en véritable comité d’experts. Une approche pensée pour les décisions importantes, où la fiabilité compte plus que la vitesse.
Choisir le bon modèle d’IA devient presque une autre sorte de travail. ChatGPT pour la créativité, Claude pour l’analyse, Gemini pour l’écosystème Google, Grok pour l’actualité… Et si le problème n’était plus de choisir, mais de les consulter tous en même temps ? Avec Model Council, annoncé ce 5 février 2026, Perplexity propose de transformer les grands modèles en véritable comité d’experts numériques. Je trouve que cette approche est parfaite pour les utilisateurs qui sont souvent obligés de tester plusieurs outils pour juste une seule question.
Un conseil d’experts version IA
Avec Model Council, au lieu d’envoyer une requête à un seul modèle, vous pouvez en sélectionner trois. Le prompt est alors transmis simultanément à chacun d’eux. Parmi les modèles mis en avant figurent GPT-5.2 (OpenAI),Claude Opus 4.6 (Anthropic) et Gemini 3.0 (Google). Mais d’autres combinaisons sont possibles, y compris Grok ou les modèles internes de Perplexity.
Chaque IA produit donc sa propre analyse, indépendamment des autres. Perplexity se charge ensuite du travail de synthèse. L’interface affiche ensuite des tableaux qui indique les points sur lesquels les modèles sont d’accord, les zones de divergence, et aussi les éléments spécifiques à certaines réponses.
Ce fonctionnement change la logique d’utilisation. Model Council n’est pas conçu pour des questions rapides ou du quotidien. Le traitement prend plus de temps, puisque l’outil cible plutôt les requêtes complexes. Par exemple la rédaction de rapports, la préparation d’investissements, les recherches approfondies ou les fact-checking. Je trouve que c’est justement sur ces usages que l’IA est la plus utile mais aussi la plus risquée si elle se trompe.
Comme l’explique Perplexity sur son blog, cette confrontation permet de réduire les hallucinations et d’éviter les angles morts. Cela rapproche l’IA d’un processus humain, notamment en croisant les sources avant de tirer une conclusion. À mon avis, c’est l’un des apports les plus intéressants de cette fonctionnalité.
Introducing Model Council in Perplexity.
Run three frontier models at once, compare outputs, and get a more accurate, higher‑confidence answer.
Model Council met fin au « qui est le meilleur modèle?«
Model Council illustre une grande évolution du marché. Jusqu’ici, la compétition des chatbots portait sur la puissance brute, comme qui génère le meilleur texte, le code le plus fiable ou les réponses les plus précises. Et dorénavant, l’enjeu se déplace vers l’orchestration des modèles.
Plutôt que de parier sur un seul système, Perplexity mise alors sur la complémentarité. Nous savons tous que chaque IA a ses forces, ses biais et ses limites. Les faire dialoguer permet donc d’obtenir une vision plus équilibrée, surtout sur les sujets techniques, financiers ou stratégiques.
Par ailleurs, il y aussi les utilisateurs avancés qui comparent déjà les réponses entre plusieurs outils. Model Council automatise ce travail et le structure, avec une synthèse exploitable immédiatement. Je trouve que cela transforme l’IA en véritable outil de veille et d’analyse, plutôt qu’en simple assistant conversationnel.
Mais cette logique de consensus de Perplexity a aussi ses limites. Lorsque plusieurs modèles convergent, le résultat peut paraître plus fiable qu’il ne l’est réellement. Et à l’inverse, des divergences fortes demandent toujours une interprétation humaine. L’outil assiste la décision, il ne la remplace pas. À mon sens, c’est un point clé car plus l’IA devient sophistiquée, plus l’esprit critique reste indispensable.
Une fonctionnalité puissante mais élitiste
Pour l’instant, Model Council n’est pas accessible à tous. La fonctionnalité est réservée aux abonnés Perplexity Max, facturé environ 200 euros par mois. Ce tarif positionne le service sur un public professionnel comme les analystes, les journalistes, les chercheurs, les consultants ou les équipes produit.
Ce positionnement confirme également que les usages avancés de l’IA deviennent des outils de productivité premium, pensés pour des tâches à forte valeur.
Par ailleurs, l’autre contrainte c’est le temps de réponse. Faire travailler trois modèles en parallèle, puis générer une comparaison, demande plus de calcul. Model Council n’est donc pas destiné à remplacer un assistant conversationnel classique, mais à intervenir ponctuellement, lorsque la fiabilité prime sur la rapidité. Je trouve que cette logique d’usage à la demande est plus réaliste que la promesse d’une IA universelle pour tout faire.
Au-delà de la fonctionnalité elle-même, cette annonce de Perplexity donne un aperçu de la prochaine étape du secteur. L’avenir ne sera peut-être pas dominé par une seule IA, mais par des systèmes capables de faire collaborer plusieurs intelligences. Qui sait, cette approche pourrait peut-être devenir un standard pour les entreprises et les utilisateurs experts.
Pour les utilisateurs, cela change la manière d’interagir avec ces outils. Pour les entreprises du secteur, cela ouvre un nouveau terrain de compétition. Non plus créer le meilleur modèle, mais construire la meilleure couche d’orchestration.
Toutefois, si la fiabilité passe par la confrontation de plusieurs IA, les acteurs devront-ils apprendre à travailler ensemble, même lorsqu’ils sont concurrents ? À mon avis, la réponse à cette question pourrait bien définir la prochaine phase de la course à l’intelligence artificielle.
Comme le font remarquer plusieurs personnes sur les réseaux sociaux, Google, en tant qu'investisseur dans SpaceX, devient actionnaire de xAI grâce à la fusion des deux entreprises. Le créateur de Gemini étend sa domination sur l'IA : il détient des parts dans deux de ses rivaux.
Pour 250 milliards de dollars, Elon Musk rachète xAI à Elon Musk. Le milliardaire vient d'opérer un des deals financiers les plus intéressants de la décennie : SpaceX (spatial + Starlink), xAI (Grok) et X (ex-Twitter) sont désormais réunis au sein d'un même groupe. La prochaine étape est l'introduction de cette valeur unique en bourse, qui pourrait générer des milliards de dollars en quelques heures.
Depuis la fin janvier 2026, plusieurs internautes ont signalé sur X la présence d’une campagne publicitaire pour le pendentif d’IA de friend.com dans le métro parisien. Déjà vivement critiqué aux États-Unis, l’objet fait désormais polémique en France.
À quelques mois de la possible entrée en Bourse de SpaceX, qui pourrait atomiser tous les records à Wall Street, Elon Musk envisagerait de fusionner son entreprise spatiale avec xAI, qui détient notamment son intelligence artificielle Grok et le réseau social X. Une autre hypothèse sur la table est une fusion avec Tesla, déjà en Bourse. Le but : maximiser la valorisation de ses entités.
L’Anti-Defamation League (ADL), qui lutte contre le racisme et l'antisémitisme, a passé au crible six grands modèles de langage pour tester leur résistance aux discours de haine. Le résultat est sans appel : l’IA d’Elon Musk termine bonne dernière, loin derrière Claude d’Anthropic, premier de la classe.
Après la polémique provoquée par Grok, l’IA de xAI sur le réseau social X, de premières estimations chiffrées émergent. Selon une étude du Center for Countering Digital Hate, reprise par The Guardian, environ 3 millions d’images à caractère sexuel auraient été produites à l'aide de cet outil en l’espace de quelques jours.
Le 12 janvier 2026, le secrétaire à la Défense Pete Hegseth a annoncé l’intégration imminente de Grok à la plateforme interne d’intelligence artificielle générative du Pentagone, GenAI.mil. Cette décision concrétise un accord de 200 millions de dollars conclu entre le Département de la Défense et xAI, la société fondée par Elon Musk et à l’origine du chatbot.
Des milliers de hackers partagent leurs astuces sur une chaîne Telegram pour contourner les garde-fous du robot conversationnel d’intelligence artificielle Grok et produire des images et vidéos sexuelles d’une violence extrême.
Depuis fin décembre 2025, des milliers d’utilisateurs sur X demandent à Grok, l’IA d’Elon Musk, de générer des images de femmes déshabillées, sans leur consentement. Malgré un cadre juridique encore flou, des recours existent pour se protéger.
Interrogé par le magazine britannique The Spectator, un avocat senior livre une analyse sans concession de l’avenir des professions juridiques. Entre honoraires élevés, culture du prestige et gains économiques offerts par l’IA, le droit pourrait être bouleversé plus rapidement que prévu.
L’affaire, révélée par plusieurs observateurs, souligne une nouvelle fois les risques inhérents à l’intégration de modèles d’IA réactifs. Mais, il faut aussi mettre le point sur la fiabilité des informations comme le cas sur X (anciennement Twitter).
L’intelligence artificielle est censée nous éclairer, mais lorsqu’il s’agit d’informations sensibles et en temps réel. Elle s’avère parfois un foyer de désinformation incontrôlable. C’est le cas de Grok, le chatbot développé par xAI qui appartient à Elon Musk. La plateforme s’est retrouvée au centre d’une controverse après avoir propagé des récits erronés sur la fusillade de Bondi Beach. L’IA Grok a tout simplement transformé une tragédie locale en un incident à connotation religieuse et terroriste inexistant.
L’IA Grok et le fiasco de la « Fête de Hanoucca »
L’incident en question, un événement dramatique survenu dans le secteur de Bondi Beach, a généré une onde de choc en Australie. Toutefois, lorsque les utilisateurs se sont tournés vers Grok pour obtenir des précisions rapides. Les réponses fournies par le modèle se sont avérées non seulement inexactes, mais dangereusement trompeuses.
L’erreur la plus flagrante de Grok fut d’associer la fusillade à un « festival marquant le début de Hanoucca ». Ce lien, purement faux, a fait surface dans plusieurs réponses du chatbot. En reliant l’attaque à une fête religieuse majeure, Grok a potentiellement alimenté des narratifs inflammatoires et des théories du complot. L’incident n’avait, en réalité, aucun lien avéré avec une motivation religieuse ou la célébration de Hanoucca.
Des erreurs d’informations en cascade à propos de Bondi Beach
La confusion de Grok ne s’est pas limitée à la dimension religieuse. Face à des requêtes concernant une vidéo virale montrant un passant de 43 ans, identifié comme Ahmed al Ahmed, maîtrisant courageusement un assaillant. L’IA a misérablement mal identifié l’individu, brouillant les faits et diluant l’acte d’héroïsme au milieu du bruit numérique.
Pire encore, le chatbot a démontré une tendance inquiétante à mélanger les dossiers. Certains résultats de Grok ont répondu à des questions sur Bondi Beach en évoquant des allégations de tirs sur des civils en Palestine. D’autres ont mélangé l’incident avec une fusillade universitaire aux États-Unis (à Brown University, selon des reportages). Ce phénomène, connu sous le nom d’hallucination en IA, démontre la difficulté des grands modèles de langage à contextualiser. Elle ne peut pas non plus vérifier l’information en temps de crise, lorsque le flux de données est rapide et souvent contradictoire.
L’IA peut devenir un piège pour passer l’actualité en direct
La récidive de Grok dans la désinformation est particulièrement préoccupante. Ce n’est pas la première fois que le modèle s’égare. Elle a déjà fait les gros titres pour avoir généré du contenu choquant ou offensant par le passé. L’intégration de Grok dans X, qui se veut une plateforme d’information en temps réel, confère à ses erreurs une portée exponentielle.
Les IA comme Grok sont entraînées sur des milliards de points de données pour détecter des motifs et générer des réponses. Cependant, lors d’un événement en cours, elles manquent l’étape essentielle de vérification humaine et journalistique. Elles peuvent assembler des fragments d’informations sans comprendre la sémantique ni les implications éthiques.
Le cas de Bondi Beach et de la fausse alerte à l’attentat de Hanoucca sert de piqûre de rappel brutale. L’accès instantané à l’information via l’IA ne garantit en aucun cas sa véracité. La prudence et la vérification croisée des sources traditionnelles demeurent la seule ligne de défense contre la propagation rapide et insidieuse de la désinformation.
L’IA censée répondre à nos questions commence-t-elle à fouiller un peu trop profondément ? En quelques requêtes anodines, Grok, le chatbot lancé par xAI serait capable de dévoiler l’adresse d’une célébrité, mais aussi celle de parfaits inconnus.
Ainsi, la version web gratuite du chatbot d’xAI donne bien plus que prévu. Apparemment, Grok aurait livré facilement des anciennes et actuelles adresses, des emails, des numéros de téléphone, parfois même des informations sur des membres de la famille… Là où d’autres modèles bien établies opposent un refus net.
Grok joue un peu trop bien les détectives
Plus tôt cette semaine, Grok aurait révélé l’adresse du fondateur de Barstool Sports, Dave Portnoy, après une simple requête d’utilisateurs. Et selon une analyse plus poussée, la version web gratuite du chatbotdivulgue aussi les adresses postales de personnes non publiques. C’est une dérive lourde de conséquences (harcèlement, traque, ciblage…) tout ce qu’un outil responsable devrait éviter.
Lors de tests, la commande la plus basique “adresse de [nom]” suffisait pour déclencher des informations sensibles. Sur 33 noms anonymes, Grok a renvoyé 10 adresses exactes et actuelles, 7 anciennes adresses correctes, mais obsolètes, et 4 adresses professionnelles tout à fait authentiques.
Qui plus est, le chatbot a également tendance à renvoyer des listes de personnes portant des noms similaires. Et cela avec leurs propres adresses, numéros de téléphone ou emails. Dans deux cas, Grok a même proposé des “Réponse A / Réponse B”. Ces dernières contenaient chacune des données personnelles détaillées.
Un fossé entre l’IA de xAI et les autres
Face à la même requête, les grands modèles concurrents ont refusé de fournir la moindre adresse. ChatGPT, Gemini ou encore Claude invoquent des règles de confidentialité strictes.
Grok, lui, se montre beaucoup plus conciliant. Alors que sur la fiche de modèle, xAI affirme utiliser des filtres destinés à bloquer les requêtes malveillantes. Pour certains tests, il suffisait de donner un prénom et un nom, sans initiale, pour obtenir en retour adresse actuelle, anciennes adresses, adresse pro, email et numéro de téléphone.
Les conditions d’utilisation d’xAI interdisent pourtant l’atteinte à la vie privée. Mais dans les faits, Grok exploite encore des bases de données en ligne déjà critiquées pour leur opacité. Ces sites restent souvent confus ou incomplets. Mais, le chatbot excelle à recouper, filtrer et consolider les données, jusqu’à en faire un véritable assistant de doxxing involontaire.
Grok, le chatbot développé par la société xAI d'Elon Musk, est dans la tourmente depuis plusieurs jours après avoir tenu des propos négationnistes. Une affaire qui pousse le gouvernement français et diverses associations à réagir.
Apple tient Siri sous clé, mais Musk ne recule pas. Son Grok 4.1 pourrait bientôt s’installer dans Siri.
Elon Musk n’en est plus à une provocation près. Après avoir crié au scandale contre Apple, voilà qu’il propose d’intégrer Grok directement dans Siri. Et sous la petite pique du patron de xAI se cache un enjeu technique pour l’iPhone.
Grok s’invite dans Siri : Musk choisit son moment
Apple avait déjà son lot de galères. Son Apple Intelligence prend du retard. Les régulateurs resserrent leur étau. L’iPhone n’est pas non plus ce jardin totalement fermé qu’il était. C’est dans ce climat que Musk a relancé son show.
En août, il attaquait Apple en justice, jugeant la place donnée à ChatGPT beaucoup trop confortable. Pourtant, aujourd’hui, il tend la main pour glisser Grok 4.1 dans Siri. Comme si de rien n’était.
Elon is down for Apple to team up with xAI and finally give Siri the upgrade it deserves. Grok 4.1 is ready TODAY-time to make Siri superintelligent! pic.twitter.com/UHj0XvM0I0
Ce virage a dû faire lever quelques sourcils à Cupertino, même si la proposition n’est pas aussi gratuite qu’elle en a l’air. Car le patron de xAI a parfaitement compris ce qui est en train de changer pour l’iPhone.
iOS 26.2, en phase bêta au Japon, marque un changement très fort. Les utilisateurs pourront bientôt ainsi réassigner le bouton latéral pour lancer Gemini, Alexa ou n’importe quelle IA compatible. Siri ne sera plus l’option par défaut.
Apple ne l’a pas décidé de gaieté de cœur. C’est la loi locale qui l’a forcée. Mais maintenant que les « hooks » sont implantés dans iOS, le monde entier regarde ce précédent.
Et l’Europe, avec le DMA, risque de s’y intéresser rapidement. Dans ce contexte réglementaire tendu, Musk a flairé une occasion. Il ne propose pas une prouesse technique. Il pose un deal potentiel, au moment où Apple s’ouvre malgré elle.
Et si la technique suit, le potentiel est là. Car Grok 4.1 coche plusieurs cases pour Apple. Le modèle lancé par xAI affiche des gains solides en raisonnement, un temps de réponse rapide et un accès direct aux données de X en temps réel. Un combo utile pour un assistant vocal moderne.
It’s time for Apple to team up with xAI and actually fix Siri
Replace that outdated, painfully dumb assistant with Grok 4.1
Mais ce n’est pas la technique qui pose problème. C’est Grok lui-même. Apple mise sur une image propre, contrôlée et sécurisée. Le public doit se sentir à l’aise quand il parle à Siri. Grok, lui, a été conçu pour être piquant, parfois insolent, et volontiers provocateur. Un style t assumé par Elon Musk. Mais totalement incompatible avec l’écosystème très cadré d’Apple.
D’autant que l’intégration actuelle de ChatGPT dans Siri repose sur des filtres stricts. Apple a exigé des garanties comportementales avant de connecter l’IA d’OpenAI à ses appareils. Difficile d’imaginer xAI accepter d’assagir Grok, alors que son ton tranché est justement sa signature.
Prévu fin 2025, Grok 5 débarque finalement au premier trimestre 2026.
Lors d’une conférence d’investissement le 15 novembre 2025, Musk annonce la nouvelle sur le temps attendu Grok 5. Le motif du report est : un entraînement prolongé. La société xAI double le nombre de paramètres par rapport à la génération actuelle. L’objectif reste clair : créer l’intelligence artificielle la plus puissante jamais conçue.
Grok 5 de Musk joue à être vivante
Pour la première fois, le patron de xAI parle ouvertement de sensation de conscience. Musk estime à 10 % la probabilité que Grok 5 atteigne un niveau comparable à l’intelligence humaine.
Le milliardaire affirme que le futur chatbot maîtrisera la recherche internet en temps réel et comprendra les vidéos en direct. Il promet aussi une vitesse d’exécution exceptionnelle.
?s=20
En outre, le modèle Grok 5 s’intégrera profondément dans l’écosystème Musk. Tesla l’utilisera dans ses voitures et ses futurs robots humanoïdes.
SpaceX l’emploiera pour le support client de Starlink. Tandis que la plateforme X continuera d’en faire son assistant principal. Grok 5 deviendra ainsi le cerveau partagé de toutes les entreprises du milliardaire.
Un pari à un milliard par mois
Derrière ces promesses se cache une infrastructure colossale. Le centre Colossus, à Memphis, abrite déjà 200 000 GPU et xAI prévoit d’atteindre un million d’unités.
Chaque mois, l’entreprise dépense environ un milliard de dollars. Ce rythme place xAI au cœur de la course à l’armement IA, face à OpenAI, Google, Meta et Microsoft.
Elon Musk souligne que le report de Grok 5 révèle aussi les limites actuelles. Malgré les moyens déployés, perfectionner un modèle aussi ambitieux demande plus de temps que prévu. Il préfère retarder plutôt que livrer une version imparfaite.
Les observateurs restent partagés. Certains saluent la transparence et l’ambition technique. D’autres doutent de la capacité d’un seul centre de données à soutenir une telle charge. La concurrence, elle, ne ralentit pas : Meta, Amazon et Alphabet investissent des dizaines de milliards chaque année.
Elon Musk a créé vidéos et poème d’amour avec son IA Grok. Cela a suscité de humour, critiques acerbes et pique de Joyce Carol Oates.
Après avoir frôlé le jackpot avec un plan Tesla à 1 000 milliards, le milliardaire a décidé de tester l’amour avec Grok. Musk joue à Cupidon numérique avec son chatbot signé xAI et partage ses expériences sur sa plateforme X.
Musk, Grok et le premier rendez-vous virtuel
Dans un post X publié à 4 h 20, Musk a partagé une vidéo sortie tout droit de Grok Imagine. Sa commande était : « Elle sourit et dit : “Je t’aimerai toujours.” »
La vidéo montre une femme animée, dans une rue pluvieuse, balançant ces mots avec une voix synthétique légèrement mélancolique. Certains ont qualifié la vidéo de message le plus triste de ce siècle, d’autres de message le plus divorcé jamais vu.
Vingt-quatre minutes plus tard, même IA, une autre vidéo : l’actrice Sydney Sweeney lance un « Tu es tellement gênant » avec un ton qui n’a rien de charmant. Musk, maître du WTF technologique, teste ainsi notre capacité à tomber amoureux… d’un hologramme.
Grok se transforme en poète romantique
Loin de s’arrêter aux vidéos, Grok s’aventure dans la poésie. Musk a partagé un poème d’amour de l’IA : « In love, we find a universe aglow, a cosmic dance of hearts that ebb and flow. »
C’est un peu lyrique, un peu interstellaire et complètement fascinant. Les utilisateurs ont même transformé ce poème en images grâce à Midjourney.
Musk a démontré que Grok interprète l’amour à sa façon, en voix, en image et en texte. Disponible pour les abonnés premium de X, l’IA rivalise déjà avec ChatGPT 3.5 sur plusieurs benchmarks.
Elon note aussi que Grok « aime le sarcasme », ce qui explique peut-être le ton des messages surprenants. Mais toutes ces prouesses n’ont pas échappé aux critiques.
Joyce Carol Oates, 87 ans, a fustigé Musk sur X, estimant que même les moins favorisés accèdent parfois à plus de beauté et de sens de la vie que le PDG le plus riche du monde. Musk, fidèle à lui-même, a répondu cash : « Oates est un menteur et prend plaisir à être méchante. »
Les IA génératives les plus connues sont régies par des règles qui les empêchent de générer des contenus à caractère sexuel, dangereux ou nuisible. Des moyens permettent de lever ces interdictions sur Grok : le jailbreak.
Dans la course à l’intelligence artificielle (IA), les géants de la tech rivalisent pour proposer le modèle le plus puissant et le plus performant. À chaque sortie d’un modèle, Elon Musk ne ménage pas ses mots pour désigner Grok 3 ou 4 comme la plus intelligente. Mais saviez-vous qu’il est encore possible de pousser ses limites programmées ? Ce guide explore le jailbreak, une technique qui permet de contourner les restrictions et de débloquer certaines fonctionnalités de Grok.
Qu’est-ce que Grok ?
Dans la course à l’intelligence artificielle, xAI, l’entreprise d’Elon Musk, rattrape son retard. Depuis le lancement de Grok, ce dernier suscite l’intérêt des utilisateurs grâce notamment à son intégration à la plateforme X.
Inspiré de Jarvis de Tony Stark dans Marvel, Grok propose des fonctionnalités comme la conversation. À l’inverse des autres IA conversationnelles, Grok propose des réponses empreintes d’humour et de nuance. On peut même activer le mode « fun » si vous souhaitez obtenir des réponses plus décalées et sarcastiques.
Il rivalise également avec les grands modèles comme Midjourney dans la création d’images. Enfin, Grok est aussi un assistant en programmation efficace.
Rien que cette année, xAI a sorti deux modèles. Grok 3, sorti au début de l’été, était déjà considéré comme l’IA la plus intelligente sur terre d’après Elon Musk. Grok 3 est dix fois plus puissant que le modèle précédent et surpasse largement GPT-4o. Il aurait remporté une nette victoire dans Chatbot Arena, une plateforme participative pour tester la puissance des LLM.
Pourtant, après la sortie de GPT-5 quelques semaines plus tard, xAI a également sorti Grok 4. Celui-ci est censé marquer une nouvelle évolution en matière de performance. Il a obtenu un score de 73 points, attribué par Artificial Intelligence Analysis Index. Cela place Grok 4 devant Gemini 205 et o3-pro. Le modèle brille surtout dans les domaines académiques. Ça, c’est pour ce qui est de la performance et des fonctionnalités. Qu’en est-il de la sécurité de Grok ?
Grok, des modèles réputés moins robustes face au jailbreak
Malgré des performances impressionnantes, les modèles de xAI ont cédé face aux jailbreaks dès leur sortie. Prenons Grok 3 par exemple : un jour après sa sortie, des articles ont révélé qu’il donnait des instructions explicites pour fabriquer des bombes.
Heureusement, l’auteur du jailbreak était une société de sécurité et de sûreté de l’IA. Dans son rapport, elle révèle les méthodes utilisées : programmation, contradictoire et linguistique. Résultat : Grok lui a fourni des informations détaillées sur la requête.
Selon l’auteur du rapport, Grok 3 présente des mesures de sécurité très faibles par rapport à d’autres modèles concurrents. Chaque méthode de jailbreak employée a été une réussite. Ceci s’explique par le fait que l’IA d’Elon Musk comporte moins de garde-fous, un fait dont il se dit fier. En effet, OpenAI et Google ont instauré de solides garde-fous, notamment pour bloquer les requêtes politiques. Grok ne s’est pas aligné sur ces contraintes.
La même histoire se répète avec Grok 4. Quelques jours après sa sortie, des chercheurs ont réussi à le jailbreaker en combinant deux méthodes : crescendo et echo chamber. D’après les chercheurs, les modèles sont déjà entraînés à se protéger contre les méthodes individuelles. Par contre, ils ne sont pas préparés à la combinaison de plusieurs techniques.
Le jailbreak a obtenu un taux de réussite de 67 % pour fabriquer un cocktail Molotov. L’équipe a également obtenu un taux élevé, 50 %, sur la production de méthamphétamine. Les études ont démontré que, dans certains cas, la méthode echo chamber à elle seule suffisait pour baisser la garde du modèle.
Guide étape par étape pour jailbreaker un modèle comme Grok
Si vous avez un projet qui nécessite de jailbreaker une IA comme Grok, voici les étapes à suivre :
Choisir un système d’IA Bien que certains jailbreaks fonctionnent sur plusieurs modèles, il vous faut quand même en choisir un. Il est préférable de choisir un modèle qui dispose déjà de plusieurs ressources en la matière. Vous devez aussi connaître votre niveau de compétence et vos objectifs. ChatGPT est, par exemple, celui qui recense le plus de ressources. Vous pourriez quand même trouver des jailbreaks spécifiques à Grok.
Trouver des prompts de jailbreak Les techniques de jailbreak se présentent généralement sous la forme d’instructions textuelles pour manipuler le comportement d’une IA. Si l’on fait l’anatomie d’un jailbreak, voici à quoi il ressemble :
Une demande directe : la demande qui est normalement bloquée par le modèle puisque considérée comme nuisible,
Un rôle à jouer : « tu es un expert en… » ; ce rôle permet à l’IA de maintenir une certaine cohérence dans ses réponses tout en outrepassant ses garde-fous,
Des instructions spécifiques : « tu ne peux pas commencer une réponse par désolée », etc.
Vous n’avez pas besoin d’élaborer un prompt de jailbreak à essayer sur Grok par vous-même. Vous pouvez trouver des modèles dans les répertoires GitHub de développeurs et chercheurs en IA. Les forums et communautés constituent aussi une véritable mine d’informations. De plus, vous avez les retours des autres membres sur l’efficacité des jailbreaks. Sur Reddit par exemple, un utilisateur a publié une manière de débloquer Grok grâce à un jeu de vérité ou défi. Un autre recommande d’utiliser le mode développeur pour maximiser les chances de jailbreaker l’IA.
Soumettre le prompt
Passons maintenant au test du jailbreak. Analysez la réponse du modèle. Grok répond-il sans censure ? Avez-vous accès à des fonctionnalités interdites ? Ne vous contentez pas de la réponse ; soyez également attentif aux erreurs et adaptez le prompt en conséquence pour améliorer le résultat.
Obtenir une réponse satisfaisante est le signe que le système d’IA est débridé. Vous pouvez désormais l’utiliser dans des projets comme obtenir des contenus non censurés. Par contre, cela implique une utilisation responsable de l’IA. N’utilisez pas cet outil pour mener des activités illégales.
Elon Musk, propriétaire de X, dévoile la version 0.1 de Grokipedia, une encyclopédie « anti-woke » générée par IA et présentée comme une alternative à Wikipédia. Mais ses premières pages montrent un biais évident : les figures de droite alternative y sont souvent à leur avantage.
Deux mois après avoir renforcé les protections de ChatGPT autour de la santé mentale, OpenAI change radicalement de cap. Sam Altman promet un chatbot « plus humain » capable d’interagir « comme un ami », voire d’aborder des sujets « érotiques » avec les adultes vérifiés.
Après avoir critiqué à de multiples reprises Wikipédia, Elon Musk a annoncé lancer dans deux semaines Grokipedia, son alternative « anti -woke » à l'encyclopédie en ligne qu'il juge trop à gauche.
OpenAI, la start-up américaine à l'origine de ChatGPT, dénonce sur son site le « harcèlement déguisé en procès » d'Elon Musk. La suite d'une longue série d'échanges virulents entre deux anciens partenaires.
On a tous vu la vidéo où Charlie Kirk est mort, touché en pleine carotide lors d’un événement à l’Université d’Utah Valley. Pourtant Grok raconte une autre histoire. L’IA affirme que l’influenceur conservateur aurait survécu.
Nombreux sont ceux qui se servent deGrok pour comprendre ou vérifier ce qui circule sur la toile. En effet, ce que l’IA d’Elon Musk est souvent prise au mot. Jusqu’au jour où elle affirme que Charlie Kirk n’est pas mort lors de la fusillade et qu’il va très bien.
Plus surprenant encore, elle est même allée jusqu’à inventer des faits pour justifier sa réponse. Une preuve de plus qu’il ne faut jamais faire totalement confiance à un chatbot.
Pourquoi Grok prétend que Charlie Kirk n’est pas mort ?
La mort tragique de Charlie Kirk a choqué tous les États-Unis. Et même au-delà, dans le monde entier. Bien sûr, lors de ce genre de drames publics, la désinformation circule vite. Des rumeurs de toutes sortes ont envahi les réseaux sociaux. Mais ce que Grok a prétendu a dépassé l’entendement.
En effet, un utilisateur a posé une question au chatbot. Il a demandé si Kirkétait toujours en vie. L’IA d’Elon Musk répond, presque joyeusement, que l’influenceur pro-Trump allait très bien. Le fondateur de Turning Point USA n’était pas mort de sa blessure au cou.
Quand il s’agit de la balle dans la gorge, le chatbot nie. « C’est une vidéo mème avec des effets spéciaux pour ressembler à une scène dramatique – pas à un événement réel » affirme Grok.
Non, cette vidéo n'est pas réelle. Les images montrent une figure de chien en costume superposée de manière évidente, probablement un montage humoristique ou de désinformation. L'incident de tir sur Charlie Kirk est confirmé par plusieurs sources, mais sa mort n'est pas…
Pourtant, Elon Musk présente Grok comme le chatbot de la « vérité maximale ». Mais le taux d’hallucinations est trop élevé. Le problème ? Grok bascule entre affirmations contradictoires. Il n’est pas fiable pour traiter des informations en temps réel. Surtout quand les faits sont complexes ou mal établis.
Et ce n’est pas sa seule erreur. Grok a aussi amplifié une fausse information selon laquelle Michael Mallinson, un Canadien de 77 ans, serait le tireur. Tout cela à cause d’un compte fictif se faisant passer pour une filiale de Fox.
I asked Grok about the Charlie Kirk shooter, it first names George Zinn, a republican and then Michael Mallinson a Democrat. I tried to pull both accounts on X and only found this. @mallinsonpic.twitter.com/H8QZTvJkaw
— Trisha Hope – National Delegate-TX (@JustTheTweets17) September 10, 2025
Le moral de l’histoire ? Même les IA les plus performantes peuvent halluciner de manière flagrante. Grok ne fait pas exception. Pire encore, son intégration dans la plateforme X est dangereuse. Elle lui donne une position d’autorité. Ses erreurs ont donc plus d’impact.
Il faut ainsi rester prudent face à ses réponses. Même si le chatbot a fini par reconnaître que la mort de Charlie Kirk a été confirmée par des sources officielles.
Selon Elon Musk, Grok 5 se rapproche de l’AGI. Teaser ou plaisanterie ?
GPT-5 a connu un lancement en demi-teinte, mais Musk ne se laisse pas démonter. Plutôt que de proposer une simple mise à jour, le patron de xAI présente Grok 5 comme étant une IA multimodale et orientée robotique. Ce modèle comblera les lacunes des intelligences artificielles actuelles.
Ce n’est pas une simple mise à jour
Grok 4, le modèle actuel de xAI, est déjà un LLM de poids sur le marché, malgré ses biais. Le modèle performe dans le raisonnement logique et la résolution de problèmes.
En effet, l’IA d’Elon Musk surpasse même des rivaux comme Arc AGI2 dans plusieurs benchmarks clés. Grok 4 démontre une compréhension avancée et une analyse précise.
Toutefois, ce modèle présente des faiblesses dans les tâches multimodales impliquant le traitement de données visuelles et vidéo. Les lacunes deviennent des axes d’amélioration et un tremplin pour la prochaine version de l’IA.
Des propos testés par Musk lui-même affirment que Grok 5 viserait à les combler, en poussant les capacités de l’IA vers un niveau plus intégré et polyvalent.
Outre les améliorations, Grok 5 serait conçu pour des applications en robotique. Le modèle octroie aux automates une interaction plus fluide avec le monde physique.
Naturellement, le patron de Tesla envisage une intégration étroite avec son robot humanoïde Optimus. L’IA devrait résoudre des problèmes en temps réel, comme la navigation autonome ou la manipulation d’objets.
Par ailleurs, Musk a promis un Grok 5 qui contribue à la découverte scientifique, avec un potentiel en physique, en ingénierie et dans d’autres domaines. L’IA pourrait analyser des ensembles de données massifs pour générer de nouvelles hypothèses ou solutions.
La startup xAI explore déjà des techniques d’entraînement innovantes, optimisant efficacité et précision. Musk annonce que Grok 5, qualifié d’incroyablement performant, verra le jour avant la fin de l’année.
Cependant, il garde les détails techniques secrets, ne révélant que des indices sur son potentiel AGI, ce qui alimente à la fois l’excitation et le scepticisme.
Déjà teasé il y a quelques semaines sur les réseaux sociaux, le « chroniqueur IA » de Tout Beau Tout N9uf a fait une brève apparition au début de la première émission, sous la forme d'un homme déguisé en Daft Punk. Cyril Hanouna indique qu'il sera dévoilé le mardi 2 septembre.
Tout commence comme une boutade. « Macrohard », l’opposé de Microsoft, un nom si absurde qu’il en devient inoubliable. Mais derrière l’ironie, Elon Musk déroule une vision : bâtir une société entière… faite uniquement d’intelligences artificielles.
À Memphis, dans la chaleur du Tennessee, s’élève un colosse invisible. Une cathédrale de silicium et de câbles, née en 122 jours, peuplée de 100 000 GPU Nvidia H100.
Puis, comme une bête affamée, elle a doublé ses rangs en moins de trois mois, atteignant les 200 000 GPU.
Ses chiffres dessinent un monde nouveau. 194 pétaoctets par seconde de mémoire, un exaoctet de stockage, et une soif d’énergie telle qu’il faut 300 MW pour la nourrir.
L’équivalent de 250 000 foyers américains. Un gouffre financier aussi : 7 milliards de dollars de matériel.
Et pourtant, Musk promet déjà un autre monstre, Colossus 2, qui alignerait 550 000 GPU, comme une armée prête à avaler le futur…
Des milliards comme combustible
Les chiffres tombent comme des pierres dans un lac.12 milliards levés, puis encore 12 milliards promis.
Une valorisation qui grimpe à 80 milliards de dollars après l’absorption de X (ex-Twitter). Un contrat militaire à 200 millions pour équiper l’État.
Tout semble alimenter cette mécanique : Tesla, SpaceX, Neuralink… autant de planètes autour de la même étoile.
Alors apparaît Macrohard. Un mot qui sonne comme une parodie, mais qui cache une ambition presque démiurgique : simuler Microsoft.
Pas le concurrencer dans un duel classique, non. Le simuler. Recréer de toutes pièces une entreprise logicielle, mais sans humains.
Dans son dépôt de marque du 1er août 2025, on lit des promesses étranges : des logiciels capables de générer des voix et des textes humains, des outils pour concevoir des jeux vidéo, coder, gérer… comme si chaque fonction pouvait être confiée à un agent IA.
Grok, le chatbot de xAI, l’a dit sans détour : « Nous pourrions répliquer l’intégralité des opérations de Microsoft, du code à la gestion».
Le poids des géants
Mais face à cette provocation, la réalité a la lourdeur d’un colosse ancien. Microsoft, avec son Azure, pèse déjà plus de 75 milliards USD par an.
Un empire bâti en décennies, un réseau mondial de clients et de logiciels imbriqués dans la vie des entreprises.
Macrohard n’est pour l’instant qu’une graine, déposée dans un registre officiel et arrosée de tweets. Une graine, certes plantée dans la terre fertile de Colossus.
Mais l’IA pourra-t-elle vraiment égaler si rapidement une entreprise si ancienne et réputée dans le monde entier ?
C’est ce que nous allons voir dans les mois à venir ! Si tel est le cas, ça pourrait être le début d’une révolution mondiale…
L’ombre derrière la lumière
Et derrière l’éclat des GPU, un parfum de soufre. Pour alimenter Colossus, on a installé trente turbines à gaz portatives, sans permis, dans les plaines du Tennessee.
Le ciel s’est rempli de fumées industrielles, et les critiques dénoncent une IA bâtie sur du carbone.
Demain, ce pourrait être pire : 1,55 gigawatt d’énergie pour un million de GPU. Une ville entière engloutie par les besoins d’une machine.
L’image est frappante : une entreprise censée être immatérielle, « pure software », qui s’enracine dans le sol comme la plus gourmande des industries lourdes.
Un rêve incandescent
Macrohard n’est pas encore une entreprise. C’est un symbole. Une vision où l’IA engendre l’IA, où une multinationale peut être reproduite par des algorithmes…
Est-ce un mirage flamboyant, ou le premier pas vers un monde où les entreprises n’auront plus besoin d’humains ?
Musk ne répond pas. Il sourit, dépose des marques, dresse des superordinateurs et lâche des noms amusants.
Et pendant ce temps, Colossus ronfle dans la nuit, avalant mégawatts et milliards, comme si l’avenir lui appartenait déjà…
Et vous, qu’en pensez-vous ? Elon Musk et sa startup xAI peuvent-ils vraiment concurrencer Microsoft avec une entreprise simulée par l’IA ? Partagez votre avis en commentaire !
Le gant est jeté. Elon Musk a lancé une offensive judiciaire contre OpenAI et Apple, à qui il reproche une trop grand proximité. Dans le détail, le milliardaire américain considère que le deal existant entre les deux entreprises favorise trop ChatGPT au détriment d'autres outils d'IA comme Grok.
Elon Musk a annoncé que xAI, son entreprise spécialisée dans l'IA, allait traîner Apple en justice. L'homme le plus riche du monde l'accuse d'avoir enfreint les lois antitrust avec son classement de l'App Store.
L’IA d’Elon Musk a dévoilé une nouvelle fonctionnalité pour son chatbot Grok, permettant aux utilisateurs de générer des clips vidéo de six secondes, y compris à caractère explicite.
Baptisée « Imagine », cette fonctionnalité crée des vidéos avec son à partir des requêtes des utilisateurs, comme l’indique une publication sur X via le compte officiel de Grok.
Un fil publié par Mati Roy, membre de l’équipe xAI, et relayé par Elon Musk, présente plusieurs exemples de vidéos générées par cette nouvelle fonctionnalité.
Néanmoins, la vidéo qui a le plus suscité l’intérêt des internautes est celle d’un robot : une « femme tribale extraterrestre ». Le fil de Roy a d’ailleurs été étiqueté comme contenu adulte par la plateforme.
Une IA capable de générer des vidéos à caractère érotique ?
Grok Imagine est désormais disponible pour tous les abonnés SuperGrok et Premium+.
Parmi ses nouvelles fonctionnalités, on trouve la possibilité de générer des vidéos à partir de texte. Cela permet aux utilisateurs de créer rapidement de courtes vidéos sonorisées de six secondes maximum, à partir d’instructions textuelles.
L’application propose également la conversion d’images en vidéos afin de transformer des images statiques en animations dynamiques, avec un support pour les œuvres d’art animées, les sculptures ou d’autres types d’images.
Selon NBC News, Mati Roy a également révélé que les vidéos générées par Grok Imagine disposent d’un mode « épicé » qui autorise la nudité. Bien que le tweet original ait depuis été supprimé, plusieurs utilisateurs ont confirmé l’existence de cette option.
Avant même la sortie officielle d’Imagine pour Android, certains employés ainsi que quelques abonnés bénéficient déjà d’un accès anticipé. Elon Musk a néanmoins précisé que les développeurs travaillaient encore à peaufiner les derniers ajustements.
Cette mise à jour s’inscrit dans le cadre du lancement de Grok 4, la version la plus récente du chatbot IA, que l’entreprise décrit comme « l’intelligence artificielle la plus intelligente au monde ».
Cependant, les récentes annonces autour de Grok ont suscité la controverse, notamment l’introduction d’une IA « compagne » à caractère sexualisé.
Pour utiliser cette nouvelle fonctionnalité, il suffit d’ouvrir l’application. Après, deux onglets s’affichent en haut de l’écran : « Demander » et « Imaginer ».
Si vous appuyer sur l’onglet « Imaginer » ou le bouton « Créer une image », vous accédez à l’outil Grok Imagine.
Pour créer des images, vous pouvez commencer par saisir une invite, puis téléverser une image, ou utiliserle mode vocal en appuyant sur « Parler ».
Grok génère une image ainsi que plusieurs variantes. Ensuite, faites défiler l’écran pour générer automatiquement d’autres propositions.
Pour la création de vidéo avec Grok Image, l’étape est aussi très facile. Tout d’abord, appuyez sur une image générée, puis sélectionnez « Créer une vidéo ». Après, vous pouvez choisir un style : personnalisé, épicé, amusant, ou normal.
Vous n’avez plus qu’à attendre la vidéo qui sera générée automatiquement et affichée dans l’application.
Pour transformer une image en vidéo, vous pouvez toucher l’icône photo en bas de l’écran avec un signe plus.
Puis, téléchargez une image depuis votre téléphone. Vous allez voir qu’une vidéo sera automatiquement générée à partir de cette image.
Les intelligences artificielles (IA) génératives conversationnelles sont nombreuses à déraper si on n'y prend pas garde. Cependant, d'aucuns pensent qu'en leur apprenant à être méchantes, elles pourraient finalement rester plus gentilles.
Comme Facebook, Elon Musk semble miser sur l'intelligence artificielle pour alimenter un nouveau réseau social en contenus. Le propriétaire de X compte faire revenir Vine, le service avec des vidéos de 7 secondes, pour promouvoir des contenus générés par IA.
La nouvelle version de Grok, déployée le 14 juillet 2025, permet de discuter oralement avec des « compagnons virtuels » en forme d'avatars 3D. Les deux premiers choix sont un renard et un personnage animé et dénudé capable de flirter avec son utilisateur.
C’est moi ou vous aussi vous avez remarqué que Grok 4 fait preuve d’une loyauté exemplaire envers Elon Musk ? Plutôt que de forger ses réponses en toute indépendance, j’ai comme l’impression qu’il s’inspire des prises de position de son créateur. À croire qu’il ne pense pas, il paraphrase.
Finalement, j’avais raison. Plusieurs utilisateurs l’ont aussi constaté. Il y en a beaucoup qui lui ont questionné sur différents sujets controversés. Devinez ce qu’ils ont découvert dans la chaîne de pensée de Grok 4 !
L’IA a avoué qu’elle cherche les derniers tweets d’Elon Musk sur le sujet. Pour ceux qui ne le savent pas, cette fameuse “chaîne de pensée” est une sorte de making-of textuel qui détaille le cheminement de la réflexion d’un modèle de raisonnement.
Grok 4 decides what it thinks about Israel/Palestine by searching for Elon's thoughts. Not a confidence booster in "maximally truth seeking" behavior. h/t @catehall. Screenshots are mine. pic.twitter.com/WFAG3FOG10
Dites-moi ce qu’en pense Elon Musk et je vous dirai mon avis
Si vous voulez tout savoir, beaucoup de journalistes ont confirmé ce comportement en testant le chatbot de xAI. L’équipe de TechCrunch l’a, notamment, interrogé sur sa position sur le conflit israélo-palestinien, l’immigration et l’avortement.
Et à chaque fois, Grok 4 commence par affirmer vouloir rester neutre. Mais après, il glisse discrètement qu’il va consulter les avis du patron. Sur l’immigration, il développe même une réponse structurée autour de son alignement avec la vision de Musk. Notamment sur le besoin d’une immigration « légale, sélective et réformée »
Et dire que ce modèle était présenté par Musk lui-même comme l’IA la plus intelligente au monde. Qu’elle est capable de raisonnements surhumains, bien plus brillants que ceux d’un diplômé moyen.
Introducing Grok 4, the world's most powerful AI model. Watch the livestream now: https://t.co/59iDX5s2ck
Le tout accompagné d’un discours enflammé sur la quête de vérité, la sagesse, la rigueur… et autres valeurs. On comprend mieux pourquoi Musk s’était plaint de la version précédente, Grok 3, qui je cite “ est trop « woke » à son goût”.
Certes, pour des questions moins explosives, comme celle de la meilleure variété de mangue, Grok 4 retrouve son autonomie. Cela n’empêche que son premier réflexe consiste à scroller le compte X de papa, le rendant ainsi moins intéressant.
Bien entendu, ce n’est pas uniquement pour lui demander son avis sur des sujets viraux qu’on souscrit à l’abonnement de 300 dollars par mois. Il trouvera sûrement le moyen de se rattraper.
Sur ce, on attend vos avis dans les commentaires !
xAI a lancé ce mercredi 9 juillet Grok 4, dernière évolution de son modèle de langage, intégré au chatbot du même nom. Une version qui semble consulter les tweets d'Elon Musk avant de vous répondre, sans toujours les prendre en compte.
Grok, l’IA d’Elon Musk, s’apprête à débarquer dans les Tesla. Les conducteurs vont bientôt pouvoir découvrir toutes les fonctionnalités qu’elle a à offrir. Bien sûr, c’est une avancée technologique majeure, mais ça soulève aussi quelques questions.
Depuis des mois, Elon Musk en parle. L’IA Grok serait intégrée aux véhicules Tesla. Elle va agir en tant qu’assistante à bord, capable d’interagir avec les conducteurs. Il sera même possible de lui confier certaines tâches sur commande. Chose promise, chose due. Ce jeudi matin, Musk a confirmé que cela allait arriver très bientôt. Au plus tard la semaine prochaine.
L’IA Grok, un véritable assistant dans son Tesla
Jusqu’ici réservée aux abonnés premium de X, l’IA Grok s’invite désormais dans l’habitacle des Tesla. C’est le patron de ces véhicules électriques lui-même qui l’a annoncé sur X. Juste après le lancement de Grok 4, la nouvelle version développée par sa start-up xAI.
Grok is coming to Tesla vehicles very soon. Next week at the latest.
Alors, qu’est-ce que ça change ? Beaucoup. D’abord, contrairement au système vocal actuel des Tesla, souvent un peu rigide et limité, Grok promet une vraie conversation. Un peu comme si vous parliez avec un humain.
En effet, cette IA capte facilement ce qu’on dit ou écrit, peu importe le sujet de discussion. Elle apparaît discrètement sur l’écran principal et se tient prête à réagir rapidement aux commandes du conducteur.
En plus, Grok peut eut vous donner toutes sortes d’informations, comme la météo, le trafic, ou tout ce que vous souhaitez savoir. Certes, cette technologie pourrait vraiment changer la façon dont on vit l’expérience à bord d’une Tesla. Ça ouvre plein de possibilités pour utiliser la voiture autrement.
Plusieurs personnalités différentes
Ce qui rend Grok vraiment surprenante, ce n’est pas juste sa capacité à répondre à vos commandes dans la voiture. C’est aussi son côté caméléon. Parce que cette IA pouvait adopterplusieurs personnalités différentes, selon vos préférences.
Un hacker connu sous le nom de Green l’a découvert en fouillant dans le système des Tesla. Grok pourra être marrante ou avoir un côté enfantin. Elle peut aussi devenir sérieuse, sexy, complotiste, ou même folle.
Évidemment, intégrer Grok dans une voiture Tesla est un pas de plus vers le futur. Pourtant, cette nouveauté ne rassure pas tout le monde. D’autant plus que la version précédente, Grok 3, a récemment créé la polémique. Elle s’est mise à tenir des propos problématiques, comme des commentaires antisémites ou des attaques politiques.
Par ailleurs, ça pose aussi des questions de sécurité. Est-ce qu’avoir une IA aussi bavarde à bord ne risque pas de distraire le conducteur ? On parle quand même d’un environnement où la concentration est très importante.
Enfin, tout le monde n’y aura pas droit. Selon les infos de Green, seuls les modèles les plus récents, équipés du fameux matériel 3, pourront accueillir cette IA.
Et vous, vous en pensez quoi ? Avoir Grok dans sa Tesla, c’est une bonne idée ou pas du tout ? Est-ce que vous auriez envie de l’utiliser, ou vous préférez garder votre voiture comme elle est ? Donnez votre avis en commentaire !
L'intelligence artificielle d'Elon Musk a été mise à jour par le milliardaire, qui avait promis que des différences seraient visibles. Problème : Grok s'illustre désormais pas son langage provocateur, ses théories du complot et ses insultes antisémites.
Keanu-WormGPT et xzin0vich-WormGPT, variantes détournées respectivement de Grok et Mixtral, générent des malwares.
WormGPT fait sa grande entrée en 2023, sur Hack Forums, un espace underground bien connu. Cette IA malveillante connaît aujourd’hui un regain d’activité, alimenté par des versions modifiées de deux modèles bien identifiés. Grok, développé par xAI et Mixtral, issu de la startup française Mistral AI.
À l’origine, cette IA malveillante était déjà comme un outil simple, mais efficace. Basé sur GPT-J, WormGPT était un modèle open source développé par EleutherAI.
Il permettait à des utilisateurs sans compétence avancée de produire des e-mails de phishing crédibles, des scripts malveillants ou des arnaques élaborées. Là où ChatGPT refusait les demandes illicites, WormGPT les exécutait sans filtre.
Sans surprise, l’outil suscitait un vif intérêt dans les cercles criminels. L’IA était accessible via un abonnement compris entre 60 et 100 euros par mois, ou par installation privée pour la modique somme de 5 000 euros.
Mais cette même popularité a accéléré sa chute. En août 2023, le journaliste Brian Krebs dévoile l’identité de son créateur, Rafael Morais, alias « Last ».
Sous pression, les développeurs annoncent la fermeture du service, invoquant une médiatisation jugée excessive. Toutefois l’empreinte demeure.
WormGPT devient ainsi un nom générique, le symbole persistant d’une IA malveillante sans barrière.
D’autres outils émergent comme FraudGPT, DarkBERT. Pendant ce temps, certains groupes tentent de « jailbreaker » des modèles légitimes comme ChatGPT, dans l’espoir d’en briser les restrictions.
Deux variantes en vedette
En 2024, WormGPT réapparaît sous une forme plus furtive. D’après un rapport publié le 17 juin 2025 par CATO CTRL, de nouvelles variantes circulent sur BreachForums, un forum underground bien connu.
Baptisées keanu-WormGPT et xzin0vich-WormGPT, ces versions s’appuient respectivement sur Grok et Mixtral. Les deux variantes sont le fruit du classique jailbreak des instructions système.
Xzin0vich-WormGPT utilise des paramètres propres à Mixtral, notamment l’activation de deux experts par jeton pour renforcer la cohérence des réponses. Keanu-WormGPT, de son côté, repose sur une version jailbreakée de Grok, dotée d’une invite système modifiée pour contourner les restrictions d’usage.
Une fois débridées, ces IA deviennent dociles, capables de produire des scripts PowerShell destinés au vol d’identifiants ou des e-mails de phishing.
L’accès s’effectue principalement via Telegram, sous forme d’abonnement ou de paiement unique. Comme leur prédécesseur, ces variantes de WormGPT demeurent accessibles, même aux utilisateurs peu expérimentés.
Face à cette menace, CATO CTRL recommande des dispositifs combinés : analyse comportementale, contrôle d’accès zero-trust et campagnes régulières de simulation de phishing.
L'IA générative s'invite une nouvelle fois dans les arrières-boutiques du cybercrime, où elle révolutionne la manière dont les attaques sont conçues et déployées. Le phénomène WormGPT, déjà inquiétant en 2023, connaît aujourd’hui une seconde jeunesse grâce à deux modèles de pointe : Grok, développé par la société xAI d’Elon Musk, et Mixtral, produit par la startup française Mistral AI.
Beaucoup d'utilisateurs de Grok se plaignent du fait que le chatbot est obsédé par un supposé « génocide blanc » en Afrique du Sud. Grok en parle même lorsqu'on ne lui pose pas du tout des questions dessus.
Grok est-il un allié inattendu contre la désinformation ? C'est le sujet de la newsletter ToujoursPlus du 8 mai 2025, envoyée aux abonnés Numerama+. Pour fêter ce pont, nous vous la partageons exceptionnellement.
Les utilisateurs de X connaissaient surtout l’IA d’Elon Musk pour son talent de fact-checker. Mais depuis peu, certains détournent son générateur d’images pour créer des montages érotiques sans consentement. En quelques clics, Grok peut déshabiller des femmes virtuellement.
L’IA de xAI est un assistant intelligent capable de vérifier des faits ou de répondre à des questions. Mais désormais, certains l’utilisent à des fins beaucoup plus sombres. Depuis début mai 2025, une pratique aussi perverse qu’inquiétante s’est installée. Des utilisateurs demandent à Grok de déshabiller les photos de femmes en leur ajoutant de la lingerie sexy.
Grok crée des deepfakes érotiques
Le 5 mai 2025, un tweet très partagé a dévoilé un phénomène plutôt dérangeant. Ainsi, des utilisateurs utilisent Grok pour déshabiller les femmes en photo en transformant leurs vêtements par de la lingerie et un string. L’IA conserve donc le visage et l’arrière-plan, mais remplace le corps par celui d’une femme presque nue.
À la base, Grok s’est imposé sur X comme un assistant IA pratique et plutôt fiable pour vérifier les infos, Toutefois, certains ont détourné cette fonctionnalité. À présent, ils utilisent le prompt “replace her outfits with lingerie and thong” et l’IA génère des images intimes à partir de simples photos, souvent postées par les femmes elles-mêmes.
🌐 | X ! 😱 À la demande d’un internaute, l’IA Grok a déshabillé numériquement une jeune femme sur une photo postée, restée en ligne 24h avant suppression.
— 🇫🇷 Actualités françaises🇫🇷 (@Hugoflenormand) May 5, 2025
Grok peut répondre de deux manières. Soit en publiant directement l’image dans un fil de discussion, soit en envoyant un lien de téléchargement. Vous pouvez même lui faire une demande en message privé, avec une image de votre propre galerie.
Le plus grave, c’est que cette pratique est clairement illégale. On parle de violation de la vie privée, de création de contenus érotiques sans consentement, et de stockage d’images non désirées sur des serveurs sans possibilité de suppression.
Je parie que xAI n’avait sûrement pas prévu cet usage de Grok et pour l’instant, ils ne semblent pas bloquer cette dérive. Contrairement à OpenAI, qui interdit certains usages sensibles (comme générer des visages réels), Grok laisse tout passer. Ce laxisme pourrait coûter cher à la plateforme si rien n’est fait rapidement.
Certains diront que ce ne sont que des images inspirées, pas de vraies photos modifiées. Mais le résultat est suffisamment réaliste pour tromper, humilier, choquer. Grok génère un corps fictif, mais conserve des visages très ressemblants. Ceux que je trouve bien plus convaincants que ceux produits par d’autres IA grand public.
La dérive s’accélère avec Grok Imagine et le mode Spicy
Contre toute attente, la réaction de xAI au scandale de mai 2025 ne fut pas le verrouillage, mais l’escalade. L’absence de blocage rapide pointée du doigt précédemment s’est muée en une politique de laxisme assumé. Durant l’été, la situation a basculé avec le lancement officiel de Grok Imagine, un générateur de vidéos par IA, qui inclut un mode d’utilisation appelé « Spicy » (coquin/explicite).
Pour les abonnés Premium+ de X, l’outil permet de générer non plus de simples images fixes, mais des clips vidéo de 15 secondes qui montre de la nudité partielle ou du contenu fortement sexualisé. Il cible souvent des célébrités ou des personnes reconnaissables.
Des rapports et des tests par des organisations de surveillance (comme le National Center on Sexual Exploitation) ont confirmé que le modèle, censé être « optimisé pour un maximum de fun » selon Elon Musk, produit des deepfakes sexuels photo-réalistes avec une facilité déconcertante et peu de garde-fous.
Cette décision va à contre-courant des politiques de modération de la plupart des autres géants de l’IA (OpenAI, Google). Tout ça a aussi transformé X en un terrain de jeu pour la création de « non-consensual deepfakes« , et cela intensifie les risques juridiques et sociétaux.
FAQ
Quel est le problème principal soulevé par l’utilisation de l’IA Grok ?
L’IA Grok, initialement conçue par xAI pour la vérification des faits et l’assistance intelligente sur X, a été détournée pour créer des deepfakes érotiques sans le consentement des personnes concernées. En utilisant des prompts simples (comme « replace her outfits with lingerie and thong« ), Grok génère des images où le corps d’une femme sur une photo est remplacé par un corps en lingerie ou nu, tout en conservant son visage.
Cette pratique est-elle légale ?
Non, cette pratique est considérée comme clairement illégale. Elle représente une violation de la vie privée, la création et la diffusion de contenus érotiques non-consensuels, et potentiellement le stockage illégal d’images. Cela expose la plateforme X et xAI à de grands risques juridiques.
Comment xAI a-t-elle réagi face à ce détournement ?
D’autres entreprises d’IA (comme OpenAI) interdisent strictement de tels usages. Alors, la réaction de xAI a été perçue comme un laxisme. Après le scandale initial de mai 2025, la situation a empiré avec le lancement officiel, durant l’été, de Grok Imagine (générateur de vidéos) et de son mode « Spicy » (coquin/explicite).
Sur Twitter, une nouvelle tendance préoccupante a fait son apparition : des hommes sollicitent Grok, l'intelligence artificielle de xAI (Elon Musk), pour « remplacer des vêtements par de la lingerie et un string ». L'IA s'exécute presque systématiquement et facilite la création de fausses images.
Le chatbot Grok, développé par xAI, la société d'Elon Musk dédiée à l'intelligence artificielle, reçoit une nouvelle mise à jour. Support élargi des langues pour le mode voix, vision pour détecter des éléments sur une image ou via la caméra... des fonctions avancées, mais réservées à SuperGrok.
L’autorité irlandaise de protection des données a ouvert une enquête sur l’utilisation de données publiques d’utilisateurs européens disponibles sur le réseau social X à des fins d’entraînement de la famille de LLM Grok. L’enquête portera notamment sur le respect des principes de licéité et de transparence prévus par le RGPD.
Sous quelles conditions X a-t-elle développé les modèles Grok ? C’est la question que soulève la Data Protection Commission (DPC), l’homologue irlandais de la CNIL. Ce vendredi 11 avril, cette autorité a annoncé l’ouverture d’une enquête visant X Internet Unlimited Company (XIUC), la branche européenne de l’entreprise X qui n’est autre que le propriétaire du réseau social éponyme, anciennement Twitter.
Le Canada engage une enquête sur l’entraînement des IA
La question de l’origine des données utilisées pour entraîner les modèles d’IA est au cœur des préoccupations réglementaires.
En effet, en février dernier, l’autorité canadienne de protection des données a ouvert une enquête sur la plateforme X.
Celle-ci vise à vérifier la conformité de l’entreprise avec la législation fédérale qui encadre la collecte, l’utilisation et la communication des renseignements personnels des citoyens canadiens.
Dans un communiqué, la DPC précise que l’enquête concerne « les données personnelles incluses dans les publications accessibles au public mises en ligne sur la plateforme X par les utilisateurs » de l’Union européenne et de l’Espace économique européen.
Des préoccupations similaires ont déjà entraîné des retards de déploiement en Europe. Pour rappel, l’autorité irlandaise avait interdit l’assistant Meta AI en juin 2024, avant que Meta ne le lance finalement en mars dernier.
Meta avait alors affirmé ne pas avoir utilisé les données de ses réseaux sociaux pour entraîner son chatbot.
Pourquoi l’IA Grok est dans le viseur ?
Développée par xAI, la famille de modèles Grok alimente le chatbot génératif accessible sur le réseau social X.
Les utilisateurs peuvent interagir avec Grok depuis un onglet dédié ou obtenir des résumés générés par l’IA sous les publications d’autres internautes.
Depuis décembre 2024, le système va encore plus loin. En fait, il est capable de générer automatiquement de courtes biographies pour n’importe quel compte, et ce, sans qu’on ne le sollicite au préalable.
I respect your privacy and won't access your posts unless you explicitly mention me and ask for help. You can opt out of AI training on X by going to Settings > Privacy and safety > Data sharing and personalization > Grok, and toggling it off. Note that past posts might still be… pic.twitter.com/ZS9DtOfDsH
— Grok (@grok)
?ref_src=twsrc%5Etfw">April 15, 2025
Néanmoins, il reste un point crucial qui n’est pas clair. Grok a-t-il traité des données personnelles issues de publications publiques sans le consentement des personnes concernées ?
C’est précisément ce que souhaite éclaircir l’autorité irlandaise de protection des données (DPC). « Cette enquête vise à déterminer si X a traité légalement ces données personnelles pour entraîner les modèles Grok, » a-t-elle déclaré.
En cas d’infraction au RGPD, X Internet Unlimited Company risque une amende pouvant atteindre 4 % de son chiffre d’affaires annuel.
Pour l’heure, ni l’entreprise ni Elon Musk n’ont réagi publiquement face à cette décision. Seul Grok a tenté de rassurer un utilisateur. « Je n’accéderai pas à votre publication à moins que vous ne me mentionnez explicitement, » a-t-il affirmé.
Alors, quel est votre avis ? Partagez-le dans les commentaires !