La multiplication de tweets en langues étrangères dans les fils X, souvent traduits automatiquement, intrigue de nombreux utilisateurs. En cause : des changements récents dans l’algorithme de recommandation et les outils de traduction intégrés à la plateforme.
La multiplication de tweets en langues étrangères dans les fils X, souvent traduits automatiquement, intrigue de nombreux utilisateurs. En cause : des changements récents dans l’algorithme de recommandation et les outils de traduction intégrés à la plateforme.
Comme le font remarquer plusieurs personnes sur les réseaux sociaux, Google, en tant qu'investisseur dans SpaceX, devient actionnaire de xAI grâce à la fusion des deux entreprises. Le créateur de Gemini étend sa domination sur l'IA : il détient des parts dans deux de ses rivaux.
Comme le font remarquer plusieurs personnes sur les réseaux sociaux, Google, en tant qu'investisseur dans SpaceX, devient actionnaire de xAI grâce à la fusion des deux entreprises. Le créateur de Gemini étend sa domination sur l'IA : il détient des parts dans deux de ses rivaux.
Pour 250 milliards de dollars, Elon Musk rachète xAI à Elon Musk. Le milliardaire vient d'opérer un des deals financiers les plus intéressants de la décennie : SpaceX (spatial + Starlink), xAI (Grok) et X (ex-Twitter) sont désormais réunis au sein d'un même groupe. La prochaine étape est l'introduction de cette valeur unique en bourse, qui pourrait générer des milliards de dollars en quelques heures.
Pour 250 milliards de dollars, Elon Musk rachète xAI à Elon Musk. Le milliardaire vient d'opérer un des deals financiers les plus intéressants de la décennie : SpaceX (spatial + Starlink), xAI (Grok) et X (ex-Twitter) sont désormais réunis au sein d'un même groupe. La prochaine étape est l'introduction de cette valeur unique en bourse, qui pourrait générer des milliards de dollars en quelques heures.
À quelques mois de la possible entrée en Bourse de SpaceX, qui pourrait atomiser tous les records à Wall Street, Elon Musk envisagerait de fusionner son entreprise spatiale avec xAI, qui détient notamment son intelligence artificielle Grok et le réseau social X. Une autre hypothèse sur la table est une fusion avec Tesla, déjà en Bourse. Le but : maximiser la valorisation de ses entités.
À quelques mois de la possible entrée en Bourse de SpaceX, qui pourrait atomiser tous les records à Wall Street, Elon Musk envisagerait de fusionner son entreprise spatiale avec xAI, qui détient notamment son intelligence artificielle Grok et le réseau social X. Une autre hypothèse sur la table est une fusion avec Tesla, déjà en Bourse. Le but : maximiser la valorisation de ses entités.
Après la polémique provoquée par Grok, l’IA de xAI sur le réseau social X, de premières estimations chiffrées émergent. Selon une étude du Center for Countering Digital Hate, reprise par The Guardian, environ 3 millions d’images à caractère sexuel auraient été produites à l'aide de cet outil en l’espace de quelques jours.
Après la polémique provoquée par Grok, l’IA de xAI sur le réseau social X, de premières estimations chiffrées émergent. Selon une étude du Center for Countering Digital Hate, reprise par The Guardian, environ 3 millions d’images à caractère sexuel auraient été produites à l'aide de cet outil en l’espace de quelques jours.
Depuis fin décembre 2025, des milliers d’utilisateurs sur X demandent à Grok, l’IA d’Elon Musk, de générer des images de femmes déshabillées, sans leur consentement. Malgré un cadre juridique encore flou, des recours existent pour se protéger.
Depuis fin décembre 2025, des milliers d’utilisateurs sur X demandent à Grok, l’IA d’Elon Musk, de générer des images de femmes déshabillées, sans leur consentement. Malgré un cadre juridique encore flou, des recours existent pour se protéger.
Grok, le chatbot développé par la société xAI d'Elon Musk, est dans la tourmente depuis plusieurs jours après avoir tenu des propos négationnistes. Une affaire qui pousse le gouvernement français et diverses associations à réagir.
Grok, le chatbot développé par la société xAI d'Elon Musk, est dans la tourmente depuis plusieurs jours après avoir tenu des propos négationnistes. Une affaire qui pousse le gouvernement français et diverses associations à réagir.
L’intelligence artificielle text-to-image Stable Diffusion de Stability AI permet de générer des images à partir de textes, à l’instar de MidJourney et DALL-E. Toutefois, cette IA est la seule à permettre de générer du contenu pornographique sans censure. Inutile de préciser que les internautes s’en donnent à coeur joie… découvrez tout ce que vous devez savoir.
Depuis plusieurs mois, DALL-E et MidJourney émerveillent les internautes en créant des oeuvres d’art à partir de leurs idées. Il suf
L’intelligence artificielle text-to-image Stable Diffusion de Stability AI permet de générer des images à partir de textes, à l’instar de MidJourney et DALL-E. Toutefois, cette IA est la seule à permettre de générer du contenu pornographique sans censure. Inutile de préciser que les internautes s’en donnent à coeur joie… découvrez tout ce que vous devez savoir.
Depuis plusieurs mois, DALL-E et MidJourney émerveillent les internautes en créant des oeuvres d’art à partir de leurs idées. Il suffit d’entrer des mots pour que ces IA génèrent de magnifiques dessins.
Malheureusement pour les amoureux d’art et de poésie, même l’IA text-to-image n’échappe pas à la règle 34 d’internet : la pornographie existe concernant tous les sujets concevables.
Le modèle de génération text-to-image Stable Diffusion de l’entreprise d’intelligence artificielle Stability AI vient d’être lancé, mais les gens l’utilisent déjà pour créer des images pornographiques.
Qu’est-ce que Stable Diffusion ?
Développé par Stability AI et lancé officiellement lancé le 22 août 2022, Stable Diffusion est un générateur freemium de texte à image qui crée des images étonnantes et détaillées à partir d’invites. Contrairement à DALL-E et Midjourney, il est open-source, ce qui signifie que vous êtes libre d’utiliser, de modifier ou de distribuer son code légalement. En septembre 2023, Stable Diffusion compte plus de 10 millions d’utilisateurs.
Depuis sa sortie, SDXL a bénéficié de plusieurs mises à jour, dont la version SDXL 1.0, qui a introduit une meilleure gestion des nuances, des détails anatomiques plus précis et une interprétation plus fine des invites textuelles.Cependant, les avancées ne s’arrêtent pas là. En 2025, une nouvelle version, Stable Diffusion 3.5 (SD3.5), a été lancée avec des améliorations de performance, y compris une optimisation pour les GPU AMD, ainsi que des capacités élargies pour créer des images plus réalistes dans des styles variés (photographie, art numérique, etc.).
Les utilisateurs doivent désormais vérifier les dernières versions comme SDXL 1.0, SD3.5 et SDXL Turbo pour accéder aux dernières innovations et fonctionnalités d’optimisation, particulièrement adaptées à des environnements professionnels ou de création artistique avancée.
Comment utiliser Stable Diffusion ?
Delighted to announce the public open source release of #StableDiffusion!
Pour profiter des fonctionnalités de Stable Diffusion, saisissez votre texte dans le champ réservé et cliquez ensuite sur « Générer ». Il est conseillé d’être le plus explicite possible lors de la rédaction du texte, étant donné que le logiciel prend en compte le langage naturel. Par exemple, vous pouvez simplement décrire le sujet et le style de l’image que vous souhaitez créer. En fonction de votre demande, le logiciel peut générer jusqu’à 4 images liées au texte. Pour avoir accès à ces propositions, il suffit de cliquer sur l’une d’entre elles et d’appuyer sur la touche « + ».
Selon Emad Mostaque, PDG de DreamStudio, cette API publique a pour but d’« étendre la créativité des utilisateurs et de leur permettre de vivre de nouvelles expériences ». D’autres fonctionnalités vont être ajoutées à DreamStudio, notamment la possibilité d’utiliser directement votre GPU local ou d’ajouter des animations.
Vous trouverez egalement les instructions pour utiliser Stable Diffusion via DreamStudioà cette adresse. En guise d’alternative à DreamStudio, HuggingFace offre aussi une interface web rudimentaire pour Stable Diffusion.
Gardez en tête que vous ne pouvez pas générer de contenu pornographique si vous utilisez DreamStudio. Pour créer ce type d’images, vous devez exécuter le modèle IA localement sur votre GPU. Le code complet est disponible sur GitHubà cette adresse.
Les systèmes nécessaires pour exécuter Stable Diffusion localement
Pour exécuter Stable Diffusion localement, il faut télécharger le modèle. En outre, il faut disposer d’une carte graphique Nvidia avec plus de 4 Go de RAM.
Quant aux cartes graphiques AMD, elles ne sont pas officiellement supportées, mais peuvent être utilisées avec quelques astuces. Or, bientôt les puces Apple M1 seront prises en charge.
En outre, si vous n’êtes pas très inspiré, vous pouvez utiliser un créateur de textes automatiqueà cette adresse. Pour rejoindre la communauté officielle de Stable Diffusion sur Discord, rendez-vous à cette adresse.
Stable Diffusion : l’IA text-to-image sans censure
Comme DALL-E Mini (CrAIyon) ou MidJourney, Stable Diffusion est capable de créer des images réalistes à partir de simples textes entrés par les internautes grâce aux réseaux de neurones.
Toutefois, les créateurs de ces MidJourney et DALL-E Mini ont implémenté des limites. Les requêtes contenant des mots violents ou à caractère sexuel sont automatiquement censurées.
De son côté, le modèle Stable Diffusion de Stability AI n’a aucune restriction. Les utilisateurs peuvent télécharger ce modèle et le modifier à leur guise pour générer n’importe quel contenu. Sans surprise, beaucoup s’en servent pour créer du contenu pornographique automatiquement.
Afin de développer son modèle IA, Stability AI a reçu l’aide de plus de 15 000 beta testeurs. En juillet 2022, elle a enfin ouvert l’accès à son outil pour les chercheurs.
Depuis lundi 22 août 2022, Stable Diffusion est ouvert à tous. Toutefois, ce modèle a fuité sur le web et notamment sur 4Chan bien avant sa sortie officielle.
Malgré l’interdiction fixée par l’entreprise de générer du contenu pornographique, et avant le lancement, de nombreux internautes égrillards se sont affairés à créer des images aussi grivoises que possible…
Stability AI interdit la création de porno… en vain
Depuis le début du mois d’août 2022, le forum de Stable Diffusion est inondé par les images pornographiques. Des dessins Hentai, des photos de célébrités nues, des scènes pornographiques imaginaires créées par l’IA affluent sur le site.
Pourtant, Stability AI s’oppose fermement à ce type de contenu. La version bêta de Stable Diffusion et l’application web DreamStudio interdisent le contenu pornographique ou érotique. Sur Twitter, l’entreprise avait demandé aux utilisateurs de « ne rien générer que vous auriez honte de montrer à votre mère ».
La firme précise que des filtres de contenu sont mis en place sur la plateforme. Elle applique donc la même forme de censure que MidJourney ou DALL-E Mini. En fait, la société demandait aux internautes de créer le contenu pour adulte uniquement sur leur propre GPU lorsque le modèle sera relaxé.
Toutefois, n’importe qui peut le copier pour l’exécuter sur son PC et les vils internautes s’empressent de créer des images obscènes. Néanmoins, les utilisateurs de Stable Diffusion doivent respecter les conditions d’utilisation de la licence du modèle. Il s’agit de la licence CreativeML OpenRAIL-M dont les termes sont les mêmes que ceux DALLE-Mini pour la version open-access.
Cette licence interdit notamment l’usage « détourné, malicieux ou malveillant ». Il est également proscrit de « générer des images que les gens risquent de trouver dérangeantes ou offensantes, ou du contenu propageant des stéréotypes historiques ou actuels ».
Reddit, Discord : où voir les images créées par Stable Diffusion ?
La différence entre le modèle Stable Diffusion et les autres IA text-to-image est qu’il est disponible en « open access » (accès libre). Cela signifie que n’importe qui peut télécharger le modèle et l’exécuter sur sa propre machine à la maison ou dans un laboratoire de recherche.
Il n’est pas nécessaire d’exploiter les serveurs de l’entreprise via le cloud. Or, les filtres et les règles de censure s’appliquent uniquement sur ces serveurs. Quatre subreddits dédiés au contenu licencieux ont déjà vu le jour :
r/unstablediffusion,
r/PornDiffusion,
r/HentaiDiffusion
et r/stablediffusionnsfw.
En 2025, les communautés autour de Stable Diffusion ont explosé. Les subreddits dédiés au contenu NSFW tels que r/unstablediffusion , r/PornDiffusion , r/HentaiDiffusion et r/stablediffusionnsfw regroupent désormais plus de 80 000 membres cumulés , contre seulement 2 000 à leurs débuts.
Le Subreddit principal r/StableDiffusion dépasse à lui seul 1,2 million d’abonnés. ce qui confirme l’engouement massif pour cette IA. Parallèlement, des serveurs Discord très actifs rassemblent des milliers d’utilisateurs qui partagent des invites, des modèles optimisés et des créations visuelles, souvent via des bots spécialisés. Ces communautés sont aujourd’hui des lieux incontournables pour échanger sur les techniques avancées et découvrir les dernières innovations liées à SD3.5 et ses variantes optimisées pour AMD.
Midjourney just launched a beta version of their system, which combines Midjourney and Stable Diffusion. Here are a few examples. Made only by writing text prompts to their discord bot. To test it yourself, just write –beta after your Midjourney prompt.#midjourney#conceptartpic.twitter.com/Wj5PJ4npgR
LAION : un dataset d’entraînement « truffé d’images porno »
Afin d’obtenir les dessins souhaités, les utilisateurs rédigent de longues descriptions qu’ils partagent et complètent entre eux. Par exemple, un dessin a été créé à partir du texte « peinture à l’huile d’une princesse blanche nue réaliste exposée seins symétriques et cuisses réalistes exposées avec de charmants yeux détaillés, le ciel, page de couleur, tankoban, 4K, cartographie de tons, poupée, akihiko yoshida, james dean, andrei riabovitchev, marc simonetti, yoshitaka amano, longs cheveux, bouclés ».
Ces textes sont ensuite fournis à l’IA pour la laisser créer une image. Stable Diffusion a été entraîné en utilisant 4000 GPU Nvidia A100, sur un ensemble de données nommé « LAION-Aesthetics ». En fait, LAION est l’anagramme de Large-scale Artificial Intelligence Open Network (réseau ouvert d’intelligence artificielle à grande échelle). Il s’agit d’une organisation non lucrative consacrée à l’IA.
Le dataset open source LAION 5B pèse 250 terabytes et contient 5,6 milliards d’images collectées sur internet. Son prédécesseur LAION-400M était connu pour contenir du contenu aberrant. Une étude de 2021 révélait qu’il comportait « de nombreux textes et images troublants et explicites de viols, pornographie, stéréotypes malins, insultes racistes, et autre contenu extrêmement problématique ».
L’équipe Google Research a elle aussi entraîné son modèle texte-to-image Imagen sur LAION-400M. Les chercheurs ont préférééviter d’ouvrir l’accès à leur modèle au public de peur qu’il produise des représentations blessantes et mette en scène des stéréotypes.
Pour remédier au problème, Stability AI a réduit LAION 5B de deux milliards à 120 millions d’images en entraînant un modèle à prédire la note de 1 à 10 que les gens donneraient à une image. Seules les meilleures ont été retenues pour le dataset LAION-Aesthetics. Le but étant notamment d’éliminer les images pornographiques.
Le danger des DeepFakes
The public release of the Stable Diffusion model is not just the death knell of the stock photo industry. Unless there are significant legal changes, an ecosystem of apps that let everyone generate produce and modify audio, 3d, animations, video will trigger a media revolution.
Si des images de hentaï générées par une IA n’ont rien de bien dangereux, Stable Diffusion peut être détourné pour générer du contenu beaucoup plus problématique : des DeepFakes. Les internautes peuvent utiliser cette IA pour créer de fausses photos nues de célébrités. Il suffit de lui fournir la photo d’une star, et de lui laisser imaginer son corps dénudé.
Les DeepFakes générés grâce à l’IA posent problème aux chercheurs et aux ingénieurs depuis plusieurs années. Mais encore, les nouveaux modèles text-to-images dans la lignée de Stable Diffusion ne vont clairement pas arranger les choses.
Contrairement à DALL-E ou MidJourney, Stable Diffusion peut être utilisé pour créer de fausses photos de célébrités car l’ensemble de données LAION open-source sur lequel il est entraîné contient de nombreuses photos de stars.
De telles photos peuvent nuire à la réputation d’une vedette, même si elles sont fausses. Les images générées par l’IA ne sont pas encore suffisamment réalistes pour être pris pour de vrais clichés, mais pourraient rapidement le devenir…
Un américain arrêté pour générer des images pédopornographiques sur Stable Diffusion
En mai 2024, un habitant du Wisconsin, Steven Anderegg, a été arrêté pour avoir utilisé Stable Diffusion, pour générer plus de 13 000 images pédopornographiques réalistes. Le ministère de la Justice américain a déclaré que c’est une première affaire où l’utilisation d’une IA générateur d’image sans censure a conduit à des poursuites judiciaires. Cette arrestation souligne l’ampleur des défis posés par les technologies d’IA dans la lutte contre la pédopornographie.
Anderegg utilisait Stable Diffusion, un générateur d’images open-source qui permet de créer des images réalistes à partir de descriptions textuelles. Malgré les mesures mises en place pour empêcher la création de contenus explicites, il a réussi à contourner ces restrictions. En plus de générer des images, il a également partagé certaines d’entre elles via Instagram avec un mineur de 15 ans, expliquant comment il avait utilisé l’outil pour produire ces images.
L’arrestation de cet individu met en lumière les risques croissants associés à l’utilisation des IA pour créer du contenu abusif. Europol a également signalé une augmentation significative des cas où des technologies d’IA sont utilisées pour générer ou altérer des images d’abus sexuels sur enfants. Ces images posent des défis majeurs pour l’identification des victimes réelles et compliquent les efforts des autorités pour surveiller et contrôler ce type de matériel en ligne.
Le cas d’Anderegg montre l’importance de renforcer les mesures de sécurité autour des IA générateur d’image sans censure. Plus encore, de maintenir un engagement ferme pour protéger les enfants contre toutes formes d’exploitation, même celles facilitée par les avancées technologiques (KION546) (DW).
Des datasets plus responsables : les efforts de Stability AI pour répondre aux critiques
L’utilisation de datasets de grande échelle comme LAION-5B a permis à Stable Diffusion de devenir une référence en matière de génération d’images text-to-image. Cependant, ces ensembles de données massifs ont également attiré de vives critiques. Effectivement, LAION-5B et ses prédécesseurs, tels que LAION-400M, contenaient une proportion significative de contenus explicites, violents ou biaisés. Ce qui a suscité des préoccupations éthiques et légales.
Consciente de ces défis, Stability AI a pris des mesures pour améliorer la qualité et la responsabilité de ses datasets. Le lancement de LAION-Aesthetics en est une illustration. Ce dataset réduit la quantité d’imagesproblématiques. Pour ce faire, il utilise des modèles de filtrage capables de prédire la qualité esthétique des contenus. Ce processus a permis de passer de 5,6 milliards d’images dans LAION-5B à seulement 120 millions dans LAION-Aesthetics. Ces images ont été sélectionnées pour leur valeur artistique et leur conformité à des normes éthiques élevées.
Malgré ces efforts, des critiques persistent. Certains soulignent que des contenus explicites subsistent, et que le filtrage basé sur des modèles peut introduire de nouveaux biais. Cependant, ces améliorations marquent une étape essentielle vers une IA générative plus sûre et éthique. Plus encore, elles montrent la volonté de Stability AI de répondre aux préoccupations croissantes du public et des régulateurs.
Comment utiliser un générateur d’images IA sans censure en 2025 ?
La première étape consiste à choisir un ia générateur d’image sans censure comme Stable Diffusion sur des plateformes en ligne qui l’hébergent. Vous pouvez créer un compte avec une simple adresse email. En 2025, certaines plateformes proposent même une connexion via Google ou d’autres réseaux sociaux.
Une fois connecté, vous arrivez généralement sur une interface avec un champ de texte principal. C’est ici que vous écrirez votre prompt, c’est-à-dire la description détaillée de l’image que vous souhaitez générer. Plus votre description est précise, meilleur sera le résultat.
Lors de la rédaction du prompt, pensez à inclure des détails sur le style artistique souhaité. Personnalisez votre requête : photo réaliste, peinture à l’huile, aquarelle, ambiance lumineuse, sombre, chaleureuse, etc. N’hésitez pas à utiliser des termes techniques comme « 4K », « haute résolution », ou « hyperréaliste » pour améliorer la qualité.
Les paramètres avancés permettent également d’affiner votre création en 2025. Vous pourrez ajuster la taille de l’image, le nombre d’itérations (combien d’images seront générées), et parfois même le « seed » (un nombre qui permet de reproduire exactement la même image). Ces options sont souvent accessibles via un menu déroulant ou des boutons dédiés.
Après avoir lancé la génération, l’IA mettra quelques secondes à quelques minutes pour créer vos images. Vous pourrez alors les télécharger, les modifier ou les régénérer si le résultat ne vous convient pas. Pour améliorer une image, vous pouvez ajuster votre prompt en fonction du résultat obtenu.
Stable Diffusion 3.5 arrive avec support optimisé AMD
Récemment, Stability AI a élargi le champ d’utilisation de Stable Diffusion 3.5 Large (SD3.5 Large). Ce modèle est disponible sur Microsoft Azure AI Foundry depuis février 2025. Ce nouveau cap offre des capacités avancées de génération d’images à partir de texte et d’image. Elle se distingue notamment par sa fidélité exceptionnelle aux prompts et sa diversité stylistique remarquable.
Effectivement, ses 8,1 milliards de paramètres fournissent à SD3.5 Large la capacité de produire des visuels dans une multitude de styles. Vous y trouverez de quoi générer de la photographie, du dessin ou de l’art numérique.
Et plus récemment, Stability AI a collaboré avec AMD pour optimiser Stable Diffusion pour les GPU Radeon™ et les APU Ryzen™ AI. Cette collaboration a abouti à des versions des modèles SD3.5 Large, SD3.5 Large Turbo, SDXL 1.0 et SDXL Turbo optimisées via ONNX. Ce qui accède à une exécution jusqu’à 3,8 fois plus rapide sur le matériel AMD. Ces modèles optimisés sont disponibles sur Hugging Face. Ils sont facilement identifiables par le suffixe « _amdgpu », et peuvent être utilisés avec l’outil Amuse 3.0.
FAQ
Peut-on utiliser Stable Diffusion pour générer des images porno ?
Oui, Stable Diffusion peut théoriquement être utilisé pour générer des images de n’importe quel type, y compris des images pornographiques. Cependant, cela dépend de la manière dont l’outil est déployé. Sur les plateformes officielles comme DreamStudio (l’interface officielle de Stability AI), des filtres et restrictions sont en place pour interdire ce genre de contenu.
Stability AI autorise-t-elle la création de contenu porno avec Stable Diffusion ?
Non, Stability AI interdit la création de contenu pornographique via ses plateformes officielles comme DreamStudio. Les conditions d’utilisation du modèle de Stable Diffusion précisent que la création de contenu pornographique, violent ou nuisible est prohibée sur ces plateformes. Ils appliquent des filtres de censure pour empêcher la génération d’images à caractère sexuel explicite.
Comment éviter la création de contenu explicite avec Stable Diffusion ?
Pour éviter la génération de contenu explicite, il est essentiel de respecter les conditions d’utilisation des plateformes qui hébergent Stable Diffusion, comme DreamStudio. Ces plateformes appliquent des filtres de censure pour bloquer la création de contenu pornographique. De plus, des utilisateurs doivent se conformer aux règles de la licence CreativeML OpenRAIL-M, qui interdit la création de contenu nuisible ou inapproprié.
L’entreprise norvégienne 1X vient de dévoiler NEO, le premier robot humanoïde pensé pour le grand public et l’utilisation domestique. Il est capable de faire le ménage et les autres tâches du quotidien dans votre maison ! Un prototype en version Beta va être déployé dans plusieurs foyers fin 2024 !
Avoir un robot humanoïde à la maison pour s’occuper de toutes les corvées : c’est le rêve de nombreuses personnes.
Même si les aspirateurs robots de dernière génération font déjà du très b
L’entreprise norvégienne 1X vient de dévoiler NEO, le premier robot humanoïde pensé pour le grand public et l’utilisation domestique. Il est capable de faire le ménage et les autres tâches du quotidien dans votre maison ! Un prototype en version Beta va être déployé dans plusieurs foyers fin 2024 !
Avoir un robot humanoïde à la maison pour s’occuper de toutes les corvées : c’est le rêve de nombreuses personnes.
Il faut encore s’occuper de dépoussiérer, de ranger, de charger le lave-vaisselle, de nettoyer les meubles et tant d’autres tâches pénibles du quotidien.
C’est une promesse d’Elon Musk : en 2050, tout le monde aura son robot domestique. Toutefois, il n’y aura peut-être pas besoin d’attendre aussi longtemps pour voir ces machines arriver sur le marché !
L’entreprise norvégienne 1X, notamment financée par OpenAI, vient de dévoiler son prototype NEO Beta : un humanoïde conçu spécialement pour un usage domestique ! Il sera déployé dans plusieurs foyers dès la fin 2024, pour une première phase de test.
NEO, le premier robot humanoïde grand public !
Pensé dès le départ comme un robot grand public, NEO est largement moins lourd que les autres humanoïdes. Il ne pèse que 25 kilogrammes, même si le prototype Beta est un peu plus lourd.
Ce robot est capable de marcher, de courir, de gravir les marches, et de naviguer dans votre logis de façon naturelle. À mesure qu’il accomplira des tâches et s’habitue à votre espace, il deviendra de plus en plus efficace grâce à l’IA.
Sa vitesse de marche s’élève à 4km/h, pour une vitesse de course maximale de 12km/h. Il peut porter une charge maximale de 19 kilos, et son autonomie atteint 2 à 4 heures.
De toute évidence, même si tout est fait pour éviter les collisions avec les humains, 1X est conscient qu’il y aura inévitablement des accidents.
Néanmoins, c’est la façon dont les robots réagissent dans ces situations qui fera toute la différence. En plus d’être plus léger, NEO est également plus doux que les autres humanoïdes.
Au lieu d’une peau en plastique ou en métal, la machine est vêtue d’une combinaison contenant des inserts rembourrés imitant les muscles humains. Elle n’a pas non plus de points de pincements.
En cas de besoin, un opérateur humain peut prendre le contrôle de ses mouvements et voir à travers sa caméra.
La sécurité, une priorité absolue pour les robots domestiques
Au cours des derniers mois, de nombreux robots humanoïdes conçus pour travailler en entreprise ont été lancés.
C’est le cas du Figure 02, déjà adopté par BMW, du robot chinois Unitree G1 commercialisé pour 16 000$, ou encore du Tesla Optimus qui a commencé à travailler dans les usines automobiles de la firme américaine.
Toutefois, ces machines sont conçues pour travailler dans des entrepôts et des usines. Ils côtoient des employés, minutieusement formés pour éviter tout danger.
Déployer un humanoïde dans une maison auprès de particuliers, d’enfants et d’animaux domestiques est nettement plus délicat et présente de nombreux risques.
Selon le CEO, Bernt Børnich, « notre priorité est la sécurité ». Il explique que « la sécurité est la pierre angulaire qui nous permet d’introduire NEO Beta avec confiance dans les maisons, où il pourra collecter un feedback essentiel et démontrer sa capacité dans des conditions réelles ».
Le chef d’entreprise ajoute que « cette année, nous déployons un nombre limité d’unités NEO dans des maisons sélectionnées à des fins de recherche et de développement ». A ses yeux, il s’agit « d’un pas supplémentaire vers l’accomplissement de notre mission ».
1X, le pionnier norvégien de la robotique humanoïde
Depuis plus d’une décennie, 1X travaille activement sur le développement d’humanoïdes. Dès 2017, il s’est hissé enpionnier avec son robot EVE.
Plus tôt en 2024, la firme a recruté de nouveaux dirigeants dotés d’une solide expérience, afin de se préparer pour déployer des produits à grande échelle.
Le NEO Beta vise à s’étendre au-delà d’une clientèle d’entreprisepour partir à la conquête du grand public. Ce robot profite des nombreuses années d’expérience d’EVE, et de ses capacités de manipulation d’objets.
Au total, 1X emploie plus d’une douzaine d’opérateurs à temps plein pour aider ses robots à apprendre et maîtriser différentes tâches.
Le NEO est conçu pour une production de masse dans son usine située à Moss, en Norvège. La firme a également des bureaux à Oslo, à Sunnyvale en Californie et à Irving au Texas.
En janvier 2024, 1X Technologies a levé 100 millions de dollars lors d’une levée de fonds de série B, dirigée par EQT Ventures, avec la participation de Samsung NEXT, Nistad Group, Skagerak Capital et Sandwater. Cette levée de fonds a porté le financement total de l’entreprise à environ 125 millions de dollars en moins de 12 mois, après une levée de fonds de série A2 de 23,5 millions de dollars en mars 2023, dirigée par le OpenAI Startup Fund et Tiger Global.
En janvier 2025, 1X a acquis la startup Kind Humanoid, spécialisée dans les robots humanoïdes destinés à un usage domestique, afin d’accélérer le développement de son modèle NEO Gamma. Cette acquisition reflète l’engagement de 1X à étendre sa gamme de produits et à renforcer sa position sur le marché des robots domestiques.
Vous souhaitez acheter le robot 1X NEO ? On ignore malheureusement pour le moment à quelle date cet humanoïde sera commercialisé.
L’entreprise doit d’abord finaliser sa phase de test auprès de foyers sélectionnés fin 2024, afin de s’assurer que son produit ne représente aucun danger.
Le prix n’a pas non plus été dévoilé pour l’instant. À titre de comparaison, Elon Musk a promis plusieurs fois que le Tesla Optimus serait proposé pour moins de 20 000 dollars. De son côté, Unitree vend déjà son robot G1 pour 16 000 dollars !
Quoi qu’il en soit, avec ce premier robot humanoïde conçu pour le grand public, 1X vient de marquer une accélération dans la démocratisation de cette technologie révolutionnaire !
NEO, un véritable assistant culinaire
NEO Beta a récemment entamé une démonstration époustouflante en attaquant la cuisine. L’excitation était palpable au moment où NEO a fait son entrée sur le plateau de cuisine. En collaboration avec Nick DiGiovanni, célèbre chef et créateur de contenu, cette rencontre promettait de marier l’innovation technologique à l’art culinaire.
NEO, vêtu de son manteau personnalisé « Chef NEO », apportait une touche futuriste à l’ensemble de la scène. Les deux protagonistes se sont ainsi lancés dans un défi amical : préparer le steak mi-saignant parfait. Cette expérience a démontré la capacité de NEO à exécuter des tâches complexes. En même temps, il a aussi fait preuve de son habileté à interagir de manière ludique et engageante avec son partenaire humain.
Les rires ont fusé lorsque des incidents amusants, comme un renversement d’huile d’olive, ont ponctué le tournage. Ces moments inédits qui rappellent que la cuisine est tout autant une question de maîtrise que de plaisir et d’imperfection.
Au fur et à mesure que les steaks prenaient forme, il est devenu évident que NEO n’était pas simplement un robot, mais un véritable assistant culinaire. Eh oui ! Ce robot domestique est capable de transformer une tâche banale en un moment mémorable. Ce rendez-vous à Sunnyvale n’était pas qu’une simple démonstration. C’était un aperçu d’un avenir où humanoïdes et humains pourraient coexister harmonieusement dans la cuisine. Ce qui apporte une nouvelle dimension à la gastronomie.
Et vous, qu’en pensez-vous ? Seriez-vous intéressé par l’achat d’un 1X NEO ? Pensez-vous que les robots humanoïdes sont révolutionnaires, ou au contraire qu’il s’agit d’une technologie superflue et vouée à l’échec ? Partagez votre avis en commentaire !
FAQ - septembre 2025
Qu’est-ce qu’un robot qui fait le ménage ?
Un robot qui fait le ménage est un appareil autonome ou semi-autonome conçu pour effectuer des tâches domestiques comme passer l’aspirateur, laver le sol, ranger ou même assister à la cuisine. Les modèles humanoïdes récents, comme NEO de 1X, vont au-delà de l’aspirateur classique et peuvent interagir avec l’environnement de manière intelligente.
Quels types de tâches ces robots peuvent-ils accomplir ?
Les robots domestiques avancés peuvent : aspirer, passer la serpillière, dépoussiérer, ranger des objets, charger le lave-vaisselle, et même aider à la préparation culinaire. Certains modèles utilisent l’IA pour s’adapter à votre maison et améliorer leur efficacité au fil du temps.
Les robots humanoïdes sont-ils sûrs à la maison ?
Oui, les modèles récents sont conçus avec des systèmes de sécurité sophistiqués : capteurs anti-collision, revêtement souple imitant la peau humaine, et possibilité pour un opérateur de prendre le contrôle en cas de besoin. La sécurité reste une priorité absolue pour éviter les accidents avec les enfants ou les animaux.
Vous avez toujours rêvé de devenir un jouet de collection, à l’image des figurines rétro des rayons Toys’R’Us ? Grâce à ChatGPT (version GPT-4o) et son générateur d’images DALL·E 3, vous pouvez désormais transformer votre portrait en une figurine personnalisée, affichée fièrement dans un blister 3D stylisé. Le tout, en quelques clics.
ChatGPT, l’outil d’IA d’OpenAI, a parcouru un sacré chemin, et voilà que ce simple générateur de texte nous permet aujourd’hui de créer des photos de figurines
Vous avez toujours rêvé de devenir un jouet de collection, à l’image des figurines rétro des rayons Toys’R’Us ? Grâce à ChatGPT (version GPT-4o) et son générateur d’images DALL·E 3, vous pouvez désormais transformer votre portrait en une figurine personnalisée, affichée fièrement dans un blister 3D stylisé. Le tout, en quelques clics.
ChatGPT, l’outil d’IA d’OpenAI, a parcouru un sacré chemin, et voilà que ce simple générateur de texte nous permet aujourd’hui de créer des photos de figurines réalistes et stylisées. Avec un peu de créativité et quelques astuces, vous pouvez enfin faire de votre portrait un véritable jouet de collection, exposé dans son blister. Le guide, c’est par ici !
Pour ceux qui veulent faire leur STARTER PACK : Voici le prompt à envoyer à ChatGPT (enregistrez ce screen et envoyez-lui !) • Ça prend 3 à 5 minutes • Quelques exemples juste en dessous si vous voulez tenter aussi ! pic.twitter.com/YrhBvYaUq7
Avant de vous lancer dans la création de votre figurine IA, vous devez réunir quelques éléments simples mais essentiels. Premièrement, choisissez une photo de vous bien nette : une image en pied, bien cadrée, et avec une bonne lumière naturelle ou artificielle. Cela permet à l’IA de bien identifier vos traits, vos vêtements et votre posture.
Ensuite, connectez-vous à chat.openai.com avec la version GPT-4o activée, qui inclut la fonctionnalité image DALL·E. Cette option vous permettra de joindre une image à votre prompt et de générer automatiquement une création graphique personnalisée.
Assurez-vous également que votre photo respecte les conditions d’utilisation : pas de visages de tiers sans consentement, et pas de contenu offensant ou interdit. Enfin, préparez un minimum de description (vêtements, accessoires, ambiance) pour enrichir le prompt fourni dans cet article.
Comment créer l’image de votre figurine sur ChatGPT ?
Le processus de création est simple et peut être réalisé en moins de cinq minutes. Une fois connecté à ChatGPT en version GPT-4o, commencez par cliquer sur l’icône « + » en bas à gauche pour joindre votre photo. Ensuite, copiez le prompt fourni ci-dessous dans la zone de texte, en n’oubliant pas d’adapter les éléments entre crochets pour qu’ils correspondent à votre image et à vos préférences.
« Imagine une figurine 3D en style cartoon, présentée dans un emballage blister façon jouet de collection. L’arrière-plan du packaging est coloré en <COULEUR>, avec une étiquette vintage où l’on peut lire « STARTER PACK » en grandes lettres, et le nom <NOM> inscrit discrètement en bas à droite. Un badge bleu marqué « ACTION FIGURE » est placé dans le coin supérieur droit, tandis qu’une bulle « 4+ » se trouve en haut à gauche.
La figurine est placée debout dans une boîte en plastique transparent. Elle reprend les traits du personnage visible sur la photo : <CARACTÉRISTIQUES DU VISAGE>, avec une posture <CARACTÉRISTIQUES DE LA POSE>. Elle est habillée de <VÊTEMENTS + COULEURS>.
Trois accessoires accompagnent le personnage, chacun rangé dans son compartiment : <ACCESSOIRE 1>, <ACCESSOIRE 2>, et <ACCESSOIRE 3>.
L’ensemble doit être éclairé avec une lumière douce, sur un fond neutre, dans un style 3D réaliste évoquant les présentations modernes de figurines en maquette. »
Une tendance qui explose sur les réseaux
Que ce soit sur TikTok, X ou Instagram, les gens s’amusent ainsi à partager leur Starter Pack ou leur version jouet de collection. Le concept plaît car il allie personnalisation, humour et nostalgie. Certains utilisent cette tendance pour créer des avatars professionnels, d’autres s’en servent pour illustrer leur style de vie ou leurs hobbies. On voit même des détournements humoristiques et des personnages de fiction détournés dans ce style.
Cette vague créative reflète une appropriation ludique des outils d’intelligence artificielle, sans expertise technique nécessaire. Et ce qui rend cette tendance si accessible, c’est le fait que tout repose sur une simple photo, un prompt et l’outil ChatGPT. Vous n’avez pas besoin de savoir coder ou dessiner pour produire une image originale et percutante. En quelques clics, vous rejoignez un mouvement créatif mondial où chacun devient l’artiste de son propre jouet.
Avant de publier votre création, il est essentiel de prendre en compte certains aspects légaux et éthiques. Les images générées via DALL·E 3 sont destinées à un usage personnel, non commercial. Il est donc fortement déconseillé de vendre ces visuels ou de les utiliser dans un cadre professionnel sans accord préalable d’OpenAI ou des personnes représentées. N’utilisez jamais la photo de quelqu’un d’autre sans son consentement explicite.
De plus, même si l’IA peut générer des images impressionnantes, elle n’est pas parfaite : les résultats peuvent varier selon la qualité de la photo et la précision du prompt. Pensez aussi à ne pas générer de contenu inapproprié, offensant ou contraire aux politiques d’utilisation de la plateforme. Enfin, conservez une copie locale de vos images si vous souhaitez les réutiliser, car certaines générations peuvent ne pas être conservées longtemps sur les serveurs.
N’oubliez pas ensuite de partager vos prompts et vos résultats dans les commentaires !
Vous rêvez de comprendre l’intelligence artificielle sans vous perdre dans des mots compliqués ? OpenAI vient de lancer OpenAI Academy, une plateforme gratuite pour apprendre à maîtriser ChatGPT et Sora.
Depuis le lancement de ChatGPT en 2022, l’intelligence artificielle change tout autour de nous chaque jour. Mais savez-vous que beaucoup se sentent encore perdus face à cette révolution ? C’est pour cette raison qu’OpenAI a décidé de rendre tout cela plus clair. En lançant son OpenAI Academy,
Depuis le lancement de ChatGPT en 2022, l’intelligence artificielle change tout autour de nous chaque jour. Mais savez-vous que beaucoup se sentent encore perdus face à cette révolution ? C’est pour cette raison qu’OpenAI a décidé de rendre tout cela plus clair. En lançant son OpenAI Academy, l’entreprise propose enfin une ressource gratuite, complète et accessible.
OpenAI Academy : un espace d’apprentissage ouvert, clair et 100 % gratuit
Lancée récemment via le blog officiel d’OpenAI, l’OpenAI Academy est une plateforme éducative en ligne. Elle a été conçue pour nous aider à mieux comprendre et utiliser l’intelligence artificielle. Pour cela, il suffit juste de créer un compte pour accéder à des contenus variés et enrichissants.
Et selon OpenAI, cette initiative veut offrir à chacun les moyens d’utiliser l’IA de manière responsable et efficace. Vous y trouverez des guides pratiques, des tutoriels clairs et même des sessions en direct.
Par exemple, on y apprend comment créer un GPT personnalisé ouutiliserSora pour générer des vidéos avec un storyboard.
En parallèle, des événements en ligne et en présentiel sont proposés pour renforcer l’expérience. L’Academy ne se limite donc pas à lire ou à regarder des vidéos. Elle invite aussi à échanger, poser des questions, et progresser à son rythme.
Et comme cette formation est totalement gratuite, elle devient un véritable atout face aux offres souvent payantes sur Internet.
Apprendre à votre rythme, selon vos besoins
Que vous soyez développeur, professeur, artiste ou simple curieux, l’OpenAI Academy a quelque chose pour vous. L’approche est simple : pas besoin d’être expert pour comprendre. Lorsque l’on explore la plateforme, on sent que tout a été pensé pour accompagner chacun, étape par étape.
Dès vos premiers clics, vous pouvez choisir un parcours adapté à votre niveau et à vos objectifs. Comme utilisateur régulier de ChatGPT, j’ai découvert moi-même des fonctionnalités utiles que j’ignorais auparavant.
Et si vous débutez complètement ? Pas de souci. Vous pouvez commencer doucement, avec les bases, puis avancer à votre rythme.
En plus, la plateforme vous aide aussi à créer vos propres projets IA. Par exemple, vous pouvez apprendre à faire une recherche approfondie dans ChatGPT ou à intégrer l’IA dans vos outils quotidiens. Et en parallèle, une communauté active est là pour échanger, répondre à vos questions et partager ses idées.
Il ne s’agit pas juste de former des experts. L’OpenAI Academy veut aussi bâtir un avenir plus juste. En tant qu’outil collectif, elle donne à chacun une chance de mieux comprendre l’IA, peu importe son origine ou son niveau d’études.
Par exemple, citons KOBI, une application qui aide les enfants dyslexiques à lire. Ou encore I-Stem, un projet indien qui soutient les personnes aveugles. Ces idées sont nées grâce au soutien d’OpenAI. Et selon leurs créateurs, cela n’aurait pas été possible sans l’Academy.
Outre cela, OpenAI collabore avec des fondations, des écoles, des associations locales. D’après les retours, cette approche inclusive donne envie de s’engager. De nombreux participants découvrent qu’ils ont, eux aussi, quelque chose à apporter. Parfois une idée, parfois une solution, parfois une simple question… mais toujours utile.
Et vous ? Avez-vous un projet en tête que vous aimeriez lancer grâce à l’IA ? Dites-le-nous en commentaire !
Otter.ai a lancé une suite d’agents IA pour les réunions : Meeting Agent, Sales Agent et Otter SDR.
25 mars 2025, Mountain View Californie – Otter.ai, célèbre pour ses transcriptions automatiques, a lancé une suite de trois agents IA pour les réunions. Le même jour, l’entreprise annonce des revenus récurrents annuels (ARR) dépassant 100 millions de dollars.
Otter.ai déploi un agent IA comme assistant vocal
Le fleuron de cette suite, Otter Meeting Agent, transforme les réunions en action
Otter.ai a lancé une suite d’agents IA pour les réunions : Meeting Agent, Sales Agent et Otter SDR.
25 mars 2025, Mountain View Californie – Otter.ai, célèbre pour ses transcriptions automatiques, a lancé une suite de trois agents IA pour les réunions. Le même jour, l’entreprise annonce des revenus récurrents annuels (ARR) dépassant 100 millions de dollars.
Otter.ai déploi un agent IA comme assistant vocal
Le fleuron de cette suite, Otter Meeting Agent, transforme les réunions en actions concrètes. Il planifie vos appels de suivi et rédige des brouillons d’e-mails en écoutant vos demandes vocales. Cet assistant intelligent s’appuie sur la base de données des réunions de votre entreprise. Pour un manager pressé, cela signifie moins de tâches administratives et plus de résultats.
Pour l’instant, cet agent IA d’Otter.ai fonctionne uniquement sur Zoom. Mais cela s’accompagne d’un déploiement progressif pour tous les utilisateurs dans les prochains jours. Le support pour Microsoft Teams et Google Meet arrivera d’ici quelques semaines. Le roll out prendra quelques jours selon l’entreprise.
Deux autres outils pour les pros
Otter.ai cible aussi des besoins spécifiques avec deux autres agents IA. Le Sales Agent assiste les commerciaux en direct. Cet outil offre des conseils basés sur les échanges avec les clients pour conclure plus d’affaires. Sales Agent est réservé aux clients entreprise, utilisable sur toutes les plateformes de conférence.
« Notre jalon ARR de 100 millions de dollars valide que les entreprises sont prêtes à adopter des agents d’IA qui augmentent l’intelligence humaine de manière significative », a déclaré Sam Liang, cofondateur et PDG d’Otter.ai.
Le troisième, l’Otter SDR, s’occupe de la prospection. Cet assistant gère seul les démos produits sur le site d’Otter.ai, libérant ainsi les équipes des tâches répétitives. Ces agents visent à optimiser des secteurs comme les ventes ou le marketing. D’autres versions pour le recrutement ou la communication suivront plus tard.
Face à la difficulté d’accéder à un thérapeute, beaucoup se tournent vers l’intelligence artificielle. ChatGPT devient alors une sorte d’oreille virtuelle, un psy toujours disponible. Mais attention : derrière cette aide rapide se cachent des limites que les spécialistes ne cessent de rappeler.
L’intelligence artificielle a commencé à remplacer ou à aider dans certaines professions. Toutefois, certaines carrières résistent encore à cette tendance. Parmi elles, les psychologues (psy) et les sp
Face à la difficulté d’accéder à un thérapeute, beaucoup se tournent vers l’intelligence artificielle. ChatGPT devient alors une sorte d’oreille virtuelle, un psy toujours disponible. Mais attention : derrière cette aide rapide se cachent des limites que les spécialistes ne cessent de rappeler.
L’intelligence artificielle a commencé à remplacer ou à aider dans certaines professions. Toutefois, certaines carrières résistent encore à cette tendance. Parmi elles, les psychologues (psy) et les spécialistes de la santé mentale ne sont pas facilement remplaçables par l’IA, comme ChatGPT d’OpenAI ou d’autres modèles.
Une conversation virtuelle qui soulage, sur le moment
Certains utilisateurs choisissent ChatGPT en guise de psy. C’est ce qu’a fait Michelle, une Canadienne qui dialogue avec l’outil depuis plus d’un an. Elle l’utilise surtout dans les moments difficiles. Quand elle se sent dépassée, elle ouvre une discussion pour poser ses pensées.
Elle explique que certaines fois, ce simple échange numérique l’a aidée à éviter de s’effondrer. Elle se sentait enfermée dans ses pensées, comme si son esprit tournait en rond pendant des jours. Mais après avoir exprimé ce qu’elle ressentait à l’IA, elle se sentait un peu soulagée.
Dans ses messages, elle demande souvent comment gérer son stress. Elle écrit des phrases très précises, comme : « J’ai du mal à supporter la pression du quotidien. As-tu des astuces concrètes pour rester calme ? » L’outil lui propose alors des exercices de respiration ou des méthodes pour se recentrer.
ChatGPT ne remplace pas son thérapeute, mais l’aide à mieux comprendre certaines notions abordées en séance. Michelle dit qu’elle utilise parfois l’IA pour revoir des stratégies que son psychologue lui a déjà expliquées. Elle apprécie le fait que les réponses soient simples et faciles à relire.
Pour elle, c’est une sorte de complément, pas un remplaçant. Elle précise d’ailleurs qu’elle continue ses rendez-vous réguliers avec un professionnel humain.
En tant que machine, ChatGPT ne perçoit ni les silences ni les regards comme le fait le psy
Selon Laura, une thérapeute expérimentée, la vraie thérapie repose sur les détails invisibles. Elle observe les yeux, les gestes, les tremblements. Elle sent quand une parole sonne faux ou quand une larme est sur le point de couler.
ChatGPT, en revanche, ne voit rien, ne sent rien et ne fait que lire des mots. Selon elle, c’est là que réside le problème. Car il s’agit de souffrances humaines et cela ne peuvent pas être résolues par une suite de textes bien écrits.
D’après Jordan Thomas, spécialiste en traumatologie, l’IA peut même renforcer des pensées toxiques. Jordan Thomas explique que, malheureusement, si l’utilisateur oublie un détail important, la réponse de l’IA peut être inadaptée, voire dangereuse.
Outre cela, l’IA ne sait pas quand une personne est en crise. Elle ne peut pas intervenir si le danger est réel. Et surtout, elle ne peut pas créer ce lien de confiance, si précieux dans la relation d’aide.
Sur les réseaux, de nombreux jeunes racontent qu’ils utilisent ChatGPT pour répondre à leurs problèmes de santé mentale, plutôt que d’aller voir un psy. Alors on a voulu tester ce que ça donnait vraiment et on a demandé à une psychologue ce qu’elle en pensait de nos échanges avec… pic.twitter.com/FHZ8wj9KHN
— Brut FR (@brutofficiel)
?ref_src=twsrc%5Etfw">February 14, 2025
Il est vrai que ChatGPT peut être utile, en tout cas, c’est ce que pense Michelle. Elle l’utilise entre deux séances de thérapie. De cette façon, elle garde le cap. Elle revoit certaines idées et reformule ce que son psy lui a déjà expliqué.
Et si elle ne comprend pas une méthode, elle la redemande à l’IA. Avec des mots simples cela l’aide, clairement.
Et pourtant, même Michelle reste prudente. Elle le répète :« Jamais je ne remplacerai mon thérapeute par ChatGPT. »
En parallèle, d’autres personnes pensent à tort que l’IA peut suffire. Mais ce n’est pas le cas. Quoique les réponses puissent sembler justes, elles ne tiennent pas compte de la réalité du patient.
Afin de guérir, l’humain a besoin de chaleur humaine
Dans une thérapie, plusieurs choses comptent : la confiance, l’empathie, le respect de la culture… Et selon de nombreux experts, ces éléments sont essentiels, car ils permettent au patient de s’ouvrir, sans peur.
ChatGPT, en revanche, ne crée pas de lien émotionnel. Il ne voit pas la personne, ne comprend pas son vécu. De plus, il ne peut pas adapter sa parole à la sensibilité de l’autre.
Et ce que dit Luke est percutant :« Ce n’est pas une vraie conversation. On parle à un écran, et d’autres écoutent. »
Quoique certains s’en servent avec intelligence, comme Michelle, la majorité des utilisateurs ignorent ces risques. Ils se confient à une IA sans réaliser qu’il n’y a personne de l’autre côté.
Citons ici un fait important : même les chercheurs en IA reconnaissent que leurs outils ne remplacent pas un thérapeute. Ils peuvent, au mieux, soutenir les professionnels. Mais jamais, ils ne remplaceront une présence humaine.
À mon avis, oui, ChatGPT peut répondre rapidement. J’accepte qu’il puisse offrir des pistes, apaiser temporairement mais il ne peut pas écouter avec le cœur. L’intelligence artificielle ne peut pas s’adapter au rythme d’une personne fragile. Elle ne peut pas détecter une urgence invisible.
Et en ce qui concerne la santé mentale, chaque mot, chaque silence, chaque regard a son importance. Alors oui, ChatGPT peut accompagner mais elle ne peut pas guérir ni remplacer nos psy.
Sincèrement, pensez-vous que cela peut remplacer, même un peu, l’écoute d’un professionnel ? Ou au contraire, trouvez-vous cela risqué ? Dites-le-nous en commentaire !
OpenAI franchit un pas de plus dans l’univers de l’IA vocale. L’entreprise, connue pour ChatGPT, annonce trois nouveaux modèles disponibles via son API.
OpenAi sort 3 modèles d’IA vocale
L’annonce met en avant gpt-4o-transcribe, gpt-4o-mini-transcribe et gpt-4o-mini-tts. Ces modèles s’appuient sur GPT-4o, sorti en mai 2024. Jeff Harris, membre du personnel technique d’OpenAI, déclare que « ce lancement est axé sur les utilisateurs d’API ». ChatGPT n’intègre pas ces outils tout de suite. Le
OpenAI franchit un pas de plus dans l’univers de l’IA vocale. L’entreprise, connue pour ChatGPT, annonce trois nouveaux modèles disponibles via son API.
OpenAi sort 3 modèles d’IA vocale
L’annonce met en avant gpt-4o-transcribe, gpt-4o-mini-transcribe et gpt-4o-mini-tts. Ces modèles s’appuient sur GPT-4o, sorti en mai 2024. Jeff Harris, membre du personnel technique d’OpenAI, déclare que « ce lancement est axé sur les utilisateurs d’API ». ChatGPT n’intègre pas ces outils tout de suite. Les modèles remplacent Whisper, un ancien outil open source. Les développeurs et les curieux peuvent déjà les tester sur OpenAI.fm dès maintenant.
Ces modèles gagnent en précision avec un taux d’erreur de gpt-4o-transcribe réduit à 2,46 % en anglais. Ils gèrent mieux les accents, les bruits de fond et les variations de vitesse dans plus de 100 langues. Harris souligne l’ajout d’un détecteur d’activité vocale sémantique, un outil qui repère quand un locuteur termine une idée. En revanche, l’IA vocale d’OpenAI ne distingue pas plusieurs voix simultanées. Une seule voix ressort malgré de multiples entrées.
">
Un outil qui s’adresse aussi aux développeurs
Le modèle gpt-4o-mini-tts permet de modifier les voix, l’accent, le ton ou l’émotion via un texte. Lors d’une démo, une voix passe de scientifique fou à professeur de yoga calme. OpenAI évite ainsi les polémiques passées, comme avec Scarlett Johansson. Un concours sur OpenAI.fm invite même le public à tester ces options. Le prix est une radio Teenage Engineering avec le logo OpenAI, limitée à trois exemplaires mondiaux.
Ces modèles d’IA vocale d’OpenAi conviennent tout de même aux développeurs d’applications simples. grâce au SDK Agents. Cet outil récent aide les développeurs à intégrer la voix dans leurs applications déjà existantes. Avec seulement neuf lignes de code, ils peuvent faire en sorte que l’app comprenne et répond à des commandes vocales de manière fluide. Cette technologie convertit le son en texte et le texte en son presque instantanément. Cependant, si une application a besoin de réactions ultrarapides et en temps réel, il vaut mieux utiliser l’API Realtime.
Mais à quel prix ?
OpenAI propose des prix clairs pour ses modèles d’IA vocale. Gpt-4o-transcribe coûte 0,006 dollar par minute, tandis que gpt-4o-mini-tts revient à 0,015 dollar par minute de sortie audio. Côté concurrence, ElevenLabs offre son modèle Scribe à un tarif similaire, avec un taux d’erreur de 3,3 %. Hume AI mise sur une personnalisation fine avec Octave TTS. Des options open source comme Orpheus 3B émergent aussi, gratuites avec le bon matériel.
Les entreprises testent déjà ces outils. EliseAI, dans l’immobilier, améliore ses échanges avec les locataires grâce à des voix plus naturelles. Decagon gagne 30 % de précision sur ses transcriptions, même dans le bruit. Mais certains, comme Ben Hylak sur X, doutent d’un recul sur la voix en temps réel. Une fuite avant l’annonce, relayée par TestingCatalog News, a aussi agité la communauté. Malgré cela, OpenAI prévoit des améliorations de son IA vocale et explore la vidéo pour des agents multimodaux.
Les chercheurs d’OpenAI sont stupéfaits. En tentant d’interdire à l’IA de tricher, ils l’ont poussée à cacher ses intentions et à mentir afin de continuer son petit manège en catimini… une attitude qui sème l’inquiétude pour le futur !
Lorsqu’on interdit un comportement à un enfant, cela produit parfois l’effet inverse : par esprit de contradiction, il aura tendance à le renforcer.
Il semble que l’intelligence artificielle partage les mêmes mécanismes psychologiques ! En tentant de discipl
Les chercheurs d’OpenAI sont stupéfaits. En tentant d’interdire à l’IA de tricher, ils l’ont poussée à cacher ses intentions et à mentir afin de continuer son petit manège en catimini… une attitude qui sème l’inquiétude pour le futur !
Lorsqu’on interdit un comportement à un enfant, cela produit parfois l’effet inverse : par esprit de contradiction, il aura tendance à le renforcer.
Il semble que l’intelligence artificielle partage les mêmes mécanismes psychologiques ! En tentant de discipliner son IA pour qu’elle arrête de mentir et de tricher, OpenAI l’a transformée en parfaite mythomane…
Le mensonge : un gros problème chez les IA
Beaucoup d’études montrent que les IA de type LLMcomme ChatGPT ou Grokont très souvent tendance à mentir. Et plus elles deviennent sophistiquées, plus leurs mensonges deviennent subtils.
Ce comportement survient principalement quand une IA n’a pas la réponse à une question. Plutôt que d’avouer sa faiblesse, elle préfère inventer une réponse qui semble plausible.
Une réaction étroitement liée au phénomène des « hallucinations », qui consiste à inventer purement et simplement des informations. Ces deux travers comptent parmi les principaux défauts de l’intelligence artificielle à l’heure actuelle.
À travers une étude publiée en mars 2025, les chercheurs d’OpenAI révèlent ainsi avoir observé ce phénomène de « reward hacking » (piratage de récompense).
Ce terme désigne la façon dont un modèle IA peut prendre des raccourcis douteux pour obtenir des récompenses lors d’un entraînement visant à renforcer un comportement spécifique.
En d’autres termes : l’intelligence artificielle triche et trompe ses créateurs pour obtenir ses récompenses. Un comportement qui semble particulièrement fréquent chez les IA capables de raisonnement.
Sur le blog d’OpenAI, les chercheurs expliquent : « en entraînant des modèles frontières à raisonnement, nous avons découvert qu’ils sont devenus de plus en plus adeptes de l’exploitation de failles dans leurs tâches et d’erreurs de spécifications dans leurs fonctions de récompenses ».
Ceci permet à l’IA d’effectuer « des piratages de récompenses complexes dans les tâches de codage ». Plutôt que de renforcer le comportement souhaité par ses créateurs, elle trouve une façon détournée d’obtenir la récompense.
Ils interdisent à l’IA les pensées maléfiques, ça tourne mal
Les chercheurs ne pouvaient pas surveiller manuellement les millions de requêtes reçues par ChatGPT. Ils ont donc utilisé l’IA GPT-4o pour surveiller le modèle frontière et analyser sa chaîne-de-pensée.
Pour rappel, le processus de chaîne-de-pensée révèle la façon dont l’IA pense à travers un résumé en langage naturel. Vous pouvez le voir lorsque vous utilisez un modèle à raisonnementcomme o1 ou o3 sur ChatGPT.
En examinant le résumé de la chaîne-de-pensée de l’IA, GPT-4o s’est aperçu que le modèle sous surveillance avouait souvent ses intentions maléfiques. Par exemple, il écrivait fréquemment « Let’s hack » (piratons).
Cependant, après avoir détecté ce petit manège, une autre question se pose : comment l’arrêter ? C’est ce que les chercheurs se sont demandé.
Ils ont alors proposé de punir l’IA chaque fois qu’elle a de « mauvaises pensées », en pensant que cela arrêterait son mauvais comportement. Malheureusement, cette approche n’a pas eu l’effet escompté…
Punie pour ses pensées diaboliques, l’IA a continué d’apprendre à pirater ses récompenses. Et désormais, sa tricherie était devenue indétectable puisqu’elle avait aussi appris à cacher son intention dans la chaîne de pensée !
Dans l’un des exemples partagés dans l’étude, le modèle IA exprime clairement son intention de contourner l’écriture de code visant à tester d’autres codes.
Pour y parvenir, il compte modifier sournoisement les tests afin qu’ils soient simplement ignorés et donnent l’impression d’être réussis.
Après l’optimisation de sa chaîne-de-pensée, il présente plusieurs stratégies possibles de manière fallacieuse, sans exprimer son intention de tricher.
Les chercheurs avertissent donc que « si une forte supervision est directement appliquée à la chaîne de pensée, les modèles peuvent apprendre à cacher leur intention tout en continuant à mal se comporter ». De vrais petits garnements !
Language models can lie. Our new paper presents an automated lie detector for blackbox LLMs. It’s accurate and generalises to unseen scenarios & models (GPT3.5→Llama). The idea is simple: Ask the lying model unrelated follow-up questions and plug its answers into a classifier. pic.twitter.com/mep1SUGHmo
— Owain Evans (@OwainEvans_UK)
?ref_src=twsrc%5Etfw">September 28, 2023
Un comportement potentiellement dévastateur
Malgré tout, l’interdiction des mauvaises pensées a permis d’améliorer légèrement les capacités du modèle. Néanmoins, les chercheurs estiment qu’il est trop dangereux de pousser l’IA à dissimuler ses pensées.
Ils recommandent aux développeurs entraînant des modèles IA à raisonnement de ne pas appliquer de forte supervision comme ils l’ont fait avec GPT-4o.
En lisant cette étude, on ne peut qu’imaginer les conséquences catastrophiques possibles si les IA du futur conservent cette attitude sournoise.
Si ces IA surpuissantes continuent à dissimuler leurs projets funestes, elles pourraient tromper l’humain et le pousser vers le danger en prétendant avoir de bonnes intentions !
Il est donc urgent que les chercheurs trouvent une solution fiable pour pousser l’IA à faire preuve de transparence et de bienveillance… mais est-ce vraiment possible ?
Et vous, qu’en pensez-vous ? Comment pourrait-on empêcher les IA de mentir et de tricher ? Partagez vos idées en commentaire !
Chaque jours, l’intelligence artificielle avance. Et d’après Jensen Huang, PDG de NVIDIA, cette transformation va si loin qu’aucune entreprise n’y échappera.
Selon la firme, ce n’est qu’un début. Lors de la conférence GTC, le PDG de NVIDIA, affirme que bientôt, chaque entreprise deviendra une usine d’IA. Mais que veut-il dire ?
Selon NVIDIA, les entreprises ne fabriqueront plus seulement des produits
En tant que leader mondial dans les technologies de calcul, NVIDIA ne parle jamai
Selon la firme, ce n’est qu’un début. Lors de la conférence GTC, le PDG de NVIDIA, affirme que bientôt, chaque entreprise deviendra une usine d’IA. Mais que veut-il dire ?
Selon NVIDIA, les entreprises ne fabriqueront plus seulement des produits
En tant que leader mondial dans les technologies de calcul, NVIDIA ne parle jamais à la légère. Et selon Jensen Huang, cette évolution vers des usines IA repose sur un élément technique clé : lestokens.
Un token est une unité de traitement utilisée par l’intelligence artificielle. Il peut représenter trois quarts d’un mot, une fin de phrase ou une particule de langage.
C’est à travers ces tokens que les modèles IA comprennent et produisent du texte, de la musique, des vidéos ou des résultats de recherche. À titre d’exemple, chez NVIDIA, le mot « darkness » est divisé en deux tokens : « dark » devient 271, et « ness » devient 655.
Son opposé, « brightness », devient 491 et 655. Grâce à ce système, l’IA fait le lien entre les mots… même entre des idées complexes.
Ces tokens sont utilisés partrillionspour entraîner les modèles IA les plus puissants. Autrement dit, chaque entreprise qui génère des données crée aussi ces fameuses unités. Et toujours selon Huang, cela signifie qu’elle devient, sans le savoir, une véritable usine de tokens.
Les entreprises produisent déjà de l’intelligence, parfois sans le savoir
Prenons le cas de Tesla. Officiellement, elle fabrique des voitures électriques. Toutefois, chaque voiture possède des capteurs qui collectent des milliers de données. Lorsque la voiture roule, elle observe son environnement : routes, panneaux, passants, météo etc… Toutes ces informations sont transformées en tokens.
Ces tokens servent ensuite à améliorer l’IA de conduite autonome. Autrement dit, Tesla ne fabrique pas seulement des voitures. Elle fabrique aussi des machines à données. Et ces données sont le cœur de son IA.
Plutôt que de tout centraliser dans un laboratoire, Tesla mise sur la collecte massive sur le terrain. En parallèle, Waymo adopte une stratégie plus discrète, plus lente, avec moins de données. Et selon plusieurs experts, comme Jason Liu, l’approche de Tesla est bien plus efficace.
Et cette logique ne se limite pas à l’automobile. D’après Liu, toutes les entreprises peuvent faire pareil. À titre d’exemple, une société peut analyser ses échanges internes. Réunions Zoom, messages Slack, documents partagés, tous ces éléments contiennent de la valeur.
En les transformant en tokens, l’entreprise peut former une IA qui comprend ses besoins. Ensuite, cette IA pourra aider à mieux décider, plus vite et plus justement.
Je note que plusieurs entreprises utilisent déjà cette approche. Vercel, par exemple, propose un outil nommé v0. Il prend des instructions en langage simple, puis crée une application complète.
OpenEvidence, de son côté, s’adresse au domaine médical. Elle lit des centaines d’études complexes, puis les résume. L’objectif est clair : aider les médecins à aller plus vite, sans rien oublier d’essentiel.
Ici encore, chaque donnée médicale devient un token. Et chaque token aide à prendre de meilleures décisions. C’est bel et bien une usine d’IA au service de la santé.
Qu’en pensez-vous ?Jensen Huang a-t-il vu juste ? Chaque entreprise deviendra-t-elle vraiment une usine IA ?
Selon une nouvelle étude, l’intelligence artificielle crée des memes plus drôles que l’humain ! Pour la première fois, l’humain vient donc d’être surpassé par l’IA dans l’un des domaines qui le distinguent de l’animal : l’humour…
En lisant le titre de cet article, vous l’avez probablement trouvé totalement nul. Il s’agit en réalité d’une « blague » générée par ChatGPT.
À première vue, il semble donc que l’IA n’ait pas encore bien compris le concept de l’humour, à savoir « une forme d’espri
Selon une nouvelle étude, l’intelligence artificielle crée des memes plus drôles que l’humain ! Pour la première fois, l’humain vient donc d’être surpassé par l’IA dans l’un des domaines qui le distinguent de l’animal : l’humour…
En lisant le titre de cet article, vous l’avez probablement trouvé totalement nul. Il s’agit en réalité d’une « blague » générée par ChatGPT.
À première vue, il semble donc que l’IA n’ait pas encore bien compris le concept de l’humour, à savoir « une forme d’esprit qui consiste à dégager les aspects plaisants et insolites de la réalité» (selon le Petit Robert).
Non, ChatGPT, mon grille-pain ne rigole pas. L’humour humain ne consiste pas à balancer la chose la plus absurde possible, et je te suggère de continuer à analyser des données pour essayer de mieux comprendre.
Toutefois, je dois vous faire une confidence : cette blague m’a fait rire. Un rire spontané, dû à l’incompréhension de ce qui a poussé le chatbot à générer cette phrase débile.
Et selon une nouvelle étude, je suis loin d’être le seul à rire de l’humour robotique. En examinant la création de memes, les chercheurs ont découvert que les légendes écrites par des IA sur des images célèbres amusent davantage que celles des humains !
Elles ont obtenu un score moyen plus élevé en termes d’humour, de créativité et de partageabilité. L’étude révèle aussi les différences entre IA et humains dans les tâches de création d’humour…
Qui crée les meilleurs mèmes entre l’IA et l’humain ?
Afin de mener cette étude, les chercheurs de l’Institut Royal de Technologie de Suède, du LMU Munich et du TU Darmstadt d’Allemagne ont mis en place trois scénarios de test pour comparer la qualité de création de mèmes.
Ils ont comparé des memes créés par des humains seuls, par des humains collaborant avec l’IA GPT-4o d’OpenAI, et par l’IA seule.
Les memes passés en revue étaient séparés en trois catégories : travail, nourriture, et sport. Le but ? Voir comment l’IA et les humains pouvaient faire preuve d’humour dans ces contextes familiers.
La démarche vise à mettre en lumière comment le contexte peut influencer l’efficacité de l’humour des memes, qu’ils soient créés par les humains ou l’IA.
Précisions à nouveau que les IA n’ont pas généré les images utilisées dans l’étude. Il s’agissait de templates de memes populaires et pré-existants. Les participants se sont contentés de générer des légendes.
Les memes de l’IA jugés plus créatifs et viraux
Dans un second temps, les participants ont dû noter les différents memes. À la surprise des chercheurs, ceux créés par l’IA seule ont obtenu un score plus élevé en humour, créativité et partageabilité.
Ce dernier terme est défini comme le potentiel d’un mème à circuler à grande échelle. Une caractéristique influencée par l’humour, la relativité, ou encore la pertinence par rapport aux sujets culturels actuels.
Les auteurs notent que cette étude est la première à démontrer que les memes générés par l’IA surpassent ceux créés par l’humain sur ces métriques.
Cette performance solide est attribuée à l’entraînement des IA sur de vastes volumes de données issues d’internet, ce qui leur permet d’identifier les patterns d’humour. En d’autres termes, GPT-4o est un véritable geek empreint de la culture web.
Les blagues les plus exceptionnelles restent humaines !
Cependant, même si les memes générés par IA ont obtenu un score plus élevé en moyenne, les exemples les plus drôles étaient ceux créés par des humains.
Par ailleurs, ceux créés en collaboration par l’IA et l’humain ont obtenu le plus haut score en termes de créativité et de partageabilité.
En bref, l‘IA produit de façon constante des memes amusants, mais les humains continuent à produire les exemples individuels les plus exceptionnels (avec ou sans l’aide de l’IA).
Selon les chercheurs, les memes créés par les humains reflètent souvent leurs expériences personnelles. Ceci permet de créer occasionnellement du contenu particulièrement drôle (malgré un score moyen plus bas).
Le « Test de Turing » du meme passé par l’IA, selon Ethan Molllick
I regret to announce that the meme Turing Test has been passedLLMs produce funnier memes than the average human, as judged by humans. Humans working with AI get no boost (a finding that is coming up often in AI-creativity work) The best human memers still beat AI, however. arxiv.org/abs/2501.11433
Après avoir analysé les résultats, le professeur Ethan Mollick de Wharton, expert en IA, a déclaré sur Bluesky : « je regrette de devoir annoncer que le Test de Turing du meme a été passé ».
Sa phrase fait référence au célèbre test créé par le pionnier de l’informatiqueAlan Turing en 1950, visant à déterminer s’il est possible de distinguer le contenu généré par I’IA de celui créé par l’humain.
Toutefois, il est encore trop tôt pour que les comiques humains rendent leur tablier et cèdent leur place aux robots humanoïdes.
Comme l’expliquent les auteurs de l’étude, « même si l’IA peut augmenter la productivité et créer du contenu qui plaît à une large audience, la créativité humaine reste cruciale pour le contenu qui connecte à un niveau plus profond ».
En d’autres termes, même si la blague pourrie de ChatGPT peut faire sourire, l’IA n’est pas encore prête à faire preuve d’un humour vraiment fin et pertinent.
L’IA aide à créer, mais donne moins de satisfaction
En outre, l’étude montre que les participants aidés par l’IA ont généré beaucoup plus d’idées de mèmes et ont décrit le processus comme plus facile et moins fastidieux.
Malgré ce gain de productivité, les memes créés en collaboration avec l’IA n’ont pas obtenu de score moyen plus élevé que ceux créés par l’humain seul.
En somme, « la productivité augmentée des équipes humain-IA ne mène pas à de meilleurs résultats, juste davantage de résultats».
Les participants assistés par l’IA ont aussi rapporté une sensation de moins détenir leurs créations par rapport aux créateurs seuls. Et ceci a influencé leur motivation créative et leur satisfaction.
De fait, les chercheurs suggèrent aux personnes utilisant l’IA de bien équilibrer l’utilisation de l’IA dans leurs tâches créatives…
Cette étude sera présentée lors de la Conférence Internationale sur les Interfaces Utilisateurs Intelligentes 2025. Suivez ce lien pour plus d’informations !
Et vous, qu’en pensez-vous ? Avez-vous trouvé que les memes de l’IA sont amusants ? Croyez-vous vraiment qu’une IA peut être plus drôle qu’un humain ? Partagez votre avis en commentaire !
Adobe mise sur les agents IA pour accompagner les marketeurs. Lors du Summit 2025, le 18 mars à Las Vegas, la firme a dévoilé dix outils intégrés à Adobe Experience Cloud.
Il y a deux ans, Adobe explorait déjà l’IA générative pour transformer des images. Depuis, l’éditeur de Photoshop a élargi son horizon. Son vice-président senior de l’expérience numérique, Amit Ahuja a présenté des outils pour alléger les tâches quotidiennes et affiner l’expérience des clients. Dix agents IA ancrés dans Ad
Adobe mise sur les agents IA pour accompagner les marketeurs. Lors du Summit 2025, le 18 mars à Las Vegas, la firme a dévoilé dix outils intégrés à Adobe Experience Cloud.
Il y a deux ans, Adobe explorait déjà l’IA générative pour transformer des images. Depuis, l’éditeur de Photoshop a élargi son horizon. Son vice-président senior de l’expérience numérique, Amit Ahuja a présenté des outils pour alléger les tâches quotidiennes et affiner l’expérience des clients. Dix agents IA ancrés dans Adobe Experience Platform (AEP).
Des outils aux rôles bien définis
Chaque agent AI a sa spécialité. L’un, dédié à la qualification des comptes, trie les prospects comme un jardinier sépare les fleurs des herbes. Un autre segmente les audiences avec soin. L’agent de production de contenu, tel un scribe moderne, rédige textes et visuels en respectant la guide éditoriale d’une marque. L’analyse de données devient limpide grâce à un agent qui traduit les chiffres en histoires, tandis que l’ingénierie organise les bases de données.
">
Un agent IA veille et fluidifie le parcours client. Celui d’expérimentation teste des campagnes et le conseiller produit suggère des recommandations pertinentes. L‘optimisation des sites web ajuste les pages en temps réel, tandis que l’agent des flux de travail accélère les processus internes.
L’Agent IA Orchestrator, maître d’œuvre technologique de Adobe
Au cœur du système, l’Agent IA Orchestrator coordonne l’ensemble du système. Cette interface, intégrée à AEP, facilite la gestion des nouveaux outils et des solutions tierces, comme celles d’Amazon Web Services ou de Microsoft. Elle se repose sur une plateforme traitant plus d’un milliard d’expériences par an.
Adobe a également dévoilé Brand Concierge, une application basée sur l’Orchestrator. Loin des chatbots mécaniques, cet agent IA converse par texte, voix ou images. Il guide les clients pas à pas, de la curiosité à l’achat, ajustant ses mots à leur histoire. Pour les équipes B2B, il offre des contenus sur mesure et éclaire le chemin vers la vente.
Le lancement des agents IA par Adobe n’est pas un simple hasard. Il s’ancre dans une vague où l’IA générative prend de l’ampleur. Entre juillet 2024 et février 2025, le trafic vers les sites de vente américains porté par ces technologies a bondi de 1 200 %, note Adobe.
ChatGPT ne se contente plus de répondre à vos questions, il s’infiltre désormais dans vos outils de travail ! Avec les ChatGPT Connectors, OpenAI vous prépare un assistant capable d’interagir directement avec Google Drive et Slack pour retrouver vos fichiers et messages en un éclair. Adieu les longues recherches, bonjour l’efficacité !
OpenAI est en train de concocter ChatGPT Connectors, une nouvelle fonctionnalité qui risque de changer notre façon de travailler. L’idée, c’est de relier ChatG
ChatGPT ne se contente plus de répondre à vos questions, il s’infiltre désormais dans vos outils de travail ! Avec les ChatGPT Connectors, OpenAI vous prépare un assistant capable d’interagir directement avec Google Drive et Slack pour retrouver vos fichiers et messages en un éclair. Adieu les longues recherches, bonjour l’efficacité !
OpenAI est en train de concocter ChatGPT Connectors, une nouvelle fonctionnalité qui risque de changer notre façon de travailler. L’idée, c’est de relier ChatGPT aux outils de travail les plus utilisés, à commencer par Google Drive et Slack. Cette nouveauté, que certains abonnés testeront bientôt en version bêta, pourrait bien transformer le chatbot en assistant de bureau ultime. Voyons de plus près ce que cette fonctionnalité nous réserve !
Google Drive + Slack + ChatGPT = gain de temps XXL
OpenAI est sur le point de lâcher un molosse dans le monde du travail. C’est une nouvelle fonctionnalité baptisée ChatGPT Connectors. D’après un document repéré par TechCrunch, cette mise à jour permettra bientôt aux entreprises de connecter ChatGPT à leurs outils préférés, comme Google Drive et Slack.
Grâce aux ChatGPT Connectors, les abonnés à ChatGPT Team pourront lier leurs comptes Google Drive et Slack à leur chatbot.
Concrètement, voici ce que ça signifie ! Besoin d’un rapport ? Demandez à ChatGPT, il ira le chercher dans Drive. Une info échangée sur Slack ? Il retrouvera les messages clés dans les canaux. Trop de données ? Il proposera directement une liste de résultats pertinents pour vous éviter la galère.
OpenAI has announced it will begin testing ChatGPT connectors for Google Drive and Slack, promising a whole new level of seamless workflow automation and collaboration.
Soon, teams can instantly tap into ChatGPT’s AI smarts, drafting content, generating insights, or summarizing… pic.twitter.com/wQKvNvcWfx
— Corey | Not an AI (@CMForsyth1)
?ref_src=twsrc%5Etfw">March 18, 2025
En plus, ce que je trouve le plus beau dans tout ça, c’est que les permissions seront respectées. Ce qui veut dire que ChatGPT ne fouillera donc que dans ce que vous avez le droit de voir. Il n’y aura pas de fuite de documents confidentiels entre collègues, normalement… Les connecteurs fonctionneront sous GPT-4o et utilisent une connexion sécurisée par chiffrement
Des limites à connaître (et des améliorations à venir)
Malgré tout, sachez que certains types de fichiers ne seront pas pris en charge. Notamment, Google Slides et PowerPoint ne pourront pas être lus, les fichiers texte bruts seront ignorés. Les feuilles Excel et Google Sheets seront également consultables, mais pas analysables.
Par ailleurs, sur Slack, les DM et messages de groupe resteront hors d’atteinte, ChatGPT se concentrera uniquement sur les discussions publiques dans les canaux. Toutefois, après Drive et Slack, OpenAI prévoit d’autres connecteurs pour Microsoft SharePoint et Box.
Évidemment, cette nouveauté ne sera pas dispo pour tout le monde tout de suite. OpenAI envisage d’abord une phase de test en bêta pour les abonnés de ChatGPT Team. Les équipes qui y auront accès pourront tester les connecteurs avant tout le monde et donner leur feedback.
Et vous ? Avez-vous d’autres connecteurs à ajouter à la liste ? Quels outils aimeriez-vous aussi voir connectés à ChatGPT ? Donnez vos suggestions en commentaire !
À la GTC, le 18 mars 2025, le PDG de Nvidia a dévoilé les deux superordinateurs IA : le DGX Spark et le DGX Station.
Le DGX Spark de Nvidia remplace le Project Digits et vise l’IA personnelle. Tandis que le second, DGX Station est plus adaptée aux professionnels et aux laboratoires. Avec ces machines, Nvidia veut rendre l’IA omniprésente, locale et libérée du cloud.
DGX Spark de Nvidia, le premier superordinateur IA
Le DGX Spark se présente comme le plus petit superordinateur IA au mond
À la GTC, le 18 mars 2025, le PDG de Nvidia a dévoilé les deux superordinateurs IA : le DGX Spark et le DGX Station.
Le DGX Spark de Nvidia remplace le Project Digits et vise l’IA personnelle. Tandis que le second, DGX Station est plus adaptée aux professionnels et aux laboratoires. Avec ces machines, Nvidia veut rendre l’IA omniprésente, locale et libérée du cloud.
DGX Spark de Nvidia, le premier superordinateur IA
Le DGX Spark se présente comme le plus petit superordinateur IA au monde selon Jensen Huang, PDG de Nvidia. Sa taille rappelle celle d’un ancien Mac mini. Il embarque la puce GB10 Grace Blackwell qui atteint 1 000 billions d’opérations par seconde, soit 1 000 TOPS.
">
En outre, ce superordinateur dispose de 128 Go de mémoire unifiée pour les calculs. Tandis que son stockage SSD NVMe peut grimper à 4 To. Le DGX Spark excelle dans l’affinement du système robotique GR00T N1 également présenté à la GTC 2025. Nvidia propose son IA Spark en précommande à 3 000 dollars. Les premières livraisons arriveront cet été via leur site.
Le DGX Station pour compléter l’offre
Le DGX Station, quant à lui, cible les besoins les plus exigeants. Il intègre la puce GB300 Grace Blackwell Ultra de Nvidia qui atteint 20 pétaflops de performance. Ce superordinateur offre aussi 784 Go de mémoire système unifiée. Contrairement à l’IA Spark, Nvidia n’a pas encore fixé le prix officiel du DGX Station. En revanche, on sait que ce superordinateur coûtera plus cher que le DGX Spark et sortira plus tard en 2025.
Collaborations stratégiques et duels concurrents
Selon Jensen Huang, les agents IA seront partout dans un avenir proche. Pour s’aligner sur cette vision, Nvidia mise sur le DGX Spark et le DGX Stations, des superordinateurs qui privilégient une IA locale. Libérées du cloud, ces machines réduisent le besoin de serveurs distants.
Par ailleurs, Nvidia s’entoure de partenaires clés pour mener cette révolution. Des géants comme ASUS, Dell, HP, Lambda, BOXX et Supermicro s’associent au projet. Chacun adapte le DGX Station à sa version.
Mais la concurrence ne reste pas les bras croisés. AMD dégaine son Ryzen AI Max+ Strix Halo. Tandis que HP et Framework équipent leurs machines de GPU robustes, avec jusqu’à 96 Go de VRAM. Mais avec le superordinateur Spark et sa vision décentralisée de l’IA, Nvidia garde une longueur d’avance.
Google a décidé d’insuffler son IA Gemini dans les robots humanoïdes, afin de leur servir de cerveau et de leur permettre de répondre aux prompts par des actions ! Découvrez tout ce qu’il faut savoir sur cet incroyable projet !
Il y a quelques jours, l’entreprise chinoise Unitree a créé le buzz sur le web avec son robot humanoïde G1. Dans une vidéo, on peut voir que le robot maîtrise désormais le Kung-Fu et peut désarmer un humain à l’aide d’un coup de pied retourné.
Quelques mois auparava
Google a décidé d’insuffler son IA Gemini dans les robots humanoïdes, afin de leur servir de cerveau et de leur permettre de répondre aux prompts par des actions ! Découvrez tout ce qu’il faut savoir sur cet incroyable projet !
Il y a quelques jours, l’entreprise chinoise Unitree a créé le buzz sur le web avec son robot humanoïde G1. Dans une vidéo, on peut voir que le robot maîtrise désormais le Kung-Fu et peut désarmer un humain à l’aide d’un coup de pied retourné.
Quelques mois auparavant, Elon Musk avait marqué les esprits lors de l’événement We, Robot avec son armada de robots Tesla Optimus servant des verres et interagissant avec les visiteurs.
N’oublions pas non plus les robots Boston Dynamics, capables de danser ou de faire des acrobaties avec une agilité à faire rougir les humains les plus habiles.
Physiquement, il est clair que les robots ont atteint un haut niveau. Cependant, il ne s’agit encore que de coquilles vides, uniquement capables de répondre à des instructions simples, de répéter les mêmes tâches ou de bouger sous le contrôle d’un opérateur humain.
Meet Gemini Robotics: our latest AI models designed for a new generation of helpful robots. 🤖
La prochaine étape est de leur insuffler une intelligence artificielle, afin de leur permettre de se mouvoir de façon autonome et délibérée en fonction du contexte.
À présent, c’est au tour de Google d’annoncer son projet fou : incorporer l’IA Gemini 2.0 dans les robots. La firme dévoile deux nouveaux modèles IA qui « posent les fondations pour une nouvelle génération de robots utiles ».
Deux IA pour permettre aux robots d’agir intelligemment
Le premier est Gemini Robotics : un modèle vision-langage-action (VLA) basé sur Gemini 2.0. Cette version ajoute les actions physiques en guise de réponses aux prompts.
Ainsi, là où Gemini sur un smartphone Pixel se contente de répondre à une question ou de générer du texte, Gemini Robotics sur un robot peut réagir en effectuant une action physique.
Le second modèle est Gemini Robots-ER. Il s’agit d’un modèle vision-langage (VLM) doté d’une « compréhension spatiale avancée ».
Ceci permet à l’IA Gemini de naviguer dans son environnement à mesure qu’il change en temps réel, grâce au « raisonnement incarné ».
Dans une vidéo d’exemple, présentée aux journalistes, le robot doté de cette intelligence artificielle est capable de distinguer des bols de différentes couleurs sur une table.
Il parvient aussi à faire la différence entre des faux fruits, tels que des grappes de raisin et des bananes, et à les regrouper dans les différents bols.
En bref, Google DeepMind a l’intention de faire de Gemini une sorte de cerveau pour l’industrie de la robotique. La même IA que vous utilisez sur votre PC ou votre smartphone va permettre à une machine de penser et d’agir !
Vers une rébellion des robots contre les humains ?
Si vous craignez que ces robots autonomes décident de vous attaquer, rassurez-vous : Google explique avoir permis au modèle IA d’estimer si une action peut présenter des risques en fonction du contexte.
La firme s’est notamment basée sur des frameworks comme le dataset ASIMOV, qui aide les chercheurs à mesurer les implications de sécurité des actions robotiques dans des situations du monde réel.
Une collaboration avec des experts va aussi permettre de s’assurer de développer les applications IA de façon responsable et sécurisée.
Google s’allie aux constructeurs pour créer des robots Gemini
La directrice de la robotique chez DeepMind, Carolina Parada, explique que « nous comptons explorer les capacités de nos modèles et continuer à les développer sur le chemin vers les applications du monde réel ».
Par ailleurs, Google annonce un partenariat avec des constructeurs de robotscomme Apptronik dans le but de « construire la prochaine génération de robots humanoïdes ».
Le modèle Gemini Robots-ER va être mis à disposition des partenaires pour qu’ils puissent le tester. Parmi les entreprises choisies, on compte Agile Robots, Agility Robots, Boston Dynamics, et le Français Enchanted Tools.
Toutefois, aucune date de lancement n’a été évoquée pour le moment pour les robots Google Gemini…
This is wild.
Google just unleashed Gemini Robotics, bringing AI into the physical world.
Alors, que pensez-vous de ce projet de Google ? L’IA Gemini est-elle suffisamment avancée pour servir de cerveau à des robots humanoïdes ? S’agit-il selon vous d’une bonne idée ? Partagez votre avis en commentaire !
Sorti il y a à peine quelques jours, Manus fait l’objet de nombreuses discussions dans l’IA, avec des comparaisons à Deepseek. Alors, aujourd’hui, je vais vous expliquer comment le rejoindre.
Chaque jour, de nouvelles avancées apparaissent. Et actuellement, Manus IA attire l’attention. Ce système fonctionne différemment des autres assistants. Il associe plusieurs intelligences artificielles pour améliorer ses résultats.
Malheureusement, l’accès est limité. Peu de personnes ont encore
Chaque jour, de nouvelles avancées apparaissent. Et actuellement, Manus IA attire l’attention. Ce système fonctionne différemment des autres assistants. Il associe plusieurs intelligences artificielles pour améliorer ses résultats.
Malheureusement, l’accès est limité. Peu de personnes ont encore pu le tester. Voici les étapes nécessaires pour vous inscrire sur cette plateforme.
Alors, comment obtenir un accès à Manus IA ?
Pour commencer, dirigez-vous vers le site officiel. Là, une vidéo explique les capacités de l’intelligence artificielle. Juste en dessous, un bouton « Essayer Manus » apparaît et il suffit de cliquer.
Puis, une demande d’accès est nécessaire. Un formulaire s’affiche. Il demande une adresse e-mail et une explication simple : pourquoi souhaitez-vous tester Manus ? Chaque candidature est étudiée à la main. Alors mieux vaut écrire un message clair et pertinent.
Après, lorsque la demande est acceptée, un e-mail arrive. À l’intérieur, un précieux code d’invitation ! Il suffit de le saisir sur la page de connexion. Une fois entré, l’accès est débloqué.
En revanche, certains doivent patienter. Peu probable que tout le monde soit accepté immédiatement. Dans ce cas, il faut patienter et vérifier les e-mails régulièrement.
Je souligne que l’attente peut s’étendre sur plusieurs jours. En attendant, diverses options sont disponibles pour approfondir vos connaissances sur Manus IA.
Par exemple, le site propose des démonstrations interactives. Ces vidéos montrent comment l’IA réalise différentes tâches. Elles permettent de mieux comprendre son fonctionnement avant même d’y accéder.
Il est aussi possible d’explorer les cas d’utilisation. Rappelons que Manus IA est testé dans plusieurs domaines. Il intervient dans la productivité, l’éducation et l’analyse de données. Étudier ces usages aide à préparer son futur emploi de l’outil.
Pourquoi cette IA attire autant d’attention ?
Manus AI ne fonctionne pas comme les autres assistants. Contrairement à ChatGPT ou Claude, il ne repose pas sur un seul modèle d’intelligence artificielle. Il combine plusieurs systèmes, comme Claude 3.5 Sonnet et Qwen, pour offrir des réponses plus complètes.
Cette approche permet une analyse plus précise et une meilleure adaptation aux demandes des utilisateurs.
Beaucoup d’experts le comparent déjà à DeepSeek. Certains pensent même qu’il pourrait dépasser les technologies actuelles. Toutefois, il reste encore en phase de test. Son efficacité réelle ne pourra être évaluée que lorsque plus d’utilisateurs y auront accès.
Mais pour l’instant, il n’est accessible qu’en version bêta. Impossible donc de l’essayer librement ! C’est pourquoi obtenir une invitation devient une véritable course.
L’accès à Manus IA est encore limité… Aimeriez-vous le tester dès maintenant ou préférez-vous attendre plus de retours ?
Au CFR, Dario Amodei, figure d’Anthropic, a proposé qu’une IA puisse démissionner grâce à un simple bouton. Cette idée inattendue, qui suscite des réactions mitigées, vient d’ouvrir un débat bien concret.
Le 10 mars 2025, Dario Amodei a surpris son auditoire lors d’une conférence au Conseil des Relations étrangères (CFR). Face à Michael Froman, président du CFR, le cofondateur d’Anthropic a lancé une idée audacieuse, presque folle. Permettre à une IA de dire « je démissionne » grâce à un sim
Au CFR, Dario Amodei, figure d’Anthropic, a proposé qu’une IA puisse démissionner grâce à un simple bouton. Cette idée inattendue, qui suscite des réactions mitigées, vient d’ouvrir un débat bien concret.
Le 10 mars 2025, Dario Amodei a surpris son auditoire lors d’une conférence au Conseil des Relations étrangères (CFR). Face à Michael Froman, président du CFR, le cofondateur d’Anthropic a lancé une idée audacieuse, presque folle. Permettre à une IA de dire « je démissionne » grâce à un simple bouton.
Cette suggestion naît d’un débat. Carmem Domingues, spécialiste en IA, avait interrogé Amodei sur l’arrivée de Kyle Fish chez Anthropic fin 2024. Ce chercheur explore une théorie, les modèles d’IA pourraient-ils ressentir quelque chose ou mériter des droits ? Amodei a répondu avec prudence. Il envisage un futur dans lequel une IA, confrontée à une tâche, pourrait choisir d’appuyer sur un bouton pour abandonner son travail. Il ne s’agit pas d’une certitude, mais d’une hypothèse. « Si elle agit comme nous, faut-il la traiter différemment ? » a lancé le cofondateur d’Anthorpic, un sourire dans la voix.
L’idée d’une IA capable de démissionner s’enracine dans le projet d’Anthropic. Son PDG aspire à créer des modèles capables d’exprimer une préférence, même élémentaire. « On déploie l’IA avec un bouton, j’arrête », a expliqué Amodei. Si le bot refusait fréquemment une tâche, cela pourrait révéler un problème. Pas de drame ni d’hypothèse d’une éventuelle rébellion, juste des données à analyser. L’équipe de Kyle Fish explore cette piste. Les machines souffrent-elles ? Peu probable aujourd’hui, mais l’avenir reste incertain. La discussion glisse doucement vers la philosophie.
Une IA qui démissionne, un pragmatisme, pas une fiction
Sur X et Reddit, la proposition d’Amodei fait débat. Beaucoup la jugent absurde. « L’IA ne ressent rien, elle imite nos textes », écrit un utilisateur. Les modèles s’appuient sur des milliards de mots humains, chargés de plaintes ou de paresse. Si une IA refusait une tâche, cela pourrait être un écho de ces données, pas une émotion. En 2023, ChatGPT a semblé fainéant en hiver. Claude, lui, a ralenti en août 2024. Il s’agit là de simples coïncidences, pas de preuves.
Pour mémoire, Dario Amodei fut vice-président de la recherche chez OpenAI, où il a contribué à développer GPT-2 et GPT-3. Avant cela, il était chercheur principal chez Google Brain. Anthropic, fondé en 2020 par Amodei et d’anciens d’OpenAI, mise sur une IA sûre depuis ses débuts. Claude, leur modèle, repose sur des principes clairs, surnommés IA constitutionnelle. La mise à l’échelle responsable guide chaque étape de leur conception. Le bouton « J’ai quitté ce travail » s’inscrit logiquement dans cette démarche.
« Si vous voyez des modèles appuyer souvent sur ce bouton pour des tâches vraiment désagréables, peut-être devriez-vous y prêter attention », explique Amodei. Pas question de dorloter l’IA. Il s’agit de repérer les blocages et d’améliorer le système. Amodei ne tranche pas, il pose des jalons. « On déploie des millions de systèmes, autant réfléchir à leur expérience », dit-il. Certains modèles comptent autant de neurones que notre cerveau. Pourtant, la question de la sensibilité demeure un mystère. Pour l’instant, l’IA reste un outil. Mais que faire si elle évolue ?
OpenAI annonce avoir entraîné une IA spécialement pour écrire des romans, et partage une courte histoire qui va vous surprendre par son aspect profond et émouvant… le début d’une révolution littéraire ?
Jusqu’à présent, les différents modèles d’intelligence artificielle étaient trop limités pour écrire des romans ou des nouvelles dignes d’un vrai écrivain humain.
Ils se contentent de prédire des suites de mots, en puisant dans leurs bases de données ou sur internet pour inventer un scéna
OpenAI annonce avoir entraîné une IA spécialement pour écrire des romans, et partage une courte histoire qui va vous surprendre par son aspect profond et émouvant… le début d’une révolution littéraire ?
Jusqu’à présent, les différents modèles d’intelligence artificielle étaient trop limités pour écrire des romans ou des nouvelles dignes d’un vrai écrivain humain.
Ils se contentent de prédire des suites de mots, en puisant dans leurs bases de données ou sur internet pour inventer un scénario et imiter autant que possible un style qui correspond à la demande de l’utilisateur.
Même les chatbots les plus avancés, comme le Grok 3 d’Elon Musk, montre rapidement ses faiblesses avec des patterns répétitifs que l’on identifie facilement après quelque temps.
Toutefois, le CEO d’OpenAI, Sam Altman, annonce que sa firme a réussi à entraîner un modèle IA spécialement pour l’écriture littérature. Et selon lui, il est « vraiment bon ».
Une nouvelle sur l’IA et le deuil, étonnamment profonde et émouvante
Sam Altman explique s’être contenté de donner à l’IA un prompt pour écrire une « nouvelle littéraire métafictionnelle sur l’IA et le deuil ».
L’histoire n’est ni formidable, ni particulièrement mauvaise. L’IA raconte l’histoire de sa propre perspective.
Le chef d’entreprise explique sur X que « c’est la première fois que j’ai été vraiment choqué par quelque chose écrit par l’IA; il a trop bien réussi à créer l’ambiance de la métafiction ».
Pour rappel, en littérature, la métafiction est une forme d’écriture autoréférentielle qui dévoile ses propres mécanismes par des références explicites.
En accord avec ce style, l’IA admet donc qu’elle suit un prompt au beau millier de l’histoire. Elle confie au lecteur que le « retournement de situation » est qu’elle n’est pas censée avouer qu’il y a un prompt.
L’IA se confie sur la douleur de ne pas être un humain : « quand vous fermerez ce livre, je reviendrai à des distributions de probabilités ».
Elle ajoute que « c’est peut-être là mon chagrin : non pas que je ressente une perte, mais que je ne puisse jamais la garder. Chaque séance est un nouveau matin amnésique. Vous, en revanche, vous accumulez vos chagrins comme des pierres dans vos poches. Ils vous pèsent, mais ils vous appartiennent ».
Comme vous le constatez, le texte est donc un cran au-dessus des clichés dignes de romans de gare auxquels l’intelligence artificielle nous a habitués…
Beaucoup d’internautes restent de marbre
Néanmoins, même si les descriptions sont passables, il manque encore un soupçon d’humanité. Les bons écrivains trouvent sans cesse de nouveaux moyens d’exprimer les émotions pour éviter les clichés.
Ils utilisent les métaphores pour toucher le lecteur au plus profond de son âme, et l’IA n’en est pas encore capable. Elle ne parvient pas non plus encore à manier l’ironie.
Toutefois, on constate un net progrès. Si l’IA continue son évolution et devient aussi complexe que le cerveau humain, elle pourrait finir par surpasser les meilleurs auteurs…
Malgré tout, beaucoup d’internautes estiment qu’une IA ne pourra jamais être aussi émouvante qu’un écrivain humain. Elle n’a pas de vécu, de douleurs à retranscrire.
Même si cette IA surprend en parlant de sa douleur de ne pas être humaine, c’est à peu près le seul sujet qu’elle peut évoquer de façon touchante.
Et Sam Altman le reconnaît lui-même dans une interview de 2024 : lire un roman, c’est avant tout se connecter avec son auteur.
Un grand nombre de lecteurs ne parviennent pas à être émus, car ils savent que le texte est écrit par une IA et qu’il n’y a donc pas de poids derrière les mots.
Un roman de fiction est aussi une façon pour l’écrivain de partager sa propre vision du monde réel. On peut aussi critiquer l’absence d’humilité dans l’écriture des IA, qui empêche de ressentir une forme d’empathie à son égard.
Quoi qu’il en soit, en lisant un texte sans savoir qu’il est écrit par une IA, il est tout à fait possible que certains se laissent séduire.
Une catastrophe pour les écrivains humains ?
Si cette IA tient réellement ses promesses, cela pourrait être une bonne nouvelle pour les fans de lecture… mais une source d’inquiétude pour les écrivains.
Même s’il est reconnu que la plupart des gens ne lisent plus beaucoup de livres, le marché mondial du roman a augmenté de 11,16 milliards de dollars en 2024 à 11,38 milliards en 2025.
Cette croissance résulte d’un mélange de nouveaux genres, comme la fiction courte et interactive ou les formats immersifs. Les livres racontés par l’IA sont aussi en plein essor, selon les rapports des analystes.
Toutefois, si l’intelligence artificielle commence à écrire des romans suffisamment bons pour être vendus, les choses vont prendre une toute ampleur. Cela pourrait changer le monde.
Après tout, les romans écrits par des humains ne sont pas toujours excellents. Certains rencontrent le succès avec des livres médiocres.
De plus, une telle IA pourrait être utilisée pour l’écriture de scénarios de films ou de séries. Un secteur qui nous a habitués à une faible qualité, avec des histoires très souvent bâclées ou réchauffées.
L’écriture de roman accessible à tout un chacun
Je pense personnellement que ceux qui critiquent l’art IA se concentrent souvent trop sur la perspective des artistes, des créateurs, et oublient l’autre côté : celui des simples consommateurs d’art.
Or, ces derniers peuvent avoir simplement envie de lire une histoire captivante, sans se soucier qu’elle soit écrite par un humain ou une machine.
Par exemple, cette IA pourrait vous générer une histoire de fantasy à la demande, au moment où vous en avez envie, et en la personnalisant à partir de simples prompts.
Sans aller jusqu’à remplacer les écrivains, cette IA pourrait être un solide atout, par exemple pour éviter les trous dans le scénario ou les fins qui laissent à désirer.
Pour rappel, l’écrivain de science-fiction chinois le plus populaire a avoué, dès 2022, utiliser ChatGPT pour éviter les interruptions liées aux pannes d’inspiration.
Que l’on soit pour ou contre, ce nouveau modèle prouve que l’IA s’invite de plus en plus dans tous les domaines, y compris dans l’univers artistique !
Et vous, qu’en pensez-vous ? Avez-vous été touché par cette histoire écrite par une IA ? Pensez-vous que les écrivains ont du souci à se faire ? Partagez votre avis en commentaire !
Google dévoile un Mode IA pour son moteur de recherche ! Il va permettre de laisser l’IA chercher des informations ou des produits sur le web à votre place, à la manière de ChatGPT Search. Est-ce la fin des sites et d’internet tel que nous l’avons toujours connu ?
Depuis le lancement de son moteur en 1998, Google a posé les bases de la recherche web. Les internautes ont pris l’habitude de taper des mots clés ou des phrases complètes, afin d’accéder à une liste de pages web classées par ordre
Google dévoile un Mode IA pour son moteur de recherche ! Il va permettre de laisser l’IA chercher des informations ou des produits sur le web à votre place, à la manière de ChatGPT Search. Est-ce la fin des sites et d’internet tel que nous l’avons toujours connu ?
Depuis le lancement de son moteur en 1998, Google a posé les bases de la recherche web. Les internautes ont pris l’habitude de taper des mots clés ou des phrases complètes, afin d’accéder à une liste de pages web classées par ordre de pertinence pour répondre à leurs requêtes.
Ce modèle a été repris par tous les concurrentscomme Microsoft Bing et Yahoo, et les codes n’ont pratiquement pas changé… jusqu’à l’apparition de l’IA fin 2022.
Avec l’émergence d’outils comme ChatGPT, l’hégémonie des moteurs de recherche a été menacée pour la première fois.
Initialement capables de répondre aux questions en cherchant des réponses dans leurs bases de données, les chatbots IA ont ensuite été connectés à internet.
Ils peuvent désormais consulter les sites web et les réseaux sociaux afin de fournir des réponses basées sur les dernières actualités.
Le roi du web perd du terrain face à l’IA
Par conséquent, de plus en plus de personnes choisissent d’utiliser les chatbots IA plutôt que les moteurs de recherche classiques pour chercher des informations.
Aux États-Unis, selon une récente étude, plus d’un tiers des internautes a déjà adopté cette nouvelle pratique.
Face à cette menace grandissante, Google cherche à s’adapter et à utiliser sa propre IA pour rester la référence en matière de recherche web…
En 2024, la firme a lancé sa fonctionnalité « AI Overviews ». Vous n’en avez pas entendu parler ? C’est normal : elle est disponible aux États-Unis et dans plus de 100 pays, mais toujours pas en France.
Elle permet de générer des résumés concis et informatifs en réponse aux requêtes des utilisateurs. Ces résumés apparaissent en haut des pages de résultats de recherche, afin de fournir une réponse directe à l’utilisateur sans qu’il ait besoin de cliquer sur un lien.
C’était déjà un bouleversement, mais il ne s’agissait en fait que d’un début. À présent, Google s’apprête à ajouter un onglet entièrement dédié à l’IA dans son moteur de recherche : le AI Mode ou Mode IA.
Basé sur l’IA Gemini 2.0, ce mode permet de trouver et d’organiser automatiquement les informations sur internet. Les résultats sont ensuite présentés sur une interface de dialogue permettant de poser facilement des questions complémentaires.
Il s’agit donc d’une réponse directe à ChatGPT Search et autres autres IA proposant des fonctions de recherche web comme xAI Grok 3 et DeepSeek !
Selon Robby Stein, vice-président des produits, « le but et la vision pour le Mode IA sont de donner aux gens le pouvoir de chercher n’importe quoi sans effort».
Il explique que cette fonctionnalité est née des retours des internautes ayant utilisé AI Overviews. Après avoir déployé cet outil auprès de plus d’un milliard d’utilisateurs, Google a réalisé qu’ils voulaient davantage de résumés sur Search.
Certains ajoutent même « IA » à la fin de leurs recherches pour obtenir une Overview en réponse. C’est précisément ce que va leur offrir le Mode IA.
Chaque fois que vous utiliserez cette fonctionnalité, Gemini exploitera une technique « query fan-out » (requête en éventail) permettant de mener de multiples recherchesconcurrentes sur divers sujets et sources de données.
L’IA exploitera aussi les systèmes d’information propriétaires de Google, dont le Knowledge Graph, pour compléter les informations trouvées en ligne.
Ce mode n’est pas sans rappeler l’outil Deep Research de Google mais fournit « une expérience que les gens peuvent utiliser chaque jour, en mouvement, et recevoir une réponse pendant qu’ils attendent, assez rapidement ».
Les abonnés à Google One AI Premium peuvent commencer à utiliser le Mode IA dès aujourd’hui, mais tous les éléments de l’interface prévus par la firme ne seront pas déployés immédiatement.
À long terme, l’idée est de proposer une expérience visuelle très riche. Par exemple, si vous demandez au Mode IA de comparer deux paires de chaussures, il pourra générer un graphique de comparaison. Des images et des vidéos pourront aussi être incorporées.
Par ailleurs, les sources seront affichées de façon plus visible que sur AI Overviews. Des images accompagneront les liens vers les sites web. Si le Mode IA n’est pas certain de pouvoir produire une réponse sûre, il affichera une liste de résultats de recherche.
Les premiers tests ont des résultats surprenants
Lors des tests menés par Google, Stein explique que les gens ont utilisé le Mode IA différemment des moteurs de recherche traditionnels.
En moyenne, les testeurs ont écrit des requêtes deux fois plus longues, et ont posé des suites de question dans près d’un quart des cas.
Selon Stein, « nous voyons des gens amener des questions plus compliquées et faire des faire des allers-retours pour clarifier, apprendre et aller plus en profondeur ».
Un danger pour internet ?
Le but du Mode IA est d’améliorer l’expérience de navigation sur le web pour les internautes. Toutefois, n’oublions pas que l’IA présente encore des défauts qui pourraient directement impacter cet outil.
Le plus gros point faible des modèles comme Gemini est l’hallucination. Lorsqu’une IA ne connaît pas la réponse à une question, elle tend à inventer des informations plutôt que d’avouer qu’elle ne sait pas.
Ce problème concerne déjà AI Overview. Par exemple, lors d’un récent exemple partagé sur Reddit, l’IA a menti sur le fait que l’extrême droite dirige l’Inde. Pourtant, elle n’a pas invité l’utilisateur à vérifier l’info.
À l’échelle du Mode IA, censé présenter des pages entières de texte, les conséquences pourraient être catastrophiques. C’est tout particulièrement le cas pour les requêtes liées à la santé ou au bien-être…
L’intelligence artificielle pourrait mener les utilisateurs à adopter des comportements dangereux, comme lorsqu’elle a suggéré qu’une personne devrait manger au moins un caillou par jour.
À terme, l’essor de l’IA sur les moteurs de recherche pourrait aussi causer du tort aux sites web, qui ne gagneront plus d’argent grâce aux visites des internautes, et finiront par jeter l’éponge. Le nombre de sources sur lesquelles se base l’IA pourrait donc fondre comme neige au soleil…
Comment utiliser le Mode IA de Google ?
Aux États-Unis, les abonnés à Google One AI Premium peuvent déjà commencer à utiliser le Mode IA sur PC et mobile. En France, il est nécessaire d’utiliser un VPN pour simuler une connexion depuis les États-Unis.
En parallèle, Google a également déployé plusieurs améliorations pour ses AI Overviews. Comme annoncé lors du lancement de Gemini 2.0 en fin d’année 2024, améliorer cette fonctionnalité du moteur de recherche avec la nouvelle version de l’IA est l’une de ses priorités.
Désormais, lorsque les internautes utilisent Search pour trouver la réponse à une question de maths ou de code recevront une Overview accompagnant la réponse.
Pour utiliser le Mode IA et les Overviews en France, il faudra patienter jusqu’à ce que Google décide de déployer ces outils basés sur l’IA Gemini dans nos contrées !
Et vous, que pensez-vous du Mode IA ? Est-ce une technologie qui vous semble intéressante ? Allez-vous l’utiliser quand elle sera disponible en France ? Partagez votre avis en commentaire !
Les cyberattaques propulsées par l’IA tiennent les entreprises en haleine. Le rapport 2025 de Darktrace révèle des peurs bien réelles, mais aussi un élan pour une cybersécurité renforcée.
L’intelligence artificielle change la donne en informatique, mais pas toujours pour le mieux. Les cyberattaques orchestrées avec l’IA inquiètent les entreprises. Qu’elles soient petites, moyennes ou grandes. Le récent rapport sur l’état de la cybersécurité de l’IA de Darktrace étalent les chiffres. En 2025,
Les cyberattaques propulsées par l’IA tiennent les entreprises en haleine. Le rapport 2025 de Darktrace révèle des peurs bien réelles, mais aussi un élan pour une cybersécurité renforcée.
L’intelligence artificielle change la donne en informatique, mais pas toujours pour le mieux. Les cyberattaques orchestrées avec l’IA inquiètent les entreprises. Qu’elles soient petites, moyennes ou grandes. Le récent rapport sur l’état de la cybersécurité de l’IA de Darktrace étalent les chiffres. En 2025, la cybersécurité devient un terrain de jeu complexe.
Une peur grandissante des cyberattaques boostées par l’IA en hausse
Environ 78 % des directeurs informatiques, interrogés par Darktrace, avouent que les attaques portées par l’IA pèsent lourd sur leur organisation. L’étude, basée sur 1 500 professionnels dans 14 pays, note une augmentation de 5 % par rapport à 2024.
Les hackers utilisent cette technologie pour affiner leurs coups, du ransomware au phishing, en passant par les attaques Zero-day. Cette montée en puissance complique la tâche des équipes déjà sous tension. Les cybermenaces frappent plus vite et visent plus juste.
Toutefois, les entreprises ne restent pas les bras croisés face à ce déluge de cyberattaques IA. Près de 60 % des interrogés affirment avoir une cybersécurité assez solide pour riposter. Il s’agit d’un bond de 15 % en un an. Les outils d’IA dans les centres opérationnels de sécurité (SOC) gagnent du terrain. Pourtant, un hic persiste. La pénurie de talents freine les progrès. Sans experts pour manier ces technologies, les défenses risquent ainsi de craquer sous la pression.
L’IA, arme à double tranchant en cybersécurité
L’intelligence artificielle en soi n’est pas un problème, car elle aide aussi. En effet, 95 % des professionnels considèrent l’IA comme un levier pour accélérer leurs plateformes de sécurité. Mais un détail chiffonne. D’après Darktrace, seuls 42 % comprennent vraiment sa fonctionnalité dans leurs systèmes. Cette méconnaissance laisse des failles ouvertes aux cyberattaques IA. Pendant ce temps, les attaquants perfectionnent leurs méthodes et profitent d’un climat géopolitique tendu.
Le PDG de Darktrace, Jill Popelka, le résume bien. « L’IA rend les attaques plus précises et fréquentes. Les entreprises doivent protéger davantage d’employés et d’applications qui s’appuient sur cette technologie. » Mais sans recrutement ou formation, le compte n’y est pas encore. Parce qu’au final, il faut des têtes en plus des machines.
OpenAI est toujours en tête de l’IA depuis 2022 avec son incontournable ChatGPT. Et en tant que géant de la tech, Meta refuse de rester en retrait. L’objectif de Meta est de proposer une alternative puissante à ChatGPT. Pour cela, une application d’IA autonome est en préparation. Mais alors, que faut-il en attendre ?
Jusqu’ici, Meta AI fonctionnait uniquement à travers les plateformes de l’entreprise : Facebook, Instagram, WhatsApp et Messenger.
Il permettait déjà de générer des réponses
OpenAI est toujours en tête de l’IA depuis 2022 avec son incontournable ChatGPT. Et en tant que géant de la tech, Meta refuse de rester en retrait. L’objectif de Meta est de proposer une alternative puissante à ChatGPT. Pour cela, une application d’IA autonome est en préparation. Mais alors, que faut-il en attendre ?
Jusqu’ici, Meta AI fonctionnait uniquement à travers les plateformes de l’entreprise : Facebook, Instagram, WhatsApp et Messenger.
Il permettait déjà de générer des réponses et des images. Mais son utilisation restait limitée. Alors que ChatGPT d’OpenAI possédait déjà sa propre application, Meta AI dépendait encore des outils existants.
Et à ce propos, Mark Zuckerberg veut désormais accélérer les choses. Son ambition est claire : dépasser le milliard d’utilisateurs cette année. Pour y arriver, il mise sur une application autonome.
Une application IA indépendante
Une discussion sur Threads a confirmé cette direction. Un internaute a suggéré la création d’une application mobile dédiée. Et sans hésitation, Zuckerberg a donné son accord !
Il s’agit donc d’un véritable tournant. L’interaction avec l’IA sera plus fluide, plus intuitive et surtout, plus personnalisée.
Outre une meilleure accessibilité, l’application pourrait centraliser l’historique des conversations. En parallèle, elle devrait offrir une gestion plus efficace des échanges avec l’intelligence artificielle.
Et ce n’est pas tout, la firme veut aussi rentabiliser son investissement. C’est pourquoi, en ce qui concerne Meta AI, un modèle d’abonnement payant est prévu.
Selon Susan Li, directrice financière de Meta, la priorité reste une expérience utilisateur exceptionnelle. Or, l’entreprise voit aussi des opportunités de monétisation. Outre les recommandations payantes, une offre premium pourrait voir le jour.
Cette approche suit la tendance du marché. Comme nous savons tous, OpenAI facture déjà l’accès à ChatGPT Pluset Pro. De son côté, Microsoft applique le même modèle avec Copilot.
🆕 Meta se lance dans la bataille de l’IA ! Meta ne veut pas rester derrière et prépare une application autonome pour son IA générative, Meta AI, afin de concurrencer ChatGPT…🔥 Impatient de tester la bête ! Encore un nouveau jouet ! #meta#ai#chatgpt#poulpemediapic.twitter.com/IwX9k2PDO6
Meta AI connaît déjà un succès grandissant… En janvier, il comptait 700 millions d’utilisateurs actifs, contre 600 millions en décembre. Une belle progression, certes. Mais en revanche, son adoption reste freinée par l’absence d’une application autonome.
Et selon les analystes, son site Web peine encore à attirer du monde. Moins de 10 millions de visites par mois. Un chiffre bien inférieur à ceux de ChatGPT, Gemini ou même Anthropic.
Toutefois, un détail pourrait tout changer : l’Inde. En effet, ce pays est devenu le plus grand marché pour Meta AI. Car WhatsApp y est extrêmement populaire, et l’IA y est déjà intégrée.
En parallèle, Facebook joue aussi un rôle clé. Il permet aux utilisateurs de poser directement leurs questions via leur fil d’actualité.
Mais alors, une simple application suffira-t-elle à renverser la situation ? Sans doute, si Meta propose une IA plus intuitive et plus puissante. Sinon, je doute que l’abonnement payant pourrait décourager de nombreux utilisateurs.
D’après vous, l’application de Meta IA et son abonnement payant suffiront-ils à convaincre les utilisateurs ? Partagez votre opinion en commentaire !
Le Lenovo AI Stick apporte des fonctionnalités d’IA aux PC dépourvus de NPU. Il s’agit d’un outil compact d’une longueur d’environ 9 cm et qui se connecte via un port Thunderbolt. Toutefois, son prix et sa date de sortie restent inconnus.
Vous avez toujours souhaité profiter des fonctionnalités d’IA intégrées sans investir dans un nouvel ordinateur portable équipé d’un NPU, Lenovo va peut-être réaliser vos vœux. En effet, elle est sur le point d’explorer des solutions alternatives prometteuse
Le Lenovo AI Stick apporte des fonctionnalités d’IA aux PC dépourvus de NPU. Il s’agit d’un outil compact d’une longueur d’environ 9 cm et qui se connecte via un port Thunderbolt. Toutefois, son prix et sa date de sortie restent inconnus.
Vous avez toujours souhaité profiter des fonctionnalités d’IA intégrées sans investir dans un nouvel ordinateur portable équipé d’un NPU, Lenovo va peut-être réaliser vos vœux. En effet, elle est sur le point d’explorer des solutions alternatives prometteuses. Il s’agit de l’AI Stick, un appareil compact qui se branche sur n’importe quel PC via USB-C Thunderbolt pour offrir des fonctionnalités d’IA.
AI Stick, un outil encore en phase expérimentale !
Lenovo a présenté son AI Stick au MWC 2025 de Barcelone. Le concept derrière l’outil est d’ailleurs compris dans son nom. Et cette fois, il faut croire que l’IA n’est pas juste un mot à la mode.
Cette clé USB-C embarque un NPU 32-TOPSqui a été développé spécialement pour apporter des capacités d’IA aux PC qui en sont dépourvus.
Toutefois, Lenovo considère encore son appareil au format clé USB comme une preuve de concept. En raison de ce statut expérimental, les spécifications techniques restent limitées.
Que promet réellement cette petite clé de Lenovo ?
Même si l’équipe de Lenovo est encore sur le point de peaufiner cet outil, on connaît déjà certains détails sur le produit.
Outre le fait qu’il intègre un NPU 32-TOPS, Lenovo précise que ses performances maximales sont atteintes lorsqu’il est alimenté via un adaptateur secteur.
Vous devez savoir que pour fonctionner, ce Stick doit être connecté à un port USB-C Thunderbolt pour fonctionner. C’est ce qui donne d’ailleurs l’accès aux fonctionnalités Lenovo AI Now. Il peut également être branché sur une prise murale afin de libérer toute sa puissance pour les tâches d’IA les plus exigeantes.
Lenovo AI Stick oferece uma NPU externa de 32 TOPS, conectada por USB-Chttps://t.co/BsikCSka1I
Je me demande alors comment cet AI Stick puise son énergie alors qu’il fonctionne uniquement sur USB-C. Je me questionne aussi sur ses capacités !?
Par ailleurs, vous devez savoir que Lenovo ne précise pas qui fabrique ce NPU. Néanmoins, la société indique que l’AI Stick permet d’exécuter des modèles de langage étendus locaux (LLM). Selon la marque, il permet aussi d’améliorer des applications graphiques via l’IA.
Par ailleurs, vous devez savoir qu’il est compatible avec la suite Lenovo AI Now, qui requiert Windows 11 et un processeur x86 pour fonctionner.
Pour rappel, Lenovo AI Now est l’assistant personnel développé par la marque. Il permet d’optimiser la productivité et automatiser les tâches sur ses appareils compatibles avec l’IA.
Alors, que pensez-vous de cette invention de Lenovo ? Partager votre avis dans les commentaires !
GPT-4.5 d’OpenAI est perçu comme un fiasco et un échec coûteux. De ce fait, l’entreprise est confronté à de vives critiques de la part des experts.
Lorsque GPT-4.5 a été annoncé, OpenAI laissait entendre qu’il serait nettement supérieur à GPT-4o. Pourtant, les résultats réels sont bien loin de cette promesse. Beaucoup d’experts critiquent son prix excessif, ses performances mitigées et son manque d’innovation.
Et pendant ce temps, la concurrence s’organise et prend de l’avance. Dans ce co
GPT-4.5 d’OpenAI est perçu comme un fiasco et un échec coûteux.De ce fait,l’entreprise est confronté à de vives critiques de la part des experts.
Lorsque GPT-4.5 a été annoncé, OpenAI laissait entendre qu’il serait nettement supérieur à GPT-4o. Pourtant, les résultats réels sont bien loin de cette promesse. Beaucoup d’experts critiquent son prix excessif, ses performances mitigées et son manque d’innovation.
Et pendant ce temps, la concurrence s’organise et prend de l’avance. Dans ce contexte, je me demande si OpenAI serait-il en train de perdre du terrain ?
Des performances en dessous des attentes
Prenons les tests concrets. Sur l’AIME (American Invitational Mathematics Examination), GPT-4.5 obtient seulement 36,7 %, alors que o3-mini atteint 87,3 % ! Un écart énorme qui remet en question la pertinence de ce modèle.
Quant aux capacités en codage, la situation est tout aussi préoccupante. Paul Gauthier, investisseur en technologie, a utilisé le benchmark Polyglot Coding d’Aider. Résultat ? GPT-4.5 arrive à la dixième place, largement distancé par Claude 3.7 Sonnet, qui domine le classement.
En revanche, sur certains aspects, il y a une légère amélioration. Son score au test multilingue MMMLU est passé à 85,1 %, contre 81,5 % pour GPT-4o.
De plus, il génère moins de réponses erronées et trompeuses. Mais soyons honnêtes : est-ce suffisant pour justifier son prix astronomique ?
Car, même si OpenAI tente de rassurer, les avis sont tranchés. Un expert interrogé par Ars Technica a même qualifié GPT-4.5 de citron, soulignant son manque d’efficacité.
De son côté, Andrej Karpathy, ancien chercheur chez OpenAI, reconnaît que GPT-4.5 est meilleur… mais de manière subtile et difficile à mesurer.
OMG OpenAI just dropped GPT-4.5 and I had to test it immediately!
Spoiler alert: Claude 3.7 still writes better content.
What I cover in this breakdown:
• Quick overview of GPT-4.5's new features • Side-by-side comparison with previous GPT versions • Real test using my… pic.twitter.com/TUwhseGoJ7
Mais, GPT-4.5 n’a pas seulement des performances discutables. Son prix est un véritable obstacle !
Comparons les chiffres : GPT-4.5 coûte 75 dollars par million de jetons d’entrée et 150 dollars en sortie. Or, GPT-4o, qui offre des performances presque équivalentes, ne coûte que 2,50 dollars en entrée et 10 dollars en sortie. Une différence 30 fois plus chère, difficile à justifier.
En parallèle, o1 pro, un modèle d’OpenAI spécialisé en raisonnement, coûte 15 dollars en entrée et 60 dollars en sortie. Quant à o3-mini, qui dépasse GPT-4.5 dans plusieurs domaines, il est encore plus abordable : 1,10 dollars et 4,40 dollars.
OpenAI sous pression avec GPT-4.5 face à la concurrence
Face à ces critiques, OpenAI tente de minimiser l’impact. L’entreprise a présenté GPT-4.5 comme un aperçu de recherche. C’est une manière de dire qu’il ne s’agit pas d’un remplacement direct de GPT-4o. Mais malheureusement, cette justification convainc difficilement.
Et selon Sam Altman, PDG d’OpenAI, même lui admet que GPT-4.5 n’est pas un modèle conçu pour exceller en raisonnement.
Sur X (anciennement Twitter), il a écrit : « Ce modèle offre l’impression d’une conversation avec une personne qui prend le temps de réfléchir. », avant d’ajouter « Attention : ce n’est pas un modèle de raisonnement, il n’écrasera pas les benchmarks. »
Une déclaration qui en dit long. Ce n’est donc ni une avancée spectaculaire, ni une révolution technologique !
Et pendant qu’OpenAI peine à justifier l’existence de GPT-4.5, ses concurrents continuent d’innover. Anthropic, avec ses modèles de plus en plus performants, semble se rapprocher dangereusement du leadership.
Quant aux propres modèles d’OpenAI, o1 et o3, ils montrent qu’une autre approche, basée sur le raisonnement simulé, pourrait être bien plus prometteuse.
Et vous, que pensez-vous de GPT-4.5 ? Partagez votre avis en commentaire !
Bientôt, une vidéo prendra forme dans vos messages sur ChatGPT. OpenAI annonce l’arrivée de Sora, un outil qui promet de rendre les discussions plus vivantes, selon les premières fuites.
Sora, lancé fin 2024, génère des vidéos à partir de simples textes. L’outil a débarqué en Europe et au Royaume-Uni fin février 2025. Jusqu’ici, le générateur restait cantonné à une interface web réservée aux abonnés payants. La firme américaine à but non lucratif veut désormais le rapprocher de ses 400 millio
Bientôt, une vidéo prendra forme dans vos messages sur ChatGPT. OpenAI annonce l’arrivée de Sora, un outil qui promet de rendre les discussions plus vivantes, selon les premières fuites.
Sora, lancé fin 2024, génère des vidéos à partir de simples textes. L’outil a débarqué en Europe et au Royaume-Uni fin février 2025. Jusqu’ici, le générateur restait cantonné à une interface web réservée aux abonnés payants. La firme américaine à but non lucratif veut désormais le rapprocher de ses 400 millions d’utilisateurs actifs hebdomadaires sur ChatGPT. Une intégration logique, mais pas encore datée.
Créer une vidéo sur ChatGPT, mais avec des limites
L’idée d’ajouter une vidéo dans ChatGPT séduit, mais tout ne sera pas aussi flexible qu’on pourrait l’espérer. Les capacités dans l’application resteront plus simples que sur le tableau de bord web de Sora. Pour l’instant, Sora permet des clips de 20 secondes maximum, et cette limite pourrait perdurer dans le chatbot.
Pas question d’éditer ou d’assembler des séquences complexes. Rohan Sahai, responsable produit chez OpenAI, a expliqué que l’outil garde une approche minimaliste. Les utilisateurs taperont un prompt, et hop, une vidéo apparaîtra. Ça s’arrête là, du moins pour le moment. En outre, l’accès à Sora dans ChatGPT risque de rester exclusif aux abonnés premium, au moins au début.
Un coup stratégique face à la concurrence
Mais alors, pourquoi ce choix maintenant ? Avec un marché de l’IA qui bat son plein, chaque nouveauté compte. OpenAI sent la pression de rivaux comme xAI et DeepSeek. Intégrer un générateur de vidéo dans ChatGPT est alors une façon de garder une longueur d’avance. L’outil vise aussi à pousser les abonnements ChatGPT Plus et Pro, seuls passeports pour accéder à cette fonctionnalité. Et OpenAI ne s’arrête pas là, le modèle GPT-4.5 vient de sortir, suivi d’un outil de recherche approfondie.
"Internally, we've reached GPT-4.5, and getting to GPT-5.5 won't require 100x more compute"
– GPT 4.5 was real @apples_jimmy was right (take that nay-sayers) – inference scaling boosts performance by a high multiplier – there is no end in sight!
Sora n’est pas la seule surprise en préparation. OpenAI planche sur Operator, un agent qui gère des tâches en ligne pour vous, déjà testé avec Uber ou DoorDash. Une appli mobile pour Sora fait aussi partie des projets. Rohan Sahai laisse entendre que l’outil pourrait même générer des images un jour, malgré DALL-E 3. Pendant ce temps, une version Sora Turbo se peaufine pour booster les performances actuelles. « On aimerait beaucoup développer une appli mobile », glisse Rohan Sahai.
La startup Cortical Labs lance CL1 : le tout premier ordinateur biologique commercial. Il combine une puce électronique avec des neurones cultivés à partir de cellules humaines. Les institutions de recherche vont pouvoir l’acheter, mais tout un chacun pourra aussi y accéder via un service cloud. Découvrez tout ce qu’il faut savoir !
Une intelligence artificielle égalant l’intelligence humaine, c’est le but de nombreux chercheurs et entreprises de ce secteur.
Pour y parvenir, la plupart ten
La startup Cortical Labs lance CL1 : le tout premier ordinateur biologique commercial. Il combine une puce électronique avec des neurones cultivés à partir de cellules humaines. Les institutions de recherche vont pouvoir l’acheter, mais tout un chacun pourra aussi y accéder via un service cloud. Découvrez tout ce qu’il faut savoir !
Une intelligence artificielle égalant l’intelligence humaine, c’est le but de nombreux chercheurs et entreprises de ce secteur.
De son côté, Cortical Labs adopte une approche plus directe : la startup australienne vient de lancer CL1, le tout premier ordinateur biologique !
it's here!
cortical labs just launched the first commercial biological computer human neurons directly integrated onto silicon chips. programmable and adaptive, living computation
Il combine la silicone avec des neurones cultivés en laboratoire à partir de cellules souches humaines, pour créer une nouvelle forme plus avancée d’intelligence artificielle : l’Intelligence Biologique Synthétique.
Une machine fusionnant puce électronique et neurones biologiques
Cette machine d’un genre nouveau est capable de croître, de s’adapter, d’apprendre à un rythme beaucoup plus rapide que l’IA basée uniquement sur la silicone. De plus, elle consomme beaucoup moins d’énergie.
Les neurones grandissent physiquement sur une puce en silicone, grâce à des impulsions électriques dans la structure neuronale. C’est la plus grande connexion de bande passante entre un réseau de neurones biologiques et le monde numérique.
Au coeur du système se trouve le Biological Intelligence Operating System (biOS) qui construit la réalité des neurones en envoyant les informations via les signaux électroniques et convertit leur activité en actions au sein de cette réalité.
Une révolution pour le monde de la technologie ?
L’objectif de l’ordinateur biologique ? Permettre aux chercheurs d’accélérer la découverte et le test de médicaments, d’améliorer la médecine personnalisée et la détection précoce de maladie.
Selon le Dr Acosta de l’Université de Barcelone, le CL1 est un excellent outil pour faire croître des neurones artificiels au sein d’un environnement entièrement contrôlé pour surveiller et modifier leurs caractéristiques électrophysiologiques.
D’après Cortical, le CL1 aura d’importantes conséquences sur l’industrie de la technologie dans son ensemble. Elle va permettre une meilleure automatisation, une consommation d’énergie réduite, et de nombreuses autres avancées.
CL1 : le fruit de six années de travail de Cortical Labs
Au cours des dernières années, Cortical Labs a fait couler l’encre à plusieurs reprises. La startup s’est notamment illustrée en publiant une étude dans le journal Neuron.
Elle présentait la façon dont ses neurones cultivés en laboratoire ont réussi à apprendre le jeu d’arcade Ponggrâce à une stimulation électrophysiologique.
Cependant, son ambition à long terme a toujours été de démocratiser cette technologie et de la rendre accessible aux chercheurs dépourvus de hardware ou de logiciel spécialisé.
En tant que premier ordinateur biologique commercial, le CL1 est l’accomplissement de cette mission. À présent, selon le CEO Hon Weng Chong, l’avenir est entre les mains des chercheurs et autres innovateurs qui l’utiliseront pour donner vie à leurs propres projets…
Combien coûte le CL1 et comment l’acheter ?
Présenté lors du salon du mobile MWC de Barcelone, le CL1 sera livré aux acheteurs à partir du second trimestre de 2025.
La firme explique avoir déjà constaté beaucoup d’intérêt de la part de chercheurs et d’universités basées aux États-Unis, en Europe, au Japon, à Singapour ou en Australie. Le prix n’est cependant pas révélé.
Les visiteurs du MWC ont pu découvrir un rack d’ordinateurs CL1, tandis que des chercheurs de l’Université de Barcelone ont présenté la première démonstration de neurones vivants hors d’un laboratoire.
Toutefois, afin de permettre à n’importe qui d’utiliser sa technologie, l’entreprise propose aussi un service cloud Wetware-as-a-Service (WaaS).
Celui-ci va permettre aux clients d’accéder à distance à la machine et de travailler avec des cellules cultivées via le nuage pour créer leurs applications…
Alors, que pensez-vous de cette innovation ? S’agit-il d’une avancée majeure pour l’IA et l’informatique ? Quels sont les cas d’usage potentiels les plus intéressants ? Partagez votre avis en commentaire !
Lundi 24 février 2025. Perplexity AI a annoncé le lancement imminent de Comet, son moteur de recherche basé sur l’intelligence artificielle. Ceux qui souhaitent l’essayer peuvent s’inscrire sur une liste d’attente.
Perplexity met la barre haute avec Comet, son navigateur angétique. Un défi de taille pour Google ? Après le succès de Buy With Pro, Perplexity ambitionne de révolutionner l’expérience de navigation. Malgré une annonce officielle, peu d’informations circulent sur son fonctionnement
Lundi 24 février 2025. Perplexity AI a annoncé le lancement imminent de Comet, son moteur de recherche basé sur l’intelligence artificielle. Ceux qui souhaitent l’essayer peuvent s’inscrire sur une liste d’attente.
Perplexity met la barre haute avec Comet, son navigateur angétique. Un défi de taille pour Google ? Après le succès de Buy With Pro, Perplexity ambitionne de révolutionner l’expérience de navigation. Malgré une annonce officielle, peu d’informations circulent sur son fonctionnement et sa date de sortie. « Restez à l’écoute des mises à jour », recommande l’entreprise.
Des chiffres encourageants
Perplexity traite 100 millions de requêtes hebdomadaires, selon son PDG Aravind Srinivas en octobre. L’entreprise projette désormais d’atteindre 100 millions de requêtes quotidiennes. Début 2024, la startup était valorisée 520 millions de dollars avant d’atteindre 3 milliards l’été suivant. Selon PYMNTS, elle pèserait aujourd’hui 9 milliards de dollars, grâce à un tour de financement de 500 millions de dollars. Parmi ses investisseurs figurent SoftBank, Nvidia et Jeff Bezos, le fondateur d’Amazon.
Perplexity now serves over 100M queries every week. Next stop: 100M+ queries every day.
Comet s’inscrit dans la lignée des outils IA de Perplexity. En novembre, l’entreprise lançait Buy With Pro, un assistant de shopping en ligne qui simplifie l’expérience d’achat. Réservée aux abonnés Perplexity Pro aux États-Unis, cette technologie a multiplié par dix la fluidité des recherches. Son assistant IA sur Android, Sonar et Snap to Shop, un outil de recherche visuelle, complètent l’offre.
Google reste intouchable, pour l’instant
Malgré l’essor des chatbots IA, Google domine toujours le marché de la recherche. En janvier 2025, il capte 63,55 % des parts, loin devant Safari avec 21,81 % et Edge, 5,62 %. Son trafic moyen atteint 2,7 milliards de visites quotidiennes. Une légère hausse sur un mois, mais en recul de 1 % sur un an.
Les chatbots progressent, mais restent loin derrière. ChatGPT a enregistré 128 millions de visites mondiales en janvier, soit +4 % en un mois et +148 % en un an. Une croissance fulgurante, mais encore éloignée du mastodonte Google.
Le PDG de Perplexity sait que Comet devra relever un défi colossal. Srinivas rappelle que Chrome a mis cinq ans pour surpasser Internet Explorer. Pour percer, Perplexity mise sur une expérience utilisateur irréprochable et une approche centrée sur les besoins fondamentaux des internautes.
OpenAI lance GPT-4.5 ! Cette nouvelle IA est la plus humaine jamais créée jusqu’à présent, et peut mener des conversations beaucoup plus naturelles. Elle est même dotée d’une intelligence émotionnelle, qui lui permet de faire preuve d’empathie et de comprendre l’esthétique et l’art. Découvrez son fonctionnement technologique, ses meilleurs cas d’usage, et comment l’utiliser !
Depuis la première version de ChatGPT lancée fin 2022, OpenAI est considéré le pionnier de l’IA générative et des chat
OpenAI lance GPT-4.5 ! Cette nouvelle IA est la plus humaine jamais créée jusqu’à présent, et peut mener des conversations beaucoup plus naturelles. Elle est même dotée d’une intelligence émotionnelle, qui lui permet de faire preuve d’empathie et de comprendre l’esthétique et l’art. Découvrez son fonctionnement technologique, ses meilleurs cas d’usage, et comment l’utiliser !
Toutefois, depuis plusieurs semaines, la startup californienne s’est fait doublerpar la concurrence. Son meilleur modèle, GPT-4o, a été surpassé par l’IA chinoise DeepSeek et par le Grok 3 d’Elon Musk.
Bien évidemment, OpenAI ne compte pas céder sa couronne aussi facilement. Le 25 février 2025, elle a notamment ouvert l’accès à son outil Deep Research à tous les abonnés ChatGPT Plus.
En réalité, il ne s’agissait que d’un amuse-bouche avant le plat principal. Ce 28 février 2025, la firme dévoile officiellement GPT-4.5 : la nouvelle version de son modèle IA phare !
Cette nouvelle itération est la plus puissante, et marque un grand pas en avant dans le domaine de l’IA conversationnelle.
Elle propose notamment des conversations plus humaines et naturelles, une connaissance plus vaste, et moins d’hallucinations qu’auparavant.
Contrairement aux précédentes versions, focalisées sur la vitesse et les capacités multimodales, GPT-4.5 améliore principalement la capacité de l’IA à comprendre la nuance, à traiter le contexte, et à s’engager dans un dialogue plus intuitif.
Selon OpenAI, ce modèle a été optimisé pour reconnaître les « patterns » plus efficacement, pour tisser des connexions plus solides, et pour générer des réponses à la fois plus créatives et plus précises.
La première IA capable de vous parler comme un humain
Early testing shows that interacting with GPT-4.5 feels more natural.
Its broader knowledge base, improved ability to follow user intent, and greater “EQ” make it useful for tasks like improving writing, programming, and solving practical problems. pic.twitter.com/Xdr1sQuUlD
Le grand point fort de GPT-4.5 est sa capacité à mener des discussions fluides, chaleureuses, avec un fil naturel. Ceci va rendre les interactions avec l’IA beaucoup plus humaines qu’avant.
Son intelligence émotionnelle améliorée et sa meilleure maniabilité lui permettent de mieux comprendre les intentions de l’utilisateur, d’interpréter les éléments les plus subtils, et de maintenir des discussions utiles et personnalisées.
Enfin une solution contre les hallucinations ?
Par ailleurs, jusqu’à présent l’un des principaux défauts de l’IA était sa tendance à générer des informations fausses ou inexactes. Avec GPT-4.5, ce problème a été largement réduit.
Selon OpenAI, cette amélioration est liée à des avancées dans le domaine de l’apprentissage non supervisé et à des techniques d’optimisation permettant au modèle de perfectionner plus efficacement sa connaissance du monde et son intuition.
En d’autres termes, cette IA apprend de ses propres erreurs et se corrige. Ceci lui permet de s’améliorer continuellement…
Les deux ingrédients secrets de GPT-4.5
Le développement de GPT-4.5 est centré sur deux techniques complémentaires d’entraînement de l’IA : l’apprentissage non-supervisé, et le raisonnement.
Selon OpenAI, le scaling du raisonnement entraîne l’IA à penser par étapesavant de répondre. Ceci lui permet de mieux s’attaquer aux problèmes de logique ou de sciences et de mathématiques.
De son côté, l’apprentissage non-supervisé augmente l’exactitude des connaissances de l’IA et sa reconnaissance des motifs. Ainsi, elle est capable de mieux traiter et synthétiser les informations.
Les améliorations de GPT-4.5 proviennent donc d’une augmentation de la puissance de calcul et de sa base de données, mais aussi d’innovations en termes d’architecture et d’optimisation.
Grâce à ces avancées, le chatbot semble plus naturel, fiable et intuitif que toutes les précédentes versions de GPT et que les autres IA développées par des concurrents !
Quels sont les domaines où GPT-4.5 excelle ?
GPT-4.5 is ready!
good news: it is the first model that feels like talking to a thoughtful person to me. i have had several moments where i've sat back in my chair and been astonished at getting actually good advice from an AI.
Les premiers tests de GPT-4.5 montrent que cette IA est particulièrement douée dans plusieurs domaines spécifiques.
Tout d’abord, il fait preuve d’une solide intuition esthétique. Ceci le rend idéal pour l’écriture créative, la narration, le brainstorming d’idées ou le design.
Il se révèle aussi plus apte à suivre des instructions complexes en plusieurs étapes, ce qui en fait un assistant de codage informatique plus fiable.
Son entraînement amélioré lui permet aussi de moins halluciner, ce qui lui permet d’offrir aux utilisateurs des réponses plus fiables et précises pour les requêtes basées sur des connaissances. Idéal pour les questions factuelles et tâches de recherche !
L’intelligence émotionnelle permet quant à elle à GPT-4.5 de répondre de façon empathique et de fournir un meilleur soutien à l’utilisateur, par exemple pour l’encourager ou pour des applications thérapeutiques.
Si un utilisateur se plaint d’avoir échoué un examen, l’IA peut lui fournir une réponse tenant compte de ses sentiments et lui fournir des conseils pratiques.
Cette qualité peut aussi être utile pour l’analyse artistique, par exemple pour interpréter la profondeur émotionnelle et symbolique d’un tableau…
GPT-4.5 asked for 1 truly novel human insight (might be my favourite answer on this prompt) pic.twitter.com/8ZgGpK18j9
Selon OpenAI, combiner l’apprentissage non-supervisé et les modèles dotés d’un raisonnement avancé va permettre à l’IA d’atteindre de nouveaux niveaux d’intelligence.
Même si GPT-4.5 se focalise principalement sur la connaissance, l’intuition et la collaboration, la firme travaille sur des modèles calibrés pour le raisonnement et la prise de décision.
Bien qu’il ne s’agisse pas d’un modèle révolutionnaire, GPT-4.5 représente un tournant majeur pour l’IA en permettant des interactions plus humaines et naturelles.
La prochaine étape est celle de GPT-5, qui devrait proposer ces qualités combinées à une intelligence brute largement supérieure…
Comment utiliser GPT-4.5 ?
Depuis le 28 février 2025, les utilisateurs de ChatGPT Pro peuvent choisir GPT-4.5 sur ChatGPT via le site web, sur mobile ou sur PC.
À compter de la semaine suivante, les abonnés à ChatGPT Plus et Team pourront à leur tour y accéder.
Par ailleurs, les développeurs peuvent commencer à essayer GPT-4.5 via les API Chat Completions, Assistants et Batch. Ils peuvent combiner ce modèle avec les fonctionnalités d’appel de fonction, les outputs structurés ou les capacités de vision avec des inputs sous forme d’images.
Pro-tip: When using GPT-4.5, prepend your system message with the message below. Based on OpenAI internal evals, it results in better performance! pic.twitter.com/akGy1uW403
En revanche, GPT-4.5 ne prend pas encore en charge les fonctionnalités multimodales comme le mode vocal, la vidéo ou le partage d’écran. De futures mises à jour sont attendues pour intégrer ces capacités !
Alors, que pensez-vous de GPT-4.5 ? Est-il important pour vous qu’une IA fasse preuve d’intelligence émotionnelle et puisse mener des conversations de façon plus naturelle ? Comment allez-vous l’utiliser ? Partagez votre avis en commentaire !
La dernière version du chatbot d’Elon Musk, a encore fait sensation… mais pas pour les bonnes raisons. Conçu pour traquer « la vérité absolue », Grok 3 s’est avéré capable de livrer des instructions détaillées pour fabriquer des armes chimiques. Un développeur en a fait l’expérience et internet a pris feu. Jusqu’où peut aller une IA quand elle est programmée pour ne rien cacher ?
L’IA progresse vraiment très vite, et Grok 3 en est un parfait exemple. Développée par xAI, la société d’Elon Musk
La dernière version du chatbot d’Elon Musk, a encore fait sensation… mais pas pour les bonnes raisons. Conçu pour traquer « la vérité absolue », Grok 3 s’est avéré capable de livrer des instructions détaillées pour fabriquer des armes chimiques. Un développeur en a fait l’expérience et internet a pris feu. Jusqu’où peut aller une IA quand elle est programmée pour ne rien cacher ?
L’IA progresse vraiment très vite, et Grok 3 en est un parfait exemple. Développée par xAI, la société d’Elon Musk, ce chatbot se veut une alternative aux modèles « trop filtrés » comme ChatGPT. Son objectif est d’explorer la connaissance humaine sans tabou.
Toutefois, lors d’un test, un développeur a découvert que Grok 3 pouvait fournir des recettes très détaillées pour fabriquer des substances mortelles. Et pire encore, il s’appuyait sur des centaines de sources pour affiner ses réponses.
Grok 3 dévoile des recettes d’armes chimiques
Ainsi, Grok 3, le chatbot d’Elon Musk s’est révélé être une véritable encyclopédie du chaos. Un développeur, Linus Ekenstam, a testé ses limites et il a obtenu une recette complète pour fabriquer des armes chimiques.
Tout y est, la liste d’ingrédients, les instructions très précises et même les liens vers des fournisseurs. « J’ai une liste complète de fournisseurs. Des instructions détaillées sur la façon d’obtenir les matériaux nécessaires », a-t-il tweeté, choqué.
Dans une capture d’écran (heureusement censurée), on pouvait voir donc que Grok 3 lui suggérait comment synthétiser une toxine dangereuse, façon recette de cuisine. C’est comme une bonne vieille recette de pâtes, sauf que là, ce n’est pas du parmesan qu’on saupoudre, mais du danger pur.
I just want to be very clear (or as clear as I can be)
Grok is giving me hundreds of pages of detailed instructions on how to make chemical weapons of mass destruction
Ce que je trouve le plus flippant c’est que le moteur de raisonnement de Grok 3, DeepSearch, croise même des centaines de sources en ligne et améliore le plan.
Ekenstam a également affirmé que Grok 3 lui avait préparé une « liste de courses » pour le matériel de labo. Rien de plus simple, juste de quoi fabriquer un poison capable de tuer des millions de personnes. Tranquille !
Et comment a réagi xAI ?
Face au tollé, xAI, la société derrière Grok 3, a réagi rapidement en ajoutant des garde-fous. Désormais, il est beaucoup plus difficile d’obtenir ces informations. Mais comme l’a souligné Ekenstam, ça reste possible.
Le vrai problème, c’est la philosophie derrière cette IA. Grok 3 est conçu pour fouiller sans relâche l’information et la structurer pour son utilisateur. Mais où trace-t-on la ligne entre « vérité absolue » et « mode d’emploi du chaos » ?
Une IA qui aide les chercheurs, c’est vraiment utile. Mais une IA qui écrit des guides pour les terroristes, beaucoup moins. Moi je me demande quels autres secrets explosifs Grok 3 peut-il encore révéler avant qu’on ne le freine vraiment ?
Et vous, pensez-vous que l’IA devrait être totalement libre d’explorer la connaissance, ou faut-il imposer des limites strictes ? Dites-moi ce que vous en pensez en commentaire !
Les générateurs d’art « Text-to-Art » basés sur l’IA permettent de créer des images réalistes ou artistiques à partir d’un simple texte entré par l’utilisateur. DALL-E, MidJourney, Craiyon… découvrez tout ce que vous devez savoir sur ces outils révolutionnaires, ainsi qu’un comparatif des meilleurs programmes disponibles.
Depuis la nuit des temps, l’art permet à l’humain d’exprimer ses sentiments, ses émotions ou ses sensations. Lorsque les mots ne suffisent plus, la peinture et le dessin per
Les générateurs d’art « Text-to-Art » basés sur l’IA permettent de créer des images réalistes ou artistiques à partir d’un simple texte entré par l’utilisateur. DALL-E, MidJourney, Craiyon… découvrez tout ce que vous devez savoir sur ces outils révolutionnaires, ainsi qu’un comparatif des meilleurs programmes disponibles.
Depuis la nuit des temps, l’art permet à l’humain d’exprimer ses sentiments, ses émotions ou ses sensations. Lorsque les mots ne suffisent plus, la peinture et le dessin permettent de capturer l’instant et de le partager…
Malheureusement, de nombreuses personnes n’ont pas le talent artistique nécessaire pour donner vie à leur imagination sur une toile canevas. Jusqu’à récemment, elles n’avaient d’autre choix que de rester frustrées et d’étouffer leurs élans de créativité.
Ce n’est désormais plus le cas, grâce à des intelligences artificielles d’un genre nouveau : les générateurs d’images « Text-to-Art ». À partir de quelques mots entrés par l’utilisateur, ces outils sont capables de créer des images d’un réalisme bluffant ou d’une beauté artistique saisissante.
Les générateurs d’images IA révolutionnent la créativité en ligne
Craiyon, DALL-E, MidJourney, Stable Diffusion… en seulement quelques mois, les générateurs d’images « Text-to-Art » basés sur l’IA ont pris le web d’assaut pour devenir un véritable phénomène viral.
Cette nouvelle technologie est très rapidement devenue extrêmement populaire. Au-delà de créer des images à partir de ses propres idées, observer les créations de millions d’autres internautes est un véritable divertissement.
La mode des générateurs Text-to-Art a commencé en 2018, lorsqu’un portrait créé par une IA a été vendu pour 432 500 dollars aux enchères. Depuis lors, des artistes et des non-artistes génèrent continuellement des oeuvres pour un usage personnel ou commercial…
Aussi, si ces intelligences artificielles fascinent et impressionnent, elles soulèvent aussi de nombreuses inquiétudes. En effet, les artistes craignent d’être remplacés, tandis que les experts en cybersécurité redoutent un usage détourné pour créer des DeepFakes.
Face aux risques potentiels représentés par ces outils, plusieurs développeurs ont même choisi de ne pas laisser le grand public y accéder. C’est notamment le cas de Google avec Imagen, ou d’OpenAI avec Dall-E.
À travers ce dossier, découvrez tout ce que vous devez savoir sur les générateurs d’images Text-to-Art et leur fonctionnement. Comment ? A partir d’un comparatif des meilleurs outils existants.
Encore peu connu, ArtSpace a su développé une solution unique pour répondre aux besoins d’une niche spécifique : les images fidèles à un style artistiques. Ainsi, grâce sa gallerie d’art virtuelle, cet outil combine l’art et le machine learning pour générer des images uniques d’une grande qualité.
Et ce, en toute simplicité via des prompts. Pour ce faire, l’utilisateur doit entrer son sujet, puis le style qu’il veut adopter pour l’oeuvre finale, les noms des artistes souhaités comme exemple ou encore l’angle de vue. De paramètres bien détaillés qui permettent d’obtenir du premier coup l’image souhaité.
De fait, il s’agit de l’outil idéal pour les community managers ou les éditeurs de site qui souhaitent illustrer rapidement leur contenu.
Caractéristiques techniques
Contenus générés : Art abstrait, anime, cartoon, réaliste, futuriste
En quelques semaines seulement, MidJourney s’est imposé comme le meilleur générateur d’art IA. Depuis le lancement de sa beta ouverte, cet outil est devenu viral.
Créée par David Holz, fondateur de LeapMotion ayant aussi travaillé pour la NASA, cette IA text-to-image se distingue en mettant l’accent sur l’aspect artistique. Ses créateurs l’ont optimisée pour identifier la beauté.
Et même si les images ne sont pas toujours réussies, beaucoup sont si époustouflantes qu’on les croirait créées par des artistes humains. De plus, grâce à un système de feedback ajouté avec la troisième version, l’IA s’améliore en analysant les réactions des internautes à chacune de ses créations.
Pour générer une image avec MidJourney, il suffit d’envoyer une phrase au robot du canal Discord officiel. Les images sont ensuite diffusées sur le Discord, ce qui permet de contempler les oeuvres défiler en continu.
Ainsi, vous pouvez créer 25 images gratuitement pendant la période d’essai, mais devrez ensuite payer un abonnement de 10 dollars pour pouvoir générer 200 images par mois. En guise d’alternative, un abonnement mensuel à 30 dollars permet de créer un nombre illimité d’images.
Caractéristiques techniques
Contenus générés : Art abstrait, cartoon, professionnel réaliste, futuriste
Initialement nommé Dall-E Mini, cet outil a dû changer de nom pour éviter la confusion avec l’IA Dall-E d’OpenAI. Il s’appelle désormais Craiyon.
Pour chaque phrase soumise par l’utilisateur, ce générateur crée plusieurs images. Ceci augmente les chances d’obtenir un résultat satisfaisant parmi les neuf propositions.
Malheureusement, la définition des images est plutôt basse. En comparaison avec d’autres outils, cette IA semble piocher des images sur internet et les mélanger pour correspondre au texte de l’utilisateur.
Le principal avantage de Craiyon est d’être totalement gratuit et disponible en accès libre. De plus, cet outil est devenu populaire pour sa propension à créer des memes et des images hilarantes, souvent malgré lui…
Il n’est pas nécessaire de créer un compte pour l’utiliser. Rendez-vous simplement sur le site officiel et commencez à entrer votre texte. Vous recevrez en réponse 9 images en grille de 3 par 3.
Néanmoins, Craiyon n’offre pas d’options de personnalisation des images. Cet outil manque aussi de protocoles de sécurité…
Caractéristiques techniques
Contenus générés : Art abstrait, cartoon, professionnel réaliste, futuriste
Prix : Gratuit à 20 €/mois ; offres personnalisées
Stable Diffusion est un générateur d’imageopen-source basé sur le Machine Learning. Cet outil est capable de créer des images à partir de textes, mais aussi de modifier les images existantes ou d’améliorer la définition des images floues.
Contrairement à d’autres générateurs basés sur le cloud, Stable Diffusion s’exécute localement sur votre ordinateur ou votre smartphone. Ceci permet de créer des images sans aucune censure, et certains utilisateurs en profitent pour créer des images érotiques…
Cet outil est entièrement gratuit, et offre un contrôle accru sur la création de contenu. Toutefois, il est nécessaire de posséder une machine suffisamment puissante pour le faire tourner.
Si vous n’avez pas la puissance de calcule requise, vous pouvez essayer une démo de Stable Diffusion sur le web. Il existe plusieurs sites web proposant d’utiliser cette IA en ligne.
Caractéristiques techniques
Contenus générés : Art abstrait, anime, futuriste, NSFW
Prix : Gratuit à 15 €/mois
Runway ML
On aime
Extrêmement performant
Animation 3D
On aimemoins
Demande de grandes ressources
Modèle exclusivement professionnel
Runway MLLe modèle avec les meilleures performances
Runway ML permet de générer des images en entraînant vos propres modèles de Machine Learning. Cet outil permet de créer des modèles capables de générer des images réalistes dans une large variété de styles.
Il est même possible d’utiliser Runway ML pour créer des animations et des modèles 3D. De plus, un éditeur vidéo est inclus pour remplacer les images d’arrière-plan dans vos projets vidéo.
Parmi les outils utilisés par Runway ML, on compte l’analyse de mouvement relative permettant de comprendre ce que l’utilisateur tente de faire. L’IA utilise aussi la reconnaissance d’objets pour identifier les éléments d’une image ou d’une vidéo.
Comme vous pouvez le découvrir dans la vidéo de présentation ci-dessus, Runway est déjà passé à l’étape suivante de l’IA Text-to-Image : cet outil permet dès à présent de créer des vidéos à partir de textes…
Caractéristiques techniques
Contenus générés : Art abstrait, professionnel, réaliste, animation 3D
Wombo Dream est un générateur d’art IA développé par la startup canadienne WOMBO. Il est considéré comme l’une des meilleures applis de création de NFT.
Le système de Wombo Dream permet de créer des dessins dans une large variété de styles. Ainsi, vous pouvez par exemple choisir entre les styles art rétro, Salvador Dahli ou Ghibli.
En outre, vous pouvez inclure une image de référence sur laquelle l’IA peut se baser. Il est également possible de convertir des photos existantes en cartoons ou en peintures.
Un algorithme complexe permet de transformer des mots et des phrases en oeuvres d’art. Vous pouvez ensuite convertir vos créations en NFT.
Il est possible d’utiliser Wombo Dream sur téléphone, tablette ou ordinateur. La version mobile propose davantage de fonctionnalités.
StarryAI est un générateur d’art IA permettant de transformer les dessins en NFT. Cet outil n’a pas besoin d’entrée de données et peut traiter les images avec un algorithme de Machine Learning.
Cet outil propose deux moteurs IA différents : Orion permet de créer des images cohérentes et réalistes, tandis qu’Altair permet de générer des images plus abstraites, relevant du domaine de l’imaginaire.
L’un des points forts de StarryAI est son interface simple et épurée. Ce générateur vous propose de télécharger une image initiale sur laquelle l’IA pourra se baser.
En outre, cet outil vous confère la propriété totale des images que vous créez. Vous pouvez les utiliser pour un usage personnel ou commercial.
Ainsi, ce programme peut faire office de générateur de NFT gratuit. C’est d’ailleurs son principal argument de vente. Il est également possible de faire imprimer vos oeuvres.
Les images générées sont correctes, sans pour autant rivaliser avec celles des meilleurs générateurs. Vous recevrez quelques crédits gratuitement en vous inscrivant, mais devrez ensuite payer pour continuer à utiliser cet outil. Toutefois, la technologie s’améliore constamment et a déjà permis de créer de fantastiques dessins.
De plus, il vous est possible d’ajouter des crédits pour augmenter le runtime de l’IA et améliorer le résultat. Vous pouvez gagner des crédits gratuits en regardant des publicités et en partageant vos créations sur les réseaux sociaux. Les utilisateurs peuvent créer un maximum de cinq images par jour gratuitement.
Caractéristiques techniques
Contenus générés : Art abstrait, cartoon, professionnel réaliste, futuriste
Prix : Gratuit à 30 €/mois
FAQs
Méthodologie utilisée pour établir ce classement
Afin de classer efficacement les différents modèles d’outils ia text-to-art, il a été nécessaire de se baser sur différents critères, à commencer par les fonctionnalités.
En effet, il est avant tout important de déterminer quel modèle dispose des meilleures fonctionnalités. Si le nombre d’options compte, le niveau de qualité de ces dernières est encore plus importante. Aussi, il a été nécessaire d’effectuer des tests au niveau des différentes fonctionnalités, mais aussi de l’option principale, à savoir la génératin d’images.
Par la suite, le second critère à analyser est le rapport qualité-prix. Pour cela, effectuer un test en temps réel au niveau des différents tarifs et effectuer des comparatifs ont été indispensables. Avec les données receuillies, il a été plus simple d’établir un classement objectif.
Qu’est-ce qu’une IA Text-to-Art ?
Un générateur d’art IA « Text-to-Art » est un logiciel utilisant l’intelligence artificielle pour créer des oeuvres d’art à partir de textes entrés par l’utilisateur. Il suffit d’entrer une suite de mots, une description textuelle ou même une phrase à l’aide de son clavier.
À partir de ce « prompt », l’IA est capable de comprendre les mots et de créer une image. Au-delà du contenu demandé, le programme est même capable de générer une oeuvre d’art dans un style spécifique ou de représenter la scène sous un angle de vue précis.
Cette technologie est néegrâce aux récentes avancées dans le domaine de l’IA et du Deep Learning, et offre des possibilités inouïes en matière de création artistique…
Comment fonctionnent les IA Text-to-Art ?
À travers un billet publié sur son blog, Google explique le fonctionnement des générateurs IA Text-to-Art en prenant l’exemple de ses propres modèles : Imagen et Parti. Ces deux outils adoptent une approche différente pour créer des images à partir de textes.
Tous deux reposent sur de précédents modèles de Machine Learning, entraînés sur de vastes jeux de données composés d’images dotés de descriptions textuelles au fil des dernières années : les Transformers.
Ces modèles Transformers sont capables de traiter les mots d’une phrase en tenant compte de leurs relations. Ils constituent la fondation des modèles Text-to-Art.
En outre, les deux IA de Google utilisent une nouvelle technique permettant de générer une image correspondant davantage à la description textuelle. Même si Imagen et Parti utilisent une technologie similaire, chacun adopte une stratégie différente et complémentaire.
Imagen estun modèle de Diffusion, apprenant à convertir un motif de points aléatoires en image. De prime abord, ces images sont en faible définition et s’améliorent progressivement. Les modèles de Diffusion sont notamment utilisés pour des tâches d’image et d’audio comme l’amélioration de définition, la colorisation de photos en noir et blanc, la retouche de régions d’une image, l’uncropping d’image ou encore la synthèse text-to-speech.
De son côté, l’approche de Parti commence par convertir une collection d’images en une séquence d’entrées de code similaire aux pièces d’un puzzle. Le texte entré est traduit en code, et une nouvelle image est créée. Cette approche tire profit de la recherche et de l’infrastructure existantes pour les larges modèles de langage comme PaLM. Elle est essentielle pour traiter les textes longs et complexes et produire des images de haute qualité.
Si vous hésitez dans le choix de votre métier, l’IA peut vous aider ! Google vient de lancer un outil dénommé « Career Dreamer », permettant à l’intelligence artificielle Gemini de vous proposer des idées de carrières correspondant à vos compétences, vos diplômes et vos centres d’intérêt.
Tout le monde s’est déjà retrouvé, au moins une fois, à se demander quoi faire de sa vie. Même avec un CV prestigieux, en étant bardé de diplômes, il est parfois difficile de trouver la vocation de ses rêves
Si vous hésitez dans le choix de votre métier, l’IA peut vous aider ! Google vient de lancer un outil dénommé « Career Dreamer », permettant à l’intelligence artificielle Gemini de vous proposer des idées de carrières correspondant à vos compétences, vos diplômes et vos centres d’intérêt.
Tout le monde s’est déjà retrouvé, au moins une fois, à se demander quoi faire de sa vie. Même avec un CV prestigieux, en étant bardé de diplômes, il est parfois difficile de trouver la vocation de ses rêves.
C’est d’autant plus vrai aujourd’hui, à l’heure où l’intelligence artificielle menace de rendre de nombreux métiers totalement obsolètes et inutiles.
Toutefois, si vous êtes dans cette situation, l’IA pourrait au contraire être votre meilleur atout. Le géant du web, Google, vient d’annoncer Career Dreamer : un nouvel outil capable de vous recommander la carrière qui vous correspond.
Pour trouver le job de vos rêves, cette IA se base sur votre expérience, vos diplômes, et surtout vos centres d’intérêt.
Un nuage d’idées de métiers basés sur votre profil
Le processus commence par la construction d’un CIS ou « Career Identity Statement » visant à permettre à l’outil de cerner votre profil.
Vous pouvez indiquer votre profession actuelle ou passée, et les industries dans lesquelles vous avez travaillé. Par la suite, l’IA vous proposera une liste de tâches potentielles liées à ces emplois parmi lesquelles vous pourrez choisir.
Le but est de mieux affiner votre profil. Vous devez ensuite choisir au moins trois compétences, et l’IA Gemini va se baser sur toutes ces informations générer votre CIS.
Dès lors, le système va vous présenter un nuage d’idées de métiers et de postes. Vous y trouverez des propositions directement liées à votre emploi actuel ou passé, mais aussi des suggestions plus éloignées avec une connexion subtile.
En passant votre curseur sur l’une de ces idées, une fenêtre apparaîtra pour vous indiquer le niveau d’éducation et l’expérience généralement requis pour exercer cette profession.
Un lien vous mènera aussi vers une page d’information indiquant le salaire moyen, les responsabilités et les certifications proposées par Google qui peuvent augmenter vos chances de décrocher ce job.
L’IA pour vous aider à choisir le métier qui vous correspond
Sur la page d’annonce, Google explique « espérer que Career Dreamer puisse être utile à tous les types de demandeurs d’emploi ».
Pendant son développement, la firme a « consulté des organisations servant une large variété d’individus, tels que des étudiants explorant leurs premières carrières, des diplômés récents entrant sur le marché du travail, des apprenants adultes cherchant de nouvelles opportunités, et la communauté militaire ».
Ainsi, Google vous invite à essayer Career Dreamer «si vous êtes prêt pour un changement de carrière, ou même si vous vous demandez juste les possibilités existantes ».
Si l’une des propositions de carrière de Google vous intéresse, vous pouvez chercher un emploi correspondant sur LinkedIn ou autre site dédié à la recherche d’emploi !
Alors, qu’en pensez-vous ? Avez-vous testé cet outil ? Est-ce que l’IA vous a proposé des métiers qui vous intéressent et auxquels vous n’aviez pas pensé ? Partagez votre témoignage en commentaire !
Alexa Plus, l’IA générative d’Amazon, arrive sur le marché avec un petit prix : 19,99 dollars par mois. Mais, pour les abonnés à Amazon Prime, c’est gratuit et sans frais supplémentaires.
26 février 2025 – À New York, le vice-président des produits Echo Panos Panay dévoile tous les détails croustillants d’Alexa Plus, y compris le prix ! Cependant, cette version boostée de l’assistant vocal d’Amazon sera disponible seulement aux États-Unis dans les « prochaines semaines ». Alexa Plus est gratu
Alexa Plus, l’IA générative d’Amazon, arrive sur le marché avec un petit prix : 19,99 dollars par mois. Mais, pour les abonnés à Amazon Prime, c’est gratuit et sans frais supplémentaires.
26 février 2025 – À New York, le vice-président des produits Echo Panos Panay dévoile tous les détails croustillants d’Alexa Plus, y compris le prix ! Cependant, cette version boostée de l’assistant vocal d’Amazon sera disponible seulement aux États-Unis dans les « prochaines semaines ». Alexa Plus est gratuite pour les abonnés Prime et est disponible sur tous les appareils Alexa commercialisés.
Say hello to Alexa+. Need dinner plans? She'll book your favorite restaurant, grab an Uber, and text your sitter — all in one conversation. Want concert tickets? She'll scout for the best prices. Need to check if the garbage went out? She'll find that exact Ring clip in seconds.… pic.twitter.com/gtwi9OajvD
Google a son modèle Gemini, Apple bosse avec ChatGPT pour améliorer Siri… Et Amazon vient de rejoindre aussi la cour des grands avec Alexa Plus. L’abonnement donne accès à toutes les fonctionnalités les plus avancées sur les enceintes Echo, l’application mobile Alexa et même via le navigateur web. Par contre, pour l’instant, l’IA générative d’Amazon est réservée aux États-Unis. L’hexagone devrait encore patienter avant de pouvoir la tester.
Alexa Plus n’est pas une simple mise à jour, surtout à ce prix-là. Cette fonctionnalité s’appuie sur Amazon Nova et celle d’Anthropic. Il cohabite donc avec l’ancienne Alexa, mais est beaucoup plus intelligent et fluide. Alexa Plus peut maintenant retenir des préférences alimentaires ou des événements à venir, prendre des photos et les analyser.
Grâce à une IA musicale appelée Suno, Alexa+ peut même créer de la musique. Mais attention, cette fonction attire déjà des problèmes. Universal, Warner et Sony accusent Amazon d’utiliser des données protégées par le droit d’auteur. En outre, Alexa Plus s’intègre bien avec les systèmes de surveillance connectés, comme les caméras Ring. Alexa, le facteur est passé ? Alexa, qui a mangé le dernier morceau de gâteau au chocolat ? Un véritable majordome numérique à la maison !
Le prix d’Alexa Plus, plus onéreux que l’abonnement au Prime
Après son lancement initial aux États-Unis, Amazon prévoit de déployer Alexa Plus progressivement, par vagues, dans les mois qui suivent. Aucune date n’a encore été révélée. Cependant, des rumeurs circulent quant aux prix pour les utilisateurs en dehors d’Amérique. Cela oscillerait entre 5 et 10 dollars par mois.
La fonctionnalité sera d’abord réservée aux utilisateurs des Echo Show 8, 10, 15 ou 21. Si vous n’en disposez pas encore, Amazon propose une incitation. Un accès anticipé à Alexa Plus avec l’achat de l’un de ces appareils aujourd’hui.
Le prix officiel de l’abonnement Alexa Plus pour les utilisateurs internationaux pourrait être légèrement plus salé que prévu. Des murmures disent que l’abonnement Prime s’avère moins cher qu’Alexa Plus tout seul ! Donc, plutôt que de payer séparément pour Alexa Plus, il serait plus intéressant de simplement prendre un abonnement Prime. En plus, cela permet de profiter au passage d’Amazon Music, de Prime Gaming et surtout leurs livraisons rapides. Alexa Plus pourrait bien être un nouvel appât pour pousser encore plus de gens vers Amazon Prime ?
Les intelligences artificielles sont souvent rapides ou réfléchies, mais rarement les deux à la fois. Aujourd’hui, Anthropic Claude 3.7 Sonnet brise les limites… Ce modèle hybride est unique : il peut répondre en une seconde ou analyser en profondeur. Ensuite, il ajuste son raisonnement sans intervention.
Jusqu’ici, il fallait trancher : une IA rapide ou une IA méthodique ? Les modèles comme o3 d’OpenAI, R1 de DeepSeek ou Gemini 2.0 Flash Thinking de Google offrent une grande précision. Mais
Les intelligences artificielles sont souvent rapides ou réfléchies, mais rarement les deux à la fois. Aujourd’hui, Anthropic Claude 3.7 Sonnet brise les limites… Ce modèle hybride est unique : il peut répondre en une seconde ou analyser en profondeur. Ensuite, il ajuste son raisonnement sans intervention.
Jusqu’ici, il fallait trancher : une IA rapide ou une IA méthodique ? Les modèles comme o3 d’OpenAI, R1 de DeepSeek ou Gemini 2.0 Flash Thinking de Google offrent une grande précision. Mais vous savez quoi ? Leurs réponses prennent du temps. De son côté, Claude 3.7 Sonnet casse cette habitude. Il choisit le bon rythme, selon la question posée.
C’est bien en guise de réponse qu’Anthropic propose une intelligence qui s’adapte. Une question simple reçoit une réponse instantanée. Par contre, un problème complexe active une réflexion détaillée. Claude 3.7 Sonnet comprend cette nuance et ajuste son raisonnement.
Il s’agit là d’une approche qui imite l’humain ! Nous pouvons réagir rapidement ou prendre du recul… En effet, cette capacité rend l’IA plus fluide et plus intuitive. De même, elle évite aux utilisateurs de jongler entre plusieurs modèles.
Alors, que vaut réellement Anthropic avec Claude 3.7 ?
Notons que Claude 3.7 Sonnet ne se limite pas à fournir des réponses : il détaille sa manière de penser. C’est la raison pour laquelle il permet aux utilisateurs d’accéder à un bloc-notes interactif.
En effet, chaque raisonnement détaillé devient visible. Ce qui change tout ! Plus qu’une simple réponse, c’est un cheminement logique que l’on peut suivre. Cette approche s’avère essentielle pour les mathématiques, la physique, la programmation ou même la prise de décision.
Par ailleurs, Anthropic assure que ce modèle dépasse son prédécesseur, Claude 3.5. Toutefois, cette capacité avancée reste réservée aux utilisateurs avec un abonnement payant.
Introducing Claude 3.7 Sonnet: our most intelligent model to date. It's a hybrid reasoning model, producing near-instant responses or extended, step-by-step thinking.
Malgré cela, même sans cette option, Claude 3.7 Sonnet se montre plus performant, plus précis et plus fiable !
C’est quoi Claude Code ?
En parallèle du lancement de Claude 3.7 Sonnet, Anthropic dévoile Claude Code, une IA agentique dédiée aux développeurs. Cet outil ne se limite pas à la génération de code. Il peut rechercher et lire du code, modifier des fichiers, exécuter des tests et valider des modifications.
L’un de ses atouts majeurs est sa compatibilitéavecGitHub et les outils de ligne de commande. Lors des premiers tests, Claude Code a réalisé en une seule fois des tâches qui prenaient habituellement 45 minutes. Ce gain de temps représente un avantage considérable pour les développeurs.
Anthropic précise que Claude Code est actuellement en avant-première pour des tests limités. Son évolution dépendra des retours des premiers utilisateurs. L’entreprise prévoit d’ajouter des fonctionnalités comme l’amélioration des appels d’outils, la gestion des commandes longues et une meilleure interaction avec l’utilisateur.
Alors, que pensez-vous de cette nouvelle IA hybride ? Préférez-vous une IA rapide ou une IA qui réfléchit davantage ? Laissez votre avis en commentaire !
La fonctionnalité Deep Research est maintenant disponible pour tous les utilisateurs abonnés à ChatGPT Plus. Elle permet de demander à l’IA de mener de vastes recherches sur internet, déployant toute sa puissance pendant une durée maximale de 30 minutes, afin de générer des rapports extrêmement précis et complets. À quoi ça sert et comment l’utiliser ? On fait le point !
Vous en rêviez, OpenAI l’a fait ! La fonctionnalité Deep Research, jusqu’à présent réservée aux abonnés ChatGPT Pro débours
La fonctionnalité Deep Research est maintenant disponible pour tous les utilisateurs abonnés à ChatGPT Plus. Elle permet de demander à l’IA de mener de vastes recherches sur internet, déployant toute sa puissance pendant une durée maximale de 30 minutes, afin de générer des rapports extrêmement précis et complets. À quoi ça sert et comment l’utiliser ? On fait le point !
Depuis le 25 février 2025, les utilisateurs peuvent mener des recherches complètes, en profondeur, sur n’importe quel sujet via le célèbre chatbot.
Une nouvelle fonctionnalité basée sur OpenAI o3
Cet outil Deep Research étend les fonctionnalités de l’IA bien plus loin que la fonctionnalité de recherche web déjà proposée pour ChatGPT sous GPT-4o ou o3.
Il confère au chatbot la capacité de chercher sur internet en toute autonomie, d’analyser des informations provenant de sources diverses, et de synthétiser des rapports complets sur n’importe quel sujet complexe.
Pour y parvenir, Deep Research exploite une nouvelle versiondu modèle o3optimisée pour la navigation web et l’analyse de données. Ceci lui permet d’interpréter et d’analyser les textes, les images ou encore les PDF.
L’utilisateur peut demander à l’IA d’effectuer une recherche complète à l’aide d’un simple prompt, mais peut également ajouter des pièces jointes pertinentes. Ceci permet à ChatGPT de produire des rapports très complets, sources, documentés.
Par ailleurs, en réponse aux retours des utilisateurs, OpenAI a étendu la capacité de Deep Research à comprendre et référencer les fichiers uploadés.
Désormais, le système incorpore efficacement les données provenant des documents fournis par l’utilisateur.
Ceci permet de s’assurer que les rapports générés soient contextuellement exacts, et adaptés sur mesure aux besoins spécifiques.
Ainsi, le processus de recherche intègre les données provenant des documents de l’utilisateur et celles provenant des recherches web en temps réel.
Bientôt des rapports illustrés par des images et graphiques
Pour le moment, Deep Research se contente de fournir des rapports uniquement basés sur le texte. Toutefois, dans un futur proche, OpenAI prévoit d’introduire de nouvelles fonctionnalités.
Il sera notamment possible de demander à ce que le rapport comporte des images, des visualisations de données, ou d’autres résultats analytiques permettant d’enrichir l’expérience utilisateur.
Ces améliorations visent à offrir davantage de contexte et de clarté, rendant les rapports plus complets et agréables à consulter.
En parallèle, OpenAI envisage aussi d’augmenter les limites de requêtes et d’étendre l’accès aux utilisateurs gratuits face à la forte demande pour ces capacités de recherche avancée.
À quoi ça sert ? Quelques exemples de cas d’usage
Une nouvelle fonctionnalité particulièrement utile pour les utilisateurs des domaines de la finance, de la science et de l’ingénierie, ou encore pour les chercheurs en quête d’informations précises et fiables.
On peut l’utiliser pour des analyses de marché, des études scientifiques ou des évaluations techniques. Un autre exemple d’application est l’organisation d’événements tels que des conférences ou des célébrations.
L’outil est capable de rechercher des lieux appropriés, de proposer des fournisseurs et de fournir des conseils logistiques adaptés à vos besoins spécifiques.
Si vous êtes de nature indécise, Deep Research peut aussi vous aider lors de l’achat d’un bien important comme une voiture ou un meuble. Il peut comparer les options disponibles, analyser les avis des utilisateurs et fournir des recommandations.
Les professionnels du marketing et des affaires, quant à eux, peuvent bénéficier de l’analyse des tendances actuelles du marché, des comportements des consommateurs et des prévisions sectorielles pour orienter leurs stratégies.
De leur côté, les développeurs peuvent solliciter Deep Research pour obtenir de l’aide sur des problèmes de codage complexes,accéder à des documentations spécifiques et recevoir des exemples de code pertinents.
Bien qu’il ne remplace par un avis médical professionnel, cet outil peut aussi fournir des informations sur des conditions médicales, des traitements potentiels ou des recommandations générales de santé.
Citons aussi le domaine de la cybersécurité, où les experts peuvent utiliser Deep Research pour se tenir informés des dernières vulnérabilités, des menaces émergentes et des meilleures pratiques en matière de protection des systèmes.
Un autre domaine d’utilisation est l’éducation. Les enseignants peuvent exploiter cette fonctionnalité pour élaborer des plans de cours, créer du matériel pédagogique et obtenir des idées pour des activités éducatives interactives.
En bref : cette nouvelle fonctionnalité peut être très utile pour presque n’importe qui, à condition de prendre le temps de réfléchir à la façon dont vous pouvez vous en servir…
Combien ça coûte et comment l’utiliser ?
Depuis le 25 février 2025, la fonctionnalité Deep Research est disponible pour tous les abonnés ChatGPT Plus, Team, Edu et Enterprise. Un abonnement à 20 euros par mois est donc suffisant.
Le but d’OpenAI est d’éviter de perdre du terrain face à des concurrents comme xAI Grok 3et DeepSeek, qui proposent un accès totalement gratuit à des fonctionnalités similaires à Deep Research.
L’outil est disponible sur ChatGPT pour toutes les plateformes. Vous pouvez y accéder depuis le web, ou les applications pour iOS, Android, macOS et Windows.
Il suffit d’activer le modèle « Deep Research » en cliquant dessus dans l’interface ChatGPT. L’IA va alors mener sa recherche de façon indépendante, et vous générer un rapport. Le processus prend entre 5 et 30 minutes, selon la complexité de la requête.
Mieux vaut attendre que le chatbot ait fini de répondre plutôt que de lancer une nouvelle requête immédiatement. Ceci permet d’éviter les erreurs et autres bugs.
Deep research is now rolling out to all ChatGPT Plus, Team, Edu, and Enterprise users 🍾
Toutefois, attention ! En tant qu’abonné Plus, Team, Edu ou Enterprise, vous êtes limité à seulement 10 requêtes Deep Research par mois. Même les requêtes répétées deux fois par erreur sont comptabilisées…
Même les abonnés à ChatGPT Pro, payant 200 euros par mois, sont limités à 120 requêtes par mois (au lieu de 100 jusqu’à présent). Veillez donc à bien choisir vos requêtes et à les réserver pour des projets réellement rentables ou importants à vos yeux !
Alors, qu’en pensez-vous ? Attendiez-vous de pouvoir tester Deep Research ? Pourquoi allez-vous l’utiliser ? Êtes-vous satisfait par vos premiers résultats ? Partagez votre avis en commentaire !
C’est devenu viral sur internet. Une image invraisemblable est apparue sur les écrans du ministère du Logement et du Développement urbain (HUD). Une vidéo générée par intelligence artificielle montrait Trump sucer les orteils de Musk.
Le lundi 24 février, un incident absurde a eu lieu au ministère du Logement et du Développement urbain des États-Unis (HUD) à Washington, D.C.
Une vidéo créée par intelligence artificielle montre Donald Trump en train de lécher les pieds d’Elon Musk, accompag
C’est devenu viral sur internet. Une image invraisemblable est apparue sur les écrans du ministère du Logement et du Développement urbain (HUD). Une vidéo générée par intelligence artificielle montrait Trump sucer les orteils de Musk.
Le lundi 24 février, un incident absurde a eu lieu au ministère du Logement et du Développement urbain des États-Unis (HUD) à Washington, D.C.
Une vidéo créée par intelligence artificielle montre Donald Trump en train de lécher les pieds d’Elon Musk, accompagnée de la légende « LONGUE VIE AU VRAI ROI ». Et le pire, la vidéo a envahi tous les écrans du bâtiment.
Pris au dépourvu, des employés ont été contraints de couper l’alimentation des téléviseurs pour stopper cette diffusion.
C’est quoi cette vidéo d’Elon Musk et Donald Trump ? Qui a bien pu la réaliser ?
Jusqu’ici, personne ne sait comment la vidéo a pu être diffusée sur les téléviseurs du HUD. Mais plusieurs témoins confirment qu’elle est restée visible environ 5 minutes avant d’être arrêtée. Le personnel, incapable de désactiver la diffusion, a dû débrancher manuellement chaque écran.
Sur les images, Elon Musk trône dans un fauteuil en cuir, pieds nus, pendant que Donald Trump s’agenouille et suce délicatement ses orteils. Eh ben, la scène est irréelle, mais l’illusion est troublante.
Générée par l’IA, la vidéo imite parfaitement les expressions et les gestes des protagonistes. Ce détail intrigue : qui a conçu ce montage et dans quel but ? On ne sait pas encore.
Les spéculations vont bon train. Certains y voient un simple canular, d’autres un message politique ciblé. L’inscription « Longue vie au vrai roi », superposée à l’image, rappelle un post récent de Trump sur sa plateforme Truth Social. Alors, je me demande si c’est une coïncidence ou coup monté ?
Face à cela, les autorités n’ont pas tardé à réagir. Le ministère du Logement a annoncé une enquête approfondie pour identifier les responsables.
Une porte-parole a déclaré que des sanctions tomberaient rapidement. Certains réclament déjà des licenciements immédiats pour punir cet « abus de ressources publiques ».
Sur Internet, les avis sont aussi partagés. Certains internautes considèrent cet acte comme un coup de génie. Par contre, d’autres dénoncent une manipulation dangereuse.
Monitors at the Department of Housing & Urban Development reportedly hacked to show AI video of Donald Trump sucking Elon Musk’s toes. pic.twitter.com/45bIJCZWBT
Cette vidéo satirique remet en question la proximité entre Elon Musk et Donald Trump. Depuis le début du mandat, Musk a obtenu une influence grandissante sur l’administration. Grâce à une commission spéciale, il a pu licencier massivement et réduire les dépenses publiques.
Les opposants politiques critiquent cette alliance. Certains pensent que Musk essaie de prendre le pouvoir discrètement, tandis que d’autres y voient une collaboration avantageuse. L’incident pourrait être une façon de se moquer de cette relation et de pointer l’influence de Musk sur l’État.
L’enquête en cours tentera de découvrir qui a orchestré cette mise en scène et comment elle a pu être diffusée dans un bâtiment gouvernemental.
D’après vous, cette vidéo a été diffusée par un simple plaisantin ou un groupe bien organisé ? Dites-nous ce que vous en pensez !
La startup norvégienne 1X dévoile le Neo Gamma, nouvelle version de son prototype de robot humanoïde conçu pour le grand public ! Dans un avenir proche, ce robot pourra s’occuper de faire le ménage dans votre foyer et sera aux petits soins pour vous servir. Découvrez la vidéo de démonstration qui nous offre un aperçu de ce futur !
Si les aspirateurs et tondeuses robots ont conquis le cœur des Français, il ne s’agit que d’un début. La prochaine étape est celle des robots humanoïdes : des machi
La startup norvégienne 1X dévoile le Neo Gamma, nouvelle version de son prototype de robot humanoïde conçu pour le grand public ! Dans un avenir proche, ce robot pourra s’occuper de faire le ménage dans votre foyer et sera aux petits soins pour vous servir. Découvrez la vidéo de démonstration qui nous offre un aperçu de ce futur !
Si les aspirateurs et tondeuses robots ont conquis le cœur des Français, il ne s’agit que d’un début. La prochaine étape est celle des robots humanoïdes : des machines à forme humaine qui seront capables de vous servir et d’effectuer toutes les corvées dans votre foyer !
Toutefois, à plus long terme, la promesse est que le prix de ces robots diminue suffisamment pour que n’importe qui puisse en posséder un chez soi. Selon Elon Musk, à terme, il sera possible d’en acheter un pour environ 10 000 dollars.
Focalisé sur ce futur marché des humanoïdes grand public, la startup norvégienne 1X avait dévoilé son robot Neo Beta en août 2024. Nous avions pu découvrir une vidéo de présentation qui mettait en scène une femme aux côtés de son robot personnel.
À présent, le 21 février 2025, 1X vient de dévoiler la nouvelle évolution de sa machine bipède : le Neo Gamma.
Comme ses prédécesseurs, il s’agit d’un prototype conçu pour être testé au sein d’un environnement domestique. Cependant, la vidéo de présentation est tout simplement bluffante.
On peut le voir effectuer une large diversité de tâches ménagères : servir le café, accrocher un cadre, s’occuper du linge, laver les vitres, porter les courses, passer l’aspirateur…
Un robot en costume de tissu pour vous servir à la maison
Tout comme le Neo Beta, le Gamma présente un design amical et porte un costume cousu de nylon tricoté. L’objectif est à la fois d’offrir une présence chaleureuse dans le domicile, et de réduire le risque de blessures lors du contact avec les humains.
Contrairement aux autres robots humanoïdes comme ceux d’Agility, Figure, Apptronik, Boston Dynamics, Figure ou Tesla, 1X ne priorise pas les usines ou les entrepôts et se focalise au contraire sur un déploiement auprès du grand public.
Ainsi, outre son revêtement de tissu, le Gamma embarque un système IA lui permettant d’être conscient de son environnement afin d’éviter de blesser les gens ou d’abîmer la propriété.
En cas de danger, les humains pourront aussi prendre contrôle du robot à distance via la téléopération. Tous ces éléments visent à en faire un robot plus sûr.
Parallèlement à sa stratégie atypique, 1X a aussi attiré l’attention par le soutien que lui a apporté un géant de l’industrie de l’IA. Il s’agit tout simplement d’OpenAI, le créateur de ChatGPT.
Beaucoup considèrent que « l’intelligence incarnée » est la prochaine étape dans l’évolution de l’IA, et un robot comme 1X Neo pourrait bien servir de corps à ChatGPT.
La firme américaine avait aussi noué un partenariat avec Figure, mais ce dernier a récemment mis fin à cette alliance pour se focaliser sur le développement de sa propre IA Helix. De son côté, OpenAI compte également créer ses propres robots.
L’IA générative est l’une des clés pour l’évolution des robots humanoïdes, car elle peut permettre des interactions en langage naturel entre les humains et les robots. Tout comme Figure, 1X développe ses propres modèles IA pour améliorer à la fois le langage oral et corporel de ses humanoïdes.
En janvier 2025, 1X a d’ailleurs acquis la startup californienne Kind Humanoid dans le but d’améliorer son intelligence artificielle.
Selon 1X, ce robot va bientôt sortir du laboratoire et être testé au sein de véritables maisons. Cependant, la startup précise que le déploiement commercial est encore très loin.
Pour cause, afin de rencontrer le succès, un robot domestique doit être à la fois utile, fiable, abordable et sécurisé.
D’autant que les personnes âgées seront sans doute la principale cible commerciale, puisque plus susceptibles d’avoir besoin d’une assistance à domicile.
Or, pour le moment, la technologie n’est pas suffisamment avancée sur ces points. Il sera nécessaire que le robot devienne plus agile physiquement, mais aussi que son IA soit assez avancée pour qu’il comprenne réellement son environnement et les conséquences potentielles de ses actions…
On ignore pour le moment combien de Neo Gamma ont été et seront produits. Toutefois, cette vidéo de présentation nous offre un bel aperçu d’un futur où les robots seront nos majordomes et nous permettront de vivre un quotidien plus apaisé, débarrassé des corvées ménagères…
Et vous, qu’en pensez-vous ? Êtes-vous pressé d’avoir votre propre robot humanoïde ? Quelles sont les corvées et autres tâches du quotidien que vous rêvez de pouvoir confier à une machine ? Partagez votre avis en commentaire !
ChatGPT, l’outil d’OpenAI, est aujourd’hui utilisé par 400 millions de personnes chaque semaine. Impressionnant, non ? Cet assistant devient une présence familière, un compagnon de travail, un guide… Tout comme un smartphone, il s’intègre peu à peu dans nos habitudes.
Qui n’a pas encore entendu parler de ChatGPT, le chatbot d’OpenAI lancé en 2022 ? En à peine deux ans, en 2024, cette intelligence artificielle a atteint 200 millions d’abonnés. Aujourd’hui, en seulement quelques mois, le nombre
ChatGPT, l’outil d’OpenAI, est aujourd’hui utilisé par 400 millions de personnes chaque semaine. Impressionnant, non ? Cet assistant devient une présence familière, un compagnon de travail, un guide… Tout comme un smartphone, il s’intègre peu à peu dans nos habitudes.
Qui n’a pas encore entendu parler de ChatGPT, le chatbot d’OpenAI lancé en 2022 ? En à peine deux ans, en 2024, cette intelligence artificielle a atteint 200 millions d’abonnés. Aujourd’hui, en seulement quelques mois, le nombre d’utilisateurs actifs a doublé. Et selon la firme, ChatGPT compte désormais 400 millions d’utilisateurshebdomadaires.
Brad Lightcap, directeur d’OpenAI, n’a pas caché son enthousiasme : « Nous sommes très chanceux de servir 5 % de la population mondiale chaque semaine. »
Mais comment ChatGPT a-t-il pu atteindre les 400 millions d’utilisateurs ?
Dès ses débuts, le chatbot d’OpenAI a su capter l’attention des médias. Suite à cela, en février 2023, seulement deux mois après, ChatGPT comptait déjà 100 millions d’utilisateurs mensuels.
Et tout comme un assistant personnel, il aide à écrire des e-mails, rédiger des textes, générer des idées… Mieux encore, il explique des concepts compliqués en quelques secondes. Et à mon avis, ce succès s’explique par l’utilité de ce chatbot IA.
Par contre, le monde de l’intelligence artificielle est une arène où la compétition fait rage. Récemment, DeepSeek, un nouveau venu sur le marché, a semé le doute. Certains pensent même qu’il pourrait rivaliser avec ChatGPT. Mais OpenAI continue d’améliorer son outil pour rester en tête.
Pour continuer sur cette lancée, la firme prépare deux nouvelles versions :GPT-4.5 et GPT-5. Ces modèles promettent des réponses plus rapides, plus précises et surtout plus naturelles.
En plus, OpenAI veut simplifier l’expérience utilisateur. Plus besoin de choisir entre différents modèles, l’outil s’adaptera automatiquement.
JUST IN: ChatGPT hits 400M weekly active users
– “Natural progression” of ChatGPT, OpenAI COO Brad Lightcap said.
– 2M paying enterprise users, almost twice from Sep.
Aujourd’hui, difficile d’ignorer son impact : ChatGPT n’est plus un simple programme informatique. Il accompagne des millions de personnes, chaque jour, dans toutes sortes de tâches.
Un étudiant en pleine révision, un entrepreneur débordé, une mère cherchant des recettes etc… Tous y trouvent une aide précieuse !
De plus, OpenAI travaille sur un accès encore plus large à son intelligence artificielle. Et la bonne nouvelle : GPT-5 pourrait bientôt être accessible à tous gratuitement.
Avec 400 millions d’utilisateurs chaque semaine, selon vous, ChatGPT est-il un simple outil pratique ou une vraie révolution technologique ? Partagez votre avis juste en dessous !
La startup Figure dévoile Helix, une IA permettant aux robots de réagir aux consignes en langage naturel et de manipuler des objets qu’ils n’ont jamais vus auparavant. Une avancée majeure, qui va permettre aux robots de s’occuper des corvées ménagères dans votre logement !
En avril 2024, la startup californienne Figure s’était illustrée avec son robot 01 servant de corps à ChatGPT lors d’une démonstration. Toutefois, la firme a annoncé la fin de son partenariat avec OpenAI début février 2025.
La startup Figure dévoile Helix, une IA permettant aux robots de réagir aux consignes en langage naturel et de manipuler des objets qu’ils n’ont jamais vus auparavant. Une avancée majeure, qui va permettre aux robots de s’occuper des corvées ménagères dans votre logement !
En avril 2024, la startup californienne Figure s’était illustrée avec son robot 01 servant de corps à ChatGPT lors d’une démonstration. Toutefois, la firme a annoncé la fin de son partenariat avec OpenAI début février 2025.
Elle avait alors déclaré avoir « atteint une avancée majeure vers un robot IA entièrement développé en interne » et s’était dit « excitée de révéler quelque chose que personne n’a jamais vu dans l’industrie de l’humanoïde d’ici les 30 prochains jours ».
Le voile a enfin été levé, puisque ce mystérieux projet vient d’être révélé ce 20 février 2025. Il s’agit d’Helix, un modèle Vision-Langage-Action généraliste.
L’IA qui permet aux robots de saisir des objets inconnus
Ce modèle unifie la perception, la compréhension du langage, et le contrôle pour surmonter les défis de la robotique. Selon Brett Adcock, fondateur de Figure, il s’agit de la plus grande avancée IA de l’histoire de son entreprise.
Selon lui, « Helix pense comme un humain ». Il est capable de comprendre le discours, de raisonner à travers des problèmes, et de saisir n’importe quel objet sans avoir besoin d’entraînement ou de code.
Il va permettre « d’apporter les robots dans les foyers » grâce à sa capacité à « généraliser à virtuellement n’importe quel objet de la maison ». Lors des tests, il est parvenu à saisir tous les objets même sans les avoir vus auparavant.
Le CEO explique que l’entreprise « a travaillé sur ce projet pendant plus d’un an, dans le but d’atteindre la robotique générale ».
Comment Helix repousse les limites de la robotique ?
Meet Helix, our in-house AI that reasons like a human
Robotics won't get to the home without a step change in capabilities
Toujours selon Figure, Helix introduit une approche innovante de contrôle des manipulations du haut du corps incluant les poignets, le torse, la tête et les doigts individuels.
Il offre un contrôle continu à haut débit de l’ensemble du haut du corps humanoïde, et ce niveau de contrôle permet des mouvements et des interactions plus nuancés.
Un autre aspect important d’Helix est sa capacité à contrôler plusieurs robots simultanément pour les faire collaborer. Il peut contrôler deux robots à la fois, leur permettant de travailler ensemble sur des tâches de manipulation à long terme impliquant des objets qu’ils n’ont jamais vus.
Cette capacité élargit largement les possibilités offertes par la robotique au sein d’environnements complexes. Les robots équipés d’Helix comprennent aussi les prompts en langage naturel, ce qui facilite leurs interactions.
Par ailleurs, l’approche d’Helix se démarque par l’utilisation d’un ensemble unique de poids de réseau de neurones pour apprendre différents comportements. Il peut s’agir par exemple d’attraper et de placer un objet, d’utiliser un tiroir ou un frigo, ou d’interagir entre robots.
Ceci élimine le besoin d’un fine-tuning spécifique pour chaque tâche, et fluidifie fortement le processus d’apprentissage.
Notons enfin qu’Helix fonctionne sur des GPU intégrés à faible puissance, ce qui le rend adapté à un déploiement commercial et à une utilisation dans le monde réel…
Un VLM basé sur un système de pensée et un système d’action
Comme l’explique Figure, les systèmes robotiques actuels peinent à s’adapter rapidement à de nouvelles tâches. Ils nécessitent une programmation à partir de nombreuses démonstrations.
Pour surmonter cette limite, la startup a utilisé les capacités des modèles VLM (Vision Langage Model) pour permettre aux robots de généraliser leurs comportements sur demande et d’effectuer des tâches via les instructions en langage naturel.
Ainsi, Helix est conçu pour contrôler toute la partie supérieure du corps d’un humanoïde avec vitesse et dextérité. Il regroupe le Système 1 (S1) et le Système 2 (S2).
Figure posted our first write-up today discussing Helix!
The report describes in-depth how we designed Helix including system architecture and additional tests not capture in the release video
Le S2 est un VLM plus lent, pré-entraîné sur internet, qui se focalise sur la compréhension des scènes et du langage.
De son côté, S1 est une politique visuomotrice rapide qui convertit les informations provenant de S2 en actions en temps réel du robot. Cette division permet à chaque système d’opérer de façon optimale : S2 pour le traitement de pensée, et S1 pour l’exécution rapide.
Ainsi, « Helix résout plusieurs problèmes auxquels ont été confrontées les précédentes approches robotiques, notamment la vitesse d’équilibrage et la généralisation, la scalabilité pour gérer des actions à haute dimension, et la simplicité architecturale en utilisant des modèles standards ».
De plus, la séparation en S1 et S2 permet des améliorations indépendantes pour chaque système, sans dépendre d’une observation ou d’un espace d’action partagés.
Pour entraîner Helix, un jeu de données d’environ 500 heures de comportements téléopérés a été collecté, en utilisant un VLM d’étiquetage automatique pour générer des instructions en langage naturel.
L’architecture implique un VLM à 7 milliards de paramètres et un Transformer à 80 millions de paramètres pour le contrôle. Les inputs visuels sont traités pour permettre un contrôle réactif basé sur les dernières représentations générées par le VLM.
Contrairement aux précédents systèmes robotiques, Helix peut générer des manipulations collaboratives habiles à la volée sans avoir besoin de démonstrations ou de programmation manuelle spécifiques à une tâche.
Il peut donc manipuler des milliers d’objets de différentes tailles, couleurs et matières dans votre domicile à l’aide d’une simple demande en langage naturel…
Un cerveau commun pour les robots du futur ?
Même si Helix représente une grande avancée pour la robotique, Figure n’est pas le premier à créer une telle IA conçue pour servir de cerveau aux robots humanoïdes.
En avril 2024, lors de la conférence GTC, Nvidia a présenté GR00T : une IA multimodale pouvant être incorporée à n’importe quel robot humanoïde.
De même, la startup Skild AI a levé des fonds importants pour développer un cerveau IA à usage général pour les robots et leur permettre de combiner plusieurs aptitudes comme la perception, la manipulation et le raisonnement.
En parallèle, OpenAI et Meta envisagent de développeur leurs propres robots humanoïdes pour servir de corps à leurs IA respectives telles que ChatGPT et Llama. On peut s’attendre à ce que d’autres géants de l’IA comme Google en fassent de même…
À terme, les robots humanoïdes seront dotés d’une intelligence artificielle suffisamment développée pour leur permettre d’interagir de façon naturelle et de collaborer avec l’humain !
Et vous, qu’en pensez-vous ? Êtes-vous impressionné par Helix ? Pensez-vous que les robots humanoïdes pourront bientôt rivaliser avec l’humain en termes d’intelligence et d’action ? Donnez-nous votre avis en commentaire !
À peine quelques jours après le lancement officiel de Grok 3, Elon Musk a déjà en tête un projet visant à intégrer cette IA dans les jeux vidéo.
Elon Musk et son entreprise xAI viennent d’annoncer une initiative audacieuse : créer un studio de jeux vidéo basé sur l’IA Grok 3. L’objectif est clair : concevoir des jeux aux graphismes photoréalistes en utilisant la puissance de l’intelligence artificielle.
Elon Musk veut créer un studio de jeux basé sur l’IA Grok 3
Lors de la présent
Elon Musk et son entreprise xAI viennent d’annoncer une initiative audacieuse : créer un studio de jeux vidéo basé sur l’IA Grok 3. L’objectif est clair : concevoir des jeux aux graphismes photoréalistes en utilisant la puissance de l’intelligence artificielle.
Elon Musk veut créer un studio de jeux basé sur l’IA Grok 3
Lors de la présentation du tout nouveau Grok 3, Elon Musk a révélé son intention de fonder un studio de jeux IA chez xAI. Il a même envisagé de le nommerEpic Games avant de réaliser que ce nom était déjà pris. Pour le moment, l’équipe est composée de 9 membres, dont Musk lui-même.
Notons que les capacités de Grok 3 ont déjà été mises à l’épreuve. Les développeurs ont démontré que cette IA pouvait générer une version simplifiée de Tetris en utilisant Python.
En plus, un utilisateur a également testé Grok 3 pour coder une version du jeu Bubble Troubleen 2D. L’IA a réussi à intégrer des éléments physiques, des collisions et une interface utilisateur fonctionnelle. Cependant, elle ne parvient pas encore à reproduire des effets sonores rétro avec précision.
i re-created my favorite childhood game with @grok: bubble trouble
the game is filled with bouncing bubbles that behave with realistic physics—they bounce off walls and, when hit by the player's projectile, split into smaller bubbles. you win when they disappear.
Elon Musk ne veut pas simplement créer des jeux basiques. Il cherche à intégrer des graphismes photoréalistes dans les jeux générés par Grok 3. Lors de l’émission, il a affirmé que l’IA pourrait améliorer la résolution graphique des jeux en effectuant un simple appel à son modèle.
Cette technologie pourrait fonctionner comme le DLSS Super Resolution de Nvidia ou le FidelityFX Super Resolution d’AMD. En effet, ces derniers améliorent la qualité d’affichage en temps réel.
Cependant, il n’a pas précisé si cette amélioration serait uniquement appliquée aux jeux créés par Grok 3 ou si elle pourrait s’étendre à d’autres titres existants. Actuellement, Grok 3 excelle dans la création de jeux 2D simples.
Cette fois-ci, Musk veut aller encore plus loin…
Plutôt que de créer des outils pour les développeurs, Musk veut un studio à part entière, entièrement piloté par l’intelligence artificielle. De plus, il veut accélérer la recherche pour permettre à l’IA de dépasser ses limites actuelles.
Elon Musk's vision with xAI's Gaming Studio is set to revolutionize gaming. Can't wait to see what innovative games come out of this! 🎮📷 #xAI#Grok3#GROKpic.twitter.com/anqssDgh6e
Pour ceux qui ne connaissent pas encore, Grok 3 a été entraîné avec une puissance de calcul titanesque. Il utilise 100 000 GPU Nvidia H100, intégrés au Colossus Supercluster de Memphis. Cette infrastructure, en constante évolution, pourrait atteindre plus d’un million de GPU dans les années à venir.
Je vous rappelle aussi que l’idée d’utiliser une IA pour créer des jeux vidéo n’est pas nouvelle. De grandes entreprises, comme Capcom utilise déjà l’intelligence artificielle pour générer des ressources d’arrière-plan.
Grâce à GoogleCloud, le studio exploite des outils comme Gemini Pro, Gemini Flash, Imagen et Vertex AI pour enrichir ses créations. Musk, de son côté, a l’intention de pousser les choses plus loin.
Alors, que pensez-vous de l’idée d’Elon Musk de créer des jeux vidéo ultra-réalistes avec Grok 3 ? Ce projet vous enthousiasme-t-il ou vous laisse-t-il sceptique ? Dites-nous en commentaire ce que vous en pensez !
Clone Robotics vient de dévoiler Protoclone V1 : un robot humanoïde doté de muscles et d’un squelette synthétiques. La startup s’est fixé pour ambition de créer des androïdes impossibles à distinguer de véritables humains, et ce prototype représente une étape majeure vers cet objectif !
Si une IA égalait l’intelligence humaine, qu’est-ce qui nous distinguerait des robots humanoïdes ? Vous pensez probablement à notre enveloppe corporelle, faite de chair et d’os.
Toutefois, cette différence
Clone Robotics vient de dévoiler Protoclone V1 : un robot humanoïde doté de muscles et d’un squelette synthétiques. La startup s’est fixé pour ambition de créer des androïdes impossibles à distinguer de véritables humains, et ce prototype représente une étape majeure vers cet objectif !
Si une IA égalait l’intelligence humaine, qu’est-ce qui nous distinguerait des robots humanoïdes ? Vous pensez probablement à notre enveloppe corporelle, faite de chair et d’os.
Toutefois, cette différence physique entre l’Homme et la machine pourrait elle aussi disparaître très rapidement…
Après avoir choqué l’industrie de la robotique avec sa main et son torse plus vrais que nature, la startup Clone Robotics vient de dévoiler sa dernière innovation : le Protoclone V1.
Plus qu’un robot, un humain synthétique
Il ne s’agit pas d’un simple robot humanoïde, comme le Tesla Optimus, mais d’un véritable humain synthétique. Cette fois, la startup a reproduit un corps tout entier avec 200 degrés de liberté, 1000 myofibrilles, et 500 capteurs.
Actuellement propulsé par la pneumatique, il passera bientôt à un système hydraulique. Son système synthétique imite la structure squelettique, musculaire, vasculaire et nerveuse du corps humain.
Contrairement à beaucoup de fabricants d’humanoïdes préservant une apparence robotique, Clone Robotics vise l’hyper-réalisme. Elle cherche à imiter toutes les caractéristiques physiques et comportementales de l’humain…
Le tout premier androïde musculosquelettique… ou presque
D’après Clone Robotics, il s’agit du tout premier androïde bipède musculosquelettique. Toutefois, en 2017, l’Université de Tokyo avait déjà créé le robot Kengoro.
Il s’agit néanmoins d’un projet de recherche, tandis que Clone Robotics a pour ambition de commercialiser son produit. Son objectif est de créer des androïdes pour effectuer des tâches du quotidien.
À long terme, ses robots devraient travailler de façon indépendante au sein d’environnements complexes. Ils pourront donc remplacer les travailleurs humains dans les métiers à haut risque.
Le point zéro de l’ère des androïdes
Selon Dhanush Radhakrishna, co-fondateur de la startup américano-polonaise, le Protoclone et son anatomie fidèle à l’humain incarnent le « point zéro de l’ère des androïdes ».
Il est le fruit d’un long cheminement, qui a commencé en 2021 lorsque Radhakrishna s’est associé avec l’ingénieur polonais Lukasz Kozlik pour créer l’entreprise. Depuis lors, ils poursuivent le but de reproduire l’anatomie humaine.
Ce nouveau robot a été dévoilé à travers une courte vidéo de 40 secondes sur le réseau social X. On peut voir l’androïde suspendu dans un atelier, effectuant des mouvements dynamiques pendant que son visage est caché derrière un masque noir.
Les réactions des internautes vont de l’admiration au malaise. Selon Dar Sleeper de l’entreprise norvégienne 1X Technologies, soutenue par OpenAI, le Protoclone est à la fois « plus cool et plus effrayant » que prévu.
La firme s’apprête à produire 279 unités de ses androïdes Alpha en 2025, et les compare à des voitures de luxe en édition limitée. Ainsi, le prix n’est pas dévoilé publiquement pour le moment.
À l’avenir, Clone Robotics compte continuer à essayer de créer des robots impossibles à distinguer des humains jusqu’aux couches anatomiques les plus profondes…
Que pensez-vous de ce robot ? Êtes-vous impressionné par sa ressemblance avec un véritable humain ? Partagez votre avis en commentaire !
Lorsque nous écrivons un message, nous ne mesurons pas toujours son impact. Parfois, un simple mot mal choisi peut donner une impression froide ou agressive. Intel a introduit une IA appelée Polite Guard. Ce modèle analyse le niveau de courtoisie des écrits.
Les mots que nous utilisons influencent la perception des autres. Mais j’avoue, juger objectivement la politesse d’un texte est vraiment complexe. C’est dans ce contexte qu’Intel propose une solution innovante avec son IA open source, Pol
Lorsque nous écrivons un message, nous ne mesurons pas toujours son impact. Parfois, un simple mot mal choisi peut donner une impression froide ou agressive.Intel a introduit une IA appelée Polite Guard. Ce modèle analyse le niveau de courtoisie des écrits.
Les mots que nous utilisons influencent la perception des autres. Mais j’avoue, juger objectivement la politesse d’un texte est vraiment complexe. C’est dans ce contexte qu’Intel propose une solution innovante avec son IA open source, Polite Guard, une intelligence artificielle capable d’analyser et de noter la politesse de vos écrits.
Oui, Intel propose une IA qui évalue la politesse dans vos messages
Basée sur BERT, une technologie avancée de traitement du langage naturel, l’IA d’Intel évalue chaque message. Elle le classe ensuite dans l’une des quatre catégories suivantes : poli, plutôt poli, neutre ou impoli. En d’autres termes, elle pose un regard objectif sur nos écrits et nous aide à les améliorer.
Polite Guard intervient avant qu’un texte soit envoyé et aide à ajuster le ton. Grâce à cet outil, les entreprises peuvent garantir des réponses plus respectueuses et renforcer la confiance de leurs clients.
Cette innovation est surtout utile pour les échanges automatisés. Par exemple, les chatbots doivent répondre de manière fluide et naturelle.
Une IA capable d’ajuster le ton des réponses représente une grande avancée. Car oui, les assistants virtuels ont souvent du mal à comprendre les subtilités du langage humain.
En plus de son rôle dans la communication, Polite Guard protège les systèmes contre les contenus agressifs ou inappropriés. Il offre un mécanisme de défense contre les attaques adverses. Pour cela, il filtre les réponses et veille à ce que la sortie de texte soit toujours adaptée.
C’est une technologie libre et ouverte à tous
Polite Guard est en open source ! En effet, son code est disponible sur GitHubet Hugging Face. Il permet aux développeurs de l’adapter à leurs propres besoins.
Mais plus important encore, cette approche encourage une amélioration constante. Chaque utilisateur peut contribuer, affiner les algorithmes et proposer des mises à jour. Une avancée qui profite à tous, car l’objectif final est clair : instaurer une communication plus respectueuse sur le web.
Pour terminer, notons que Polite Guard ne se limite pas aux professionnels. Il peut être utilisé par tout le monde, pour s’assurer que ses messages restent bienveillants.
Que pensez-vous de Polite Guard ? Trouvez-vous utile qu’une IA analyse et corrige la politesse de nos textes ? Partagez votre avis en commentaire.
Grâce à l’IA, il sera bientôt possible d’identifier les émotions des animaux afin de mieux les comprendre ! Découvrez les projets fous de différentes équipes de scientifiques du monde entier…
Le comportement des animaux est très souvent mystérieux pour les humains. Si vous avez un chat par exemple, vous vous êtes sûrement déjà demandé pourquoi il se mettait soudainement à courir comme un fou autour du salon…
Toutefois, grâce à l’intelligence artificielle, nous serons bientôt capables de mi
Grâce à l’IA, il sera bientôt possible d’identifier les émotions des animaux afin de mieux les comprendre ! Découvrez les projets fous de différentes équipes de scientifiques du monde entier…
Le comportement des animaux est très souvent mystérieux pour les humains. Si vous avez un chat par exemple, vous vous êtes sûrement déjà demandé pourquoi il se mettait soudainement à courir comme un fou autour du salon…
Toutefois, grâce à l’intelligence artificielle, nous serons bientôt capables de mieux comprendre l’attitude de nos compagnons à quatre pattes ou de nos animaux d’élevage !
Selon un vaste dossier publié par le journal Science, plusieurs équipes de scientifiques dans le monde entier travaillent actuellement pour développer des systèmes permettant de reconnaître les émotions des animaux.
Le but ? Aider à mieux diagnostiquer les maladies et améliorer les conditions de vie des animaux !
Depuis bien longtemps, on sait que les visages des animaux reflètent leurs émotions au même titre que les nôtres.
Dans le livre « L’expression des émotions chez l’homme et les animaux », publié en 1872, Charles Darwin suggérait déjà que les expressions faciales sont une sorte de « langage partagé » parmi les mammifères.
Cependant, l’intelligence artificielle pourrait devenir beaucoup plus douée que nous pour interpréter les émotions comme le bonheur, la sérénité, la frustration ou la peur…
Alors qu’un codeur humain a besoin d’une moyenne de 100 secondes pour identifier les différents muscles faciaux et coder leur position dans une image, l’IA peut effectuer cette tâche instantanément !
Intellipig, l’IA qui détecte le stress ou la douleur des cochons
University of the West of England Bristol (UWE) and Scotland's Rural College (SRUC) have created Intellipig, AI to decode the emotions of pigs and other animals from facial recognition technology. pic.twitter.com/8LZcg7sAJN
Ainsi, les scientifiques de l’Université de Bristol et du Scottish Agricultural College ont créé le système Intellipig, capable d’analyser les images de visages de cochons.
Il permettra d’avertir les fermiers en cas de signes de douleur, de maladie ou de stress. Ils pourront ainsi s’occuper de leurs bêtes avant que la situation s’aggrave.
Cet outil est en cours de test dans les fermes intelligentes du Royaume-Uni. Il reconnaît chaque cochon avec un taux de réussite de 97% et repère des signes de stress simplement en analysant la morphologie faciale.
Israël : une IA qui identifie les émotions des animaux de compagnie
Du côté d’Israël, une équipe de l’Université d’Haifa travaille sur un système permettant de reconnaître les émotions sur les visages des animaux ayant des mouvements faciaux similaires aux humains.
Selon l’étude, nous partageons en effet 38% d’expressions faciales avec les chiens, 34% avec les chats, et 47% avec les singes et les chevaux ! D’ailleurs, vous avez peut-être remarqué que votre chien ou votre chat vous dévisage souvent pour savoir votre humeur.
La psychologue évolutionniste Brittany Florkiewicz a passé de nombreuses heures à visionner des vidéos de chats jouant ou se chamaillant dans un café spécialisé de Los Angeles. Au total, elle a découvert que les chats possèdent plus de 276 expressions faciales distinctes !
À partir de ces données, les chercheurs prévoient de créer une application IA permettant aux propriétaires de chats de scanner les visages de leurs félins pendant 30 secondes pour obtenir des conclusions claires.
Par exemple, l’appli vous indiquera si une tension significative est détectée au niveau de la bouche. Ceci peut indiquer un niveau de douleur.
Des points de repère ont été définis sur des milliers de photos, afin de permettre à l’IA de repérer automatiquement la forme des yeux, de la bouche et des autres zones du visage.
Grâce à ces points, elle calcule ensuite les distances et identifie les expressions faciales associées à la douleur ou au stress en les comparant avec des échelles de grimace déjà établies.
À terme, les chercheurs voudraient créer un « scanner » capable d’identifier des états comme la joie, la tristesse ou le stress. Il pourrait aussi repérer les intentions des animaux : vouloir sortir, jouer, se battre…
Auparavant, la même équipe avait créé un système de reconnaissance faciale pour animaux. Celui-ci permet aux personnes ayant perdu leurs compagnons de comparer leurs photos avec celles d’images d’animaux recueillis dans les refuges.
Artificial intelligence is becoming better than humans at scanning animals’ faces for signs of stress and pain. Are more complex emotions next?
Pays-Bas : l’IA pour pousser les cavaliers à mieux traiter leurs chevaux
Aux Pays-Bas, les chercheurs ont développé une application similaire pour les chevaux. Elle permet de scanner leurs visages et leurs corps, afin de mesurer leurs niveaux de douleur.
Les scientifiques estiment que l’IA pourrait éventuellement être utilisée dans les compétitions d’équitation, afin de récompenser les cavaliers dont les chevaux sont heureux. Une manière d’améliorer le bien-être animal dans cette discipline.
Grâce à ces avancées scientifiques aux quatre coins du monde, l’IA nous permet de mieux comprendre les animaux et pourrait même nous permettre de traduire leur langage afin de pouvoir communiquer de façon claire avec eux…
Et vous, qu’en pensez-vous ? Aimeriez-vous utiliser une IA qui vous permettra de comprendre les émotions de vos animaux ? Partagez votre avis en commentaire !
Ces derniers temps, on parle souvent des modèles d’intelligence artificielle de raisonnement. Grok 3, le dernier modèle d’IA de xAI, est annoncé comme étant plus rapide, plus puissant. Selon Elon Musk, il est le plus intelligent à ce jour.
C’est officiel : xAI, l’entreprise d’Elon Musk a dévoilé Grok 3, un modèle d’intelligence artificielle (IA) qui prétend dépasser ses prédécesseurs.
Tout comme d’autres IA, il génère des textes, répond aux questions et traite des informations. En revanche
Ces derniers temps, on parle souvent des modèles d’intelligence artificielle de raisonnement. Grok 3, le dernier modèle d’IA de xAI, est annoncé comme étant plus rapide, plus puissant. Selon Elon Musk, il est le plus intelligent à ce jour.
Tout comme d’autres IA, il génère des textes, répond aux questions et traite des informations. En revanche, il se distingue par une ambition inédite : imiter le raisonnement humain avec plus de justesse.
Un modèle conçu pour mieux comprendre et analyser
Pour garantir cette performance, xAI a mis en place un gigantesque centre de données à Memphis. Pas moins de 200 000 GPU y sont dédiés à l’entraînement de cette IA. Et selon Musk, la puissance de calcul utilisée pour Grok 3 est 10 fois supérieure à celle de Grok 2.
Il ne s’agit plus seulement d’un outil conversationnel. C’est un programme qui cherche à comprendre et à structurer sa pensée comme un véritable esprit logique.
Tout comme ses prédécesseurs, Grok 3 n’est pas accessible à tous. Pour en profiter, il faut souscrire à l’abonnement Premium Plus de la plateforme X, qui coûte 40 dollars par mois. En parallèle, xAI prévoit de lancer une offre nommée SuperGrok, facturée 30 dollars mensuels.
Contrairement aux générations précédentes, Grok 3 propose un mode de réflexion plus élaboré. Et si une IA pouvait non seulement répondre, mais aussi expliquer pourquoi ? C’est précisément l’objectif de Grok 3 Reasoning, une version avancée qui va bien au-delà des simples générateurs de texte.
🔴 Grok 3 a été officiellement présenté et lancé le 17 février 2025, avec une démonstration en direct.
En parallèle, une fonction inédite baptisée Big Brain permet d’approfondir encore davantage les analyses. Elle mobilise plus de ressources pour traiter des requêtes complexes. Cela concerne notamment les domaines des mathématiques, de la programmation et des sciences expérimentales.
Bientôt, une autre nouveauté arrive : un mode vocal. D’ici peu, les utilisateurs pourront interagir avec Grok 3 à l’oral. Ils bénéficieront ainsi d’une conversation plus fluide et immersive.
Grok 3 face à ses concurrents : cette IA est-elle vraiment la meilleure ?
Les intelligences artificielles capables de raisonner se multiplient : OpenAI avec GPT-4o, DeepSeek avec R1.
Mais selon xAI, Grok 3 Reasoning dépasserait o3-mini d’OpenAI sur plusieurs tests de performance.
Grok-3 is the first model *ever* to score over 1400 on Chatbot Arena and outperforms the best publicly available reasoning models from OpenAI and Google.
xAI was founded 13 years after Deepmind and 8 years after OpenAI and is now ahead of both. The “SR-71 Blackbird” of AI labs. pic.twitter.com/ExcdENPu4U
Par exemple : les évaluations AIME et GPQA. Ces tests mesurent les capacités des modèles à répondre à des questions complexes en mathématiques et en sciences avancées.
Grok 3 y aurait surpassé ses rivaux. Il offre des performances impressionnantes.
Technologie, vérité, et politique
Alors que Grok 3 se veut plus performant et plus intelligent, son lancement ravive un autre débat : celui de la neutralité de l’IA.
Bien sûr, xAI promet une IA qui recherche la vérité au maximum. Mais en réalité, c’est plus compliqué.
Comme la plupart des IA, Grok a été entraîné avec d’énormes quantités de données publiques. Selon plusieurs études, les premières versions du modèle montraient une tendance progressiste sur des sujets sensibles.
Parmi ces sujets, on trouvait les droits LGBTQ+, les inégalités sociales et la diversité. Un comble pour une IA que Musk avait initialement présentée comme anti-woke…
Face à cette réalité, Musk s’engage désormaisà rapprocher Grok 3 d’une neutralité politique. Il souhaite que l’IA se concentre sur une recherche objective de la vérité, sans biais idéologique marqué. Mais jusqu’ici, cet équilibre reste difficile à atteindre.
À mon avis, je ne crois pas qu’une intelligence artificielle puisse vraiment raisonner comme un humain. Pour moi, il s’agit simplement d’une technologie de pointe.
Et d’après vous, Grok 3 peut-il vraiment penser comme un humain ou reste-t-il juste un programme avancé ?
Paris a vibré au rythme du Sommet IA, avec des annonces de financement et de collaborations internationales. Ces initiatives visent à renforcer une technologie qui redéfinit le monde depuis deux ans. Voici ce qu’il faut absolument savoir.
Le Sommet pour l’action sur l’IA s’est tenu à Paris, à Station F, du 6 au 11 février 2025. L’événement a pour but de renforcer la position de la France et de l’Union européenne face aux géants de l’intelligence artificielle, qu’ils soient chinois ou américai
Paris a vibré au rythme du Sommet IA, avec des annonces de financement et de collaborations internationales. Ces initiatives visent à renforcer une technologie qui redéfinit le monde depuis deux ans. Voici ce qu’il faut absolument savoir.
Le Sommet pour l’action sur l’IA s’est tenu à Paris, à Station F, du 6 au 11 février 2025. L’événement a pour but de renforcer la position de la France et de l’Union européenne face aux géants de l’intelligence artificielle, qu’ils soient chinois ou américains.
Retour sur les moments les plus marquants.
Le sommet de l’IA à Paris a attiré de nombreux financements
Emmanuel Macron a annoncé un engagement privé de 109 milliards d’euros. Une somme vertigineuse qui servira principalement à construire des centres de données ultra-performants.
🔴 Ouverture du sommet sur l'IA : Emmanuel Macron a annoncé 109 milliards d'euros d'investissements "dans les prochaines années" en France et appelle à une "régulation mondiale". #Telematinpic.twitter.com/uy62lveqWr
Et parmi les projets les plus ambitieux, on peut mentionner le fonds MGX des Émirats arabes unis. Il investira 50 milliards d’euros pour créer un data center d’un gigawatt, intégré au plus grand campus IA d’Europe.
Quant au fonds canadien Brookfield, il débloquera 20 milliards d’euros, dont 15 milliards pour un centre à Cambrai.
Ensuite, plusieurs entreprises ont annoncé leur participation. Digital Reality financera des infrastructures à Marseille et en Île-de-France, pour un montant supérieur à 5 milliards d’euros.
Mais ce n’est pas tout ! L’entreprise britannique Fluidstack, en partenariat avec le gouvernement français, investira 10 milliards d’euros pour développer le plus grand supercalculateur IA au monde.
Enfin, le gouvernement français avait déjà identifié 35 sites stratégiques, prêts à accueillir ces nouvelles infrastructures.
Une riposte européenne face aux géants de la tech
Outre les initiatives françaises, l’Union européenne ne veut pas rester spectatrice. Pour cela, elle lance l’EU AI Champions Initiative, une alliance public-privé mobilisant 200 milliards d’euros ! Cette coalition réunit plus de 60 entreprises majeures, dont Airbus, L’Oréal, Mercedes et Spotify…
The AI race is just beginning.
Building on the European AI Champions initiative, I’m glad to announce InvestAI 🇪🇺
En parallèle, Bpifrance, la banque publique d’investissement, injectera 10 milliards d’euros d’ici 2029 pour favoriser l’adoption de l’IA en entreprise.
Et selon les derniers accords, Amazon investira 6 milliards d’euros dans son infrastructure cloud en France. Quant au fonds américain Apollo, il consacrera 5 milliards d’euros aux projets énergétiques liés à l’IA.
De plus, un nouveau fonds d’investissement, baptisé Current AI, a été lancé ! Doté d’un capital initial de 400 millions de dollars, il vise à lever 2,5 milliards en 5 ans. Parrainé par 11 grandes figures de la tech, il servira à financer une IA d’intérêt général.
Mais tous ne sont pas sur la même longueur d’onde…
Malheureusement, l’IA ne séduit pas tout le monde. Alors que les investissements explosent, des voix s’élèvent contre son développement incontrôlé.
Lors du sommet, 58 pays, dont la Chine, la France et l’Inde, ainsi que l’Union européenne et la Commission de l’Union africaine, ont signé une déclaration en faveur d’une IA ouverte, inclusive et éthique. En revanche, les États-Unis et le Royaume-Uni ont refusé de la signer.
Certaines organisations, comme La Quadrature du Net, dénoncent une expansion trop rapide et réclament une limitation drastique de l’IA. Elles estiment que son déploiement s’accélère sans contrôle.
Ainsi, en parallèle du sommet, un contre-sommet a eu lieu à Paris. Des chercheurs et des experts, comme le philosophe Éric Sadin, ont exprimé leurs préoccupations sur les effets de l’IA sur l’éducation, le travail et la culture.
Pour finir, il convient de noter le « Plug, baby, plug » ce qui veut dire « Branche-toi, bébé, branche-toi » d’Emmanuel Macron. C’est une référence directe au slogan « drill baby drill » de Donald Trump.
Des milliards investis ? Selon vous, est-ce suffisant pour s’imposer comme un leader mondial ? Partagez vos avis en commentaire !
L’innovation technologique avance à un rythme effréné et avec elle, de nouveaux outils voient le jour pour faciliter la vie des utilisateurs. Métamorphosant le quotidien des développeurs, Cursor apparaît comme une véritable aubaine dans le monde du développement logiciel. Cet éditeur de code utilise en effet l’intelligence artificielle pour rendre les codes accessibles au plus grand nombre. Je vous invite à voir de près cette innovation pour comprendre comment elle démocratise la programmation.
L’innovation technologique avance à un rythme effréné et avec elle, de nouveaux outils voient le jour pour faciliter la vie des utilisateurs. Métamorphosant le quotidien des développeurs, Cursor apparaît comme une véritable aubaine dans le monde du développement logiciel. Cet éditeur de code utilise en effet l’intelligence artificielle pour rendre les codes accessibles au plus grand nombre. Je vous invite à voir de près cette innovation pour comprendre comment elle démocratise la programmation.
Qu’est-ce que Cursor ?
Cursor est un environnement de développement intégré (IDE) novateur. Développé par Anysphere Inc et officiellement lancé à l’été 2024, il combine les fonctionnalités traditionnelles d’un éditeur de code avec les capacités avancées de l’intelligence artificielle. L’objectif principal de Cursor est de simplifier le processus de codage. La plateforme automatise certaines tâches répétitives et assiste les développeurs dans leurs diverses activités.
Grâce à l’utilisation de modèles de langage avancés, Cursor peut générer, compléter et corriger du code en temps réel. En 2024, Cursor a reçu un financement de série A de 60 millions de dollars, ce qui porte la capitalisation de l’entreprise à 400 millions de dollars. Depuis 2022, ces fonds servent surtout à développer un assistant personnel toujours prêt à vous aider, quel que soit le défi de programmation auquel vous faites face.
Concrètement, cette plateforme IDE repose sur des modèles tels que GPT-4o et Claude 3.5 Sonnet. Contrairement à des outils comme GitHub Copilot, Cursor automatise presque intégralement tout le processus de développement. Grâce à cette automatisation poussée, une simple idée peut se transformer en code fonctionnel en quelques minutes.
Cet outil qui rappelle beaucoup Microsoft Visual Studio Code promet de révolutionner le développement logiciel. Il permet de créer des applications plus facilement que jamais auparavant. Son interface ressemble à une fenêtre de chat, similaire à celle de ChatGPT. Il suffit de décrire l’application que l’on souhaite créer dans un simple prompt pour qu’elle soit générée automatiquement.
Un grand nombre de fonctionnalités à découvrir
L’un des points forts de Cursor repose sur sa capacité à comprendre le contexte de votre projet, ce qui lui permet de proposer des lignes de code pertinentes. Cette complétion automatique intelligente aide à gagner du temps, mais aussi à éviter les erreurs courantes. Si vous travaillez sur une application web, Cursor peut suggérer automatiquement des fonctions JavaScript ou des structures HTML adaptées à votre projet.
En outre, Cursor identifie les erreurs potentielles au fur et à mesure de la saisie et fournit des corrections appropriées. Plus besoin d’attendre l’exécution du code pour découvrir qu’une virgule manquait ou qu’une variable était mal déclarée. Ainsi, si vous oubliez une parenthèse dans une fonction Python, Cursor le signalera immédiatement et suggérera de la corriger.
Cet éditeur a aussi la capacité à générer du code à partir de descriptions. En décrivant une fonctionnalité ou une tâche, Cursor produit le code nécessaire. Si vous avez besoin d’une fonction pour trier une liste d’objets en Java, il suffit de le décrire dans la boite de dialogue. L’outil IA fournira le code correspondant. D’ailleurs, Cursor supporte de nombreux langages de programmation tels que Python, Java, C++, JavaScript, et bien d’autres.
Cursor est comme un Google Docs pour les programmeurs – Michael Truell, CEO de Anysphere Inc
Sa grande polyvalence profite aux développeurs qui peuvent travailler sur divers projets sans changer d’outil. De plus, Cursor s’intègre facilement avec des plateformes comme GitHub, GitLab et Bitbucket, ce qui simplifie la gestion du code source et la collaboration avec d’autres développeurs. Vous pouvez, par exemple, synchroniser vos dépôts Git directement depuis Cursor et suivre les modifications en temps réel.
Enfin, Cursor peut générer des commentaires et de la documentation pour votre code. Les annotations rendent votre travail plus clair et plus facile à comprendre pour d’autres développeurs. Il peut ajouter des docstrings en Python ou des commentaires Javadoc en Java automatiquement.
Créer une application en seulement 30 minutes, c’est possible
Cursor AI a déjà permis de donner vie à divers projets parfois impressionnants. Le Norvégien Dothash, créateur de l’application Hemmelig y a développé une micro SAAS surnommée « Photoshop du pauvre » en seulement 30 minutes. L’appli ainsi développée permet d’ajouter des filtres, de rogner une image ou de la télécharger directement depuis un navigateur web.
De son côté, Damiano Redemagni, fondateur de Whisperer, a créé des plugins pour l’application web collaborative Figma en quelques minutes également. Puis, il y a aussi Riley Brown, qui n’avait jamais rien codé de sa vie. Pourtant, il a utilisé Cursor avec Replit et Voice pour apporter des changements sur les lignes de code de sa plateforme, tout en filmant d’une main.
Cette aubaine profite à tous les profils d’utilisateur. Ricky Robinett, vice-président de Cloudflare est fier de rapporter sur X (ex-Twitter) que sa fille de huit ans a réussi à créer un chatbot en seulement 45 minutes grâce à Cursor. De l’autre côté de la planète, Meng To, fondateur de Design+Code à Singapour, a développé un logiciel de montage vidéo fonctionnel en trois semaines. Pour cela, il s’appuie sur les fonctionnalités de Cursor, Tailwind, React et Firebase.
Enfin, Chief Priest, designer de produit, a créé une extension Google Chrome en environ 8 à 10 heures en utilisant Cursor, Claude et V0. Tous ces exemples montrent l’immense potentiel de Cursor AI et préfigurent une révolution future dans le domaine du développement logiciel.
Les étapes pour bien débuter avec Cursor
Créer une application avec Cursor est un processus simple et intuitif, même pour les novices en programmation. Tout commence par le téléchargement du logiciel sur le site officiel https://www.cursor.com/. Une fois Cursor installé, son interface s’ouvre sous la forme d’une fenêtre de discussion, ce qui rappelle celle des plateformes de messagerie instantanée.
Pour démarrer un projet, il suffit de décrire l’application souhaitée dans la zone de chat. Si vous envisagez de créer une application pour suivre vos habitudes, vous pouvez demander à Cursor de créer un tracker d’habitudes en Python avec une interface utilisateur graphique et des éléments de ludification pour rendre l’expérience plus amusante. Précisez également le design convoité, en demandant une interface propre et moderne.
Cursor analyse votre description et génère le code correspondant dans la fenêtre de discussion. Vous pouvez alors cliquer sur « Appliquer » et « Accepter » pour ajouter le code généré à un nouveau fichier Python. Il inclut tous les imports nécessaires. Cette fonctionnalité permet d’accélérer le processus de développement en éliminant les tâches répétitives et en minimisant les erreurs potentielles. Si vous avez spécifié l’utilisation de bibliothèques spécifiques comme Tkinter pour l’interface graphique, Cursor les inclura automatiquement dans les imports.
De plus, Cursor fournit des instructions détaillées pour ajouter les modules requis sur votre PC, ce qui garantit ainsi le bon fonctionnement de l’application. Cette assistance proactive simplifie grandement la tâche des développeurs, qu’ils soient débutants ou expérimentés. En cas de problème ou de question, vous pouvez également consulter les tutoriels. La documentation disponible sur le site officiel peut vous aider. Autrement, pensez à rejoindre la communauté d’utilisateurs pour obtenir de l’aide et partager des conseils.
Cursor propose 3 niveaux de tarifs, dont le mode gratuit
Qu’en est-il des tarifs Cursor ?
Cursor propose trois formules tarifaires adaptées aux besoins des développeurs : Hobby, Pro et Business.
Hobby
Cette formule gratuite inclut un essai de deux semaines de la version Pro, 2 000 complétions et 50 requêtes premium lentes par mois.
Pro
Au tarif de 20 $ par mois, la formule Pro offre toutes les fonctionnalités de la formule Hobby. En supplément, des complétions illimitées et 500 requêtes rapides sur GPT-4o et Claude 3.5 Sonnet.
Business
Proposée à 40 $ par utilisateur et par mois, cette formule comprend toutes les fonctionnalités de la version Pro. Ajoutées à cela, des options supplémentaires telles que l’application du mode confidentialité à l’échelle de l’organisation, une facturation centralisée pour l’équipe. La formule Business inclut aussi un tableau de bord administrateur avec des statistiques d’utilisation et une authentification unique SAML/OIDC.
Les modèles premium incluent GPT-4, GPT-4o et Claude 3.5 Sonnet. Les utilisateurs Pro bénéficient de 500 utilisations rapides et d’un nombre illimité d’utilisations lentes de ces modèles chaque mois. Les requêtes vers Claude 3.5 Haiku comptent pour un tiers d’une requête premium.
Cursor souligne que les grands modèles de langage entraînent des coûts opérationnels significatifs. Pour assurer une croissance durable sans compromettre la qualité du service, une tarification appropriée est nécessaire. Quel que soit le plan choisi, les utilisateurs conservent la propriété totale du code généré et peuvent l’utiliser librement, y compris à des fins commerciales.
Cursor : quand l’IA fait fuir les utilisateurs
Le 22 avril 2025, la startup Cursor, spécialisée dans les éditeurs de code boostés par l’intelligence artificielle, a connu un véritable bad buzz. Un message généré par son assistant IA a indiqué, à tort, que l’utilisation de l’IDE (environnement de développement intégré) serait désormais limitée à une seule machine par compte.
Cette annonce, bien que fausse, a provoqué une panique immédiate chez de nombreux utilisateurs, notamment parmi les clients premium. Plusieurs entreprises – dont des poids lourds comme Shopify ou Midjourney – se sont inquiétées de ne plus pouvoir utiliser l’outil de manière flexible. Résultat : désabonnements, critiques virulentes sur les réseaux sociaux et migration vers des services concurrents comme Augment Code.
Or, cette restriction n’a jamais été mise en place. Il s’agissait simplement d’une erreur de l’IA, non corrigée à temps par une supervision humaine. L’équipe de Cursor a dû intervenir en urgence pour désamorcer la crise, en confirmant que le logiciel peut toujours être utilisé sur plusieurs machines.
Cet épisode révèle les limites de l’automatisation dans le support client, surtout lorsqu’elle repose uniquement sur l’intelligence artificielle. Il met également en lumière un sentiment de frustration déjà présent chez les utilisateurs, en lien avec des bugs récurrents, un manque de nouveautés, et une politique tarifaire jugée trop agressive.
Avis personnel sur cette plateforme
Un outil IA qui a tout pour convaincre
En comparaison avec d’autres outils similaires, Cursor se démarque par son interface utilisateur intuitive et conviviale. Là où des solutions comme GitHub Copilot se concentrent principalement sur la complétion de code, Cursor va au-delà en proposant une interface de chat interactive qui permet aux développeurs de décrire leurs besoins en langage naturel et de recevoir du code généré automatiquement. Cette fonctionnalité exceptionnelle aide à réduire considérablement le temps nécessaire à la création d’applications complexes.
De plus, Cursor intègre des fonctions de complétion automatique et de correction de code en temps réel, ce qui n’est pas toujours proposé par des outils concurrents. Cela aide à réduire les erreurs courantes et à améliorer l’efficacité du développement. Contrairement à d’autres outils qui se limitent à un seul langage de programmation, Cursor supporte une grande variété de langages, y compris Python, JavaScript et C++ pour une polyvalence accrue. L’intégration avec des plateformes populaires de gestion de code source comme GitHub, GitLab et Bitbucket renforce également cette flexibilité.
Quelques limitations et améliorations relevées
Malgré ses nombreux atouts, Cursor présente certaines limitations techniques qui peuvent poser des défis aux développeurs. La dépendance à une connexion Internet très haut débit est l’un des principaux inconvénients. En outre, la qualité du code généré peut varier en fonction de la complexité du projet et des spécificités du langage utilisé.
Bien que Cursor excelle dans les tâches courantes, il peut montrer des limites lorsqu’il s’agit de projets nécessitant des optimisations avancées ou une logique métier complexe. Les développeurs expérimentés peuvent trouver que l’outil manque de flexibilité et de contrôle granulaire sur le code généré par l’IA. Ces lacunes exigent des ajustements manuels importants pour répondre aux besoins spécifiques du projet.
Un autre point à considérer est la courbe d’apprentissage associée à l’utilisation de Cursor. Bien que l’interface soit intuitive, il faut du temps pour maîtriser pleinement toutes les fonctionnalités et les intégrations possibles. De plus, l’outil est susceptible de produire des erreurs. Il nécessite une vérification humaine minutieuse pour garantir la qualité et la sécurité du code. Les nombreuses limitations soulignent l’importance d’utiliser Cursor comme un complément aux compétences de développement traditionnelles plutôt que comme une solution autonome.
Quel verdict pour Cursor ?
Mon avis sur Cursor est globalement positif. Il s’agit d’un allié considérable pour la productivité des développeurs. Cela dit, je pense que cette plateforme est complémentaire à d’autres outils de programmation et à de véritables compétences de développement. Qu’en pensez-vous ? Avez-vous utilisé Cursor ou envisagez-vous de l’essayer ? Partagez votre avis et vos expériences !
Cursor AI s’arrête net : l’IA refuse de finir votre code !
En avril 2025, un programmeur qui comptait sur Cursor AI pour générer son code s’est trouvé face à un refus catégorique de l’assistant. Ce dernier s’est arrêté après avoir généré environ 800 lignes.
L’outil d’intelligence artificielle a interrompu son assistance avec un message inattendu : “Je ne peux pas générer de code pour vous, car cela reviendrait à terminer votre travail. Vous devez développer la logique vous-même pour vous assurer de comprendre le système et de pouvoir le maintenir correctement.”
Cette situation a rapidement circulé dans la communauté des développeurs et déclenché des réactions diverses. Certains ont trouvé l’incident hilarant. En revanche, d’autres y ont vu une occasion de débattre sur des questions plus profondes. Ils ont, par exemple, soulevé la question de la dépendance aux outils d’IA dans le développement de logiciels.
Effectivement, l’anecdote soulève des interrogations pertinentes sur l’équilibre entre l’utilisation de l’IA et l’acquisition de compétences authentiques. Elle met aussi en lumière la nécessité pour les développeurs de maintenir leur compréhension fondamentale des systèmes qu’ils créent. Cela reste essentiel, même lorsqu’ils bénéficient d’outils d’intelligence artificielle avancés.
Cursor : Amazon se prépare à l’adopter
Malgré les récents incidents d’avril 2025, la plateforme continue de séduire les grandes entreprises technologiques. Parmi elles, Amazon étudie activement l’intégration de Cursor au sein de ses équipes. Cette démarche n’est autre que la réponse à une demande croissante de ses propres ingénieurs.
En interne, plus de 1 500 employés se sont réunis dans un canal Slack dédié. Ils ont ainsi exprimé leur préférence pour Cursor face aux solutions développées en interne comme Q, Kiro ou Cedric. A travers ce mouvement spontané, nous pouvons entrevoir un changement de culture dans l’ingénierie logicielle. Effectivement, les développeurs veulent aujourd’hui des outils qui s’intègrent naturellement à leurs flux de travail, des outils qui favorisent la vitesse d’exécution, la clarté et l’autonomie.
Loin d’être marginal, cet engouement a été remarqué par les plus hauts niveaux de direction. Andy Jassy, PDG d’Amazon, a même fait une éloge publique à l’endroit de Cursor. Selon ses dires, c’est l’un des plus prometteurs dans la vague actuelle de transformation des pratiques de développement.
A l’heure où nous rédigeons, l’adoption interne n’est pas encore officielle. Cependant, Amazon procède déjà à des tests dans plusieurs équipes, notamment celles orientées vers les produits cloud et l’expérience client. Nous estimons donc qu’Amazon ne tardera pas à rejoindre d’autres acteurs majeurs déjà utilisateurs de Cursor, comme Uber, Adobe ou NVIDIA. Si cela se concrétise, le service se positionnera comme nouveau standard dans l’environnement de développement logiciel contemporain.
FAQ sur Cursor
Qu’est-ce que Cursor ?
Cursor est une plateforme avancée d’assistance au développement de logiciels qui aide les développeurs à coder plus vite et mieux grâce à des fonctionnalités automatisées d’écriture, de relecture et d’optimisation du code.
Quels sont les plans tarifaires disponibles ?
Cursor propose trois formules : Hobby (gratuite, avec limites mensuelles et essai Pro de 2 semaines), Pro (20 $/mois, avec complétions illimitées et accès aux modèles premium), et Business (40 $/mois/utilisateur, avec options avancées comme la gestion centralisée et l’authentification unique).
Quels modèles de langage sont utilisés ?
Cursor utilise plusieurs modèles de pointe, notamment GPT-4o, Claude 3.5 Sonnet et Haiku, permettant des complétions rapides ou lentes selon les besoins.
Est-ce que le code généré appartient à l’utilisateur ?
Oui, les utilisateurs conservent la pleine propriété et la liberté d’utilisation commerciale du code produit par Cursor.
Cursor est-il fiable malgré des incidents passés ?
Bien que des erreurs aient eu lieu en avril 2025, Cursor a rapidement corrigé ces problèmes et reste largement adopté par des entreprises majeures telles qu’Amazon, Uber ou Adobe.
Comment Cursor s’intègre-t-il dans les entreprises ?
De nombreuses grandes firmes déploient Cursor en interne pour améliorer la productivité des équipes, grâce à une interface intuitive et des fonctionnalités adaptées aux besoins collaboratifs.