Le DLSS 5 continue de faire couler de l'encre depuis sa présentation aussi impressionnante que sujette à la controverse. Cette fois, c'est au tour d'un développeur de s'exprimer pour prendre la défense de la technologie de Nvidia.
Le DLSS 5 continue de faire couler de l'encre depuis sa présentation aussi impressionnante que sujette à la controverse. Cette fois, c'est au tour d'un développeur de s'exprimer pour prendre la défense de la technologie de Nvidia.
Capcom a publié un document dédié aux investisseurs, portant notamment sur la question de son usage de l'IA. Quelques jours après la présentation controversée du DLSS 5, la firme nippone y stipule qu'elle n'utilisera pas la technologie pour modifier le contenu de ses jeux.
Capcom a publié un document dédié aux investisseurs, portant notamment sur la question de son usage de l'IA. Quelques jours après la présentation controversée du DLSS 5, la firme nippone y stipule qu'elle n'utilisera pas la technologie pour modifier le contenu de ses jeux.
Invité du podcasteur américain Lex Fridman, Jensen Huang a laissé entendre que l'AGI, considérée par beaucoup comme la forme ultime de l'IA générative, était déjà possible aujourd'hui. Une affirmation qui divise beaucoup : tout dépend de la définition que l'on attribue à AGI.
Invité du podcasteur américain Lex Fridman, Jensen Huang a laissé entendre que l'AGI, considérée par beaucoup comme la forme ultime de l'IA générative, était déjà possible aujourd'hui. Une affirmation qui divise beaucoup : tout dépend de la définition que l'on attribue à AGI.
Le 19 mars 2026, le département américain de la Justice a inculpé trois personnes liées à Super Micro Computer, un fabricant californien de serveurs coté en bourse. Leur crime présumé : avoir orchestré un vaste réseau de contrebande de semi-conducteurs à destination de la Chine, principal rival technologique des États-Unis.
Le 19 mars 2026, le département américain de la Justice a inculpé trois personnes liées à Super Micro Computer, un fabricant californien de serveurs coté en bourse. Leur crime présumé : avoir orchestré un vaste réseau de contrebande de semi-conducteurs à destination de la Chine, principal rival technologique des États-Unis.
Des développeurs de Capcom et Ubisoft, deux entreprises annoncées comme partenaires de Nvidia sur le DLSS 5, auraient découvert la technologie en même temps que tout le monde. Ce qui pose la question du réel contrôle de la part des pôles créatifs.
Des développeurs de Capcom et Ubisoft, deux entreprises annoncées comme partenaires de Nvidia sur le DLSS 5, auraient découvert la technologie en même temps que tout le monde. Ce qui pose la question du réel contrôle de la part des pôles créatifs.
Jensen Huang, CEO de Nvidia, a répondu aux pluies de critiques sur le DLSS 5, nouvelle génération d'une technologie accusée de dénaturer totalement la vision artistique des développeurs de jeux vidéo.
Jensen Huang, CEO de Nvidia, a répondu aux pluies de critiques sur le DLSS 5, nouvelle génération d'une technologie accusée de dénaturer totalement la vision artistique des développeurs de jeux vidéo.
Mistral AI s'allie à l'entreprise suédoise EcoDataCenter pour mettre au point un centre de données en Suède au nom de la souveraineté européenne en matière d'intelligence artificielle. Un projet qui souffre cependant d'une limite : la provenance des GPU.
Mistral AI s'allie à l'entreprise suédoise EcoDataCenter pour mettre au point un centre de données en Suède au nom de la souveraineté européenne en matière d'intelligence artificielle. Un projet qui souffre cependant d'une limite : la provenance des GPU.
Cet article a été réalisé en collaboration avec Nvidia
Un PC solide, un GPU Nvidia de dernière génération, une solide connexion internet, ComfyUI et un peu de temps : voilà les ingrédients nécessaires à la mise en place d’un agent IA personnalisé pour générer des images ou des vidéos.
Cet article a été réalisé en collaboration avec Nvidia
Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa
Cet article a été réalisé en collaboration avec Nvidia
Un PC solide, un GPU Nvidia de dernière génération, une solide connexion internet, ComfyUI et un peu de temps : voilà les ingrédients nécessaires à la mise en place d’un agent IA personnalisé pour générer des images ou des vidéos.
Cet article a été réalisé en collaboration avec Nvidia
Il s’agit d’un contenu créé par des rédacteurs indépendants au sein de l’entité Humanoid xp. L’équipe éditoriale de Numerama n’a pas participé à sa création. Nous nous engageons auprès de nos lecteurs pour que ces contenus soient intéressants, qualitatifs et correspondent à leurs intérêts.
Google Genie 3 n'est pas là pour remplacer les studios de jeux vidéo. Mais la Bourse ne l'a pas très bien compris et de grands éditeurs en font les frais.
Google Genie 3 n'est pas là pour remplacer les studios de jeux vidéo. Mais la Bourse ne l'a pas très bien compris et de grands éditeurs en font les frais.
La Chine aurait autorisé la start-up d'IA chinoise DeepSeek a acquérir des puces H200 de Nvidia, selon un article de Reuters daté du 28 janvier 2026. En parallèle, ByteDance, Alibaba et Tencent auraient également reçu une autorisation similaire, pour plus de 400 000 GPU H200.
La Chine aurait autorisé la start-up d'IA chinoise DeepSeek a acquérir des puces H200 de Nvidia, selon un article de Reuters daté du 28 janvier 2026. En parallèle, ByteDance, Alibaba et Tencent auraient également reçu une autorisation similaire, pour plus de 400 000 GPU H200.
Tous les coups sont-ils permis dans la course effrénée à l'intelligence artificielle ? La question se pose avec des documents judiciaires qui allèguent que Nvidia aurait activement cherché à récupérer le contenu d'Anna's Archive (une célèbre bibliothèque clandestine d'ouvrages piratés) pour entraîner ses IA. Et cela, en toute connaissance de cause.
Tous les coups sont-ils permis dans la course effrénée à l'intelligence artificielle ? La question se pose avec des documents judiciaires qui allèguent que Nvidia aurait activement cherché à récupérer le contenu d'Anna's Archive (une célèbre bibliothèque clandestine d'ouvrages piratés) pour entraîner ses IA. Et cela, en toute connaissance de cause.
Si vous aviez encore un doute sur l’ampleur de la révolution en cours. Jetez un œil aux chéquiers des géants de la tech. Les chiffres ne se comptent plus en millions, ni en centaines de millions, mais en dizaines de milliards de dollars.
On assiste à une véritable course à l’armement numérique avec l’industrie de l’IA. OpenAI, Nvidia et les Hyperscalers (Microsoft, Amazon, Google) redessinent la carte du pouvoir économique mondial. Mais au-delà des zéros qui s’alignent, que racontent ces dea
Si vous aviez encore un doute sur l’ampleur de la révolution en cours. Jetez un œil aux chéquiers des géants de la tech. Les chiffres ne se comptent plus en millions, ni en centaines de millions, mais en dizaines de milliards de dollars.
On assiste à une véritable course à l’armement numérique avec l’industrie de l’IA. OpenAI, Nvidia et les Hyperscalers (Microsoft, Amazon, Google) redessinent la carte du pouvoir économique mondial. Mais au-delà des zéros qui s’alignent, que racontent ces deals sur notre avenir ? Plongée dans le top des transactions qui donnent le tournis.
OpenAI et Microsoft : le mariage de raison à 13 milliards
C’est le deal qui a tout déclenché. En injectant progressivement plus de 13 milliards de dollars dans OpenAI. Microsoft ne s’est pas contenté d’acheter des parts dans une startup prometteuse. La firme de Redmond a verrouillé un accès exclusif aux modèles GPT pour ses produits (Office, Azure, Windows).
Pour OpenAI, ce partenariat était vital. Effectivement, l’entraînement de modèles comme GPT-5 nécessite une puissance de calcul phénoménale. Une chose que seul un géant comme Microsoft pouvait offrir via ses data centers. C’est l’archétype du deal moderne surtout pour les crédits cloud pour alimenter les serveurs.
Amazon et Anthropic : la riposte à 8 milliards
Pendant que Microsoft et OpenAI occupaient le devant de la scène, Amazon ne restait pas les bras croisés. En investissant un total de 8 milliards de dollars dans Anthropic, le géant du e-commerce a sécurisé sa place dans la course.
Ainsi, Amazon propose les modèles d’Anthropic sur sa plateforme AWS. En échange, Anthropic s’engage à utiliser les puces maison d’Amazon (Trainium et Inferentia). C’est une guerre d’écosystèmes où chaque géant veut garder ses clients captifs de son propre nuage informatique.
Nvidia : le banquier et l’architecte du monde IA
Nvidia est aujourd’hui au centre de toutes les convoitises. Non seulement tout le monde s’arrache ses puces H100, mais l’entreprise est devenue un investisseur ultra-agressif. Récemment, un partenariat stratégique entre OpenAI et Nvidia a fuité. Il évoque le déploiement de 10 gigawatts de systèmes IA. Le projet vise un investissement pouvant atteindre les 100 milliards de dollars à terme.
Nvidia ne se contente plus de vendre des composants. Elle finance ses propres clients (comme CoreWeave) pour s’assurer que ses puces restent le standard absolu. On se souvient aussi de l’acquisition de Mellanox pour 7 milliards de dollars en 2020. Cela permet aujourd’hui à Nvidia de faire communiquer ses puces à une vitesse record.
Oracle et OpenAI : le deal de tous les records ?
La rumeur et les rapports financiers font état d’un accord potentiellement titanesque entre Oracle et OpenAI. On parle de 300 milliards de dollars sur cinq ans pour de la puissance de calcul. Si ces chiffres se confirment, nous changerions d’échelle. L’infrastructure IA deviendrait l’investissement le plus lourd de l’histoire industrielle, devant l’aérospatiale ou l’énergie.
Pourquoi une telle frénésie ? Parce que dans l’IA, la taille compte. Plus vous avez de données et de puissance de calcul, plus votre modèle est intelligent. Les entreprises ne parient pas seulement sur un logiciel, mais sur la possession de l’infrastructure qui fera tourner l’économie de demain.
Cependant, cette débauche de moyens pose une question humaine et éthique. Peut-on laisser une poignée d’entreprises privées détenir les clés d’une technologie aussi transformatrice ? Si l’IA est le nouveau pétrole, les deals d’aujourd’hui sont en train de forer les puits qui vont alimenter le prochain siècle.
Avec une puissance phénoménale de 459 téraflops, le Google TPU redéfinit totalement les standards actuels du calcul haute performance. Cette puce spécialisée gravée en milliardième de mètre transforme silencieusement l’infrastructure mondiale du Cloud Computing. Elle accélère également l’essor des modèles génératifs qui deviennent de plus en plus personnalisables.
Qu’est-ce qu’un Google TPU ?
Le terme Google TPU désigne un circuit intégré propre à la firme de Mountain View. Ce proce
Avec une puissance phénoménale de 459 téraflops, le Google TPU redéfinit totalement les standards actuels du calcul haute performance. Cette puce spécialisée gravée en milliardième de mètre transforme silencieusement l’infrastructure mondiale du Cloud Computing. Elle accélère également l’essor des modèles génératifs qui deviennent de plus en plus personnalisables.
Qu’est-ce qu’un Google TPU ?
Le terme Google TPU désigne un circuit intégré propre à la firme de Mountain View. Ce processeur d’application spécifique ou ASIC cible exclusivement les charges de travail neuronales intenses. Les ingénieurs conçoivent cette puce pour l’apprentissage machine. Elle délaisse donc la polyvalence des processeurs classiques pour une efficacité maximale sur des tâches précises.
L’histoire débute dans le plus grand secret vers 2013. Les dirigeants anticipaient alors la fin de la loi de Moore qui stipule que le nombre de transistors intégrés sur une puce de semi-conducteur double environ tous les deux ans. Cette cadence historique ne pourrait plus se maintenir face aux limites physiques du silicium.
Ils cherchaient une solution pérenne pour soutenir la croissance exponentielle des données utilisateurs. Le matériel existant ne suffisait plus à la tâche. Il consommait d’ailleurs trop d’énergie pour les volumes envisagés. Le projet a abouti à une architecture radicalement différente. Cette approche introduit un réseau systolique inédit, capable de traiter simultanément des matrices massives sans surcharge mémoire ni latence.
Passée d’une gravure de 28 à seulement 3 nanomètres (nm), cette puce alimente aujourd’hui des services colossaux comme Google Search ou la traduction automatique instantanée. Pour en savoir davantage, je vous recommande de lire l’article : Google TPU, tout savoir sur cette technologie qui révolutionne l’IA.
Une technologie qui équipe surtout les data centers de l’entreprise
Cette innovation matérielle constitue la colonne vertébrale des centres de données modernes de l’entreprise. Son intégration massive modifie l’accès aux ressources informatiques dématérialisées. L’objectif initial visait l’optimisation drastique du rapport performance par watt consommé. Cette efficience conditionne la viabilité économique des intelligences artificielles actuelles à grande échelle. Le matériel s’adapte désormais au logiciel.
Cette approche inverse le paradigme habituel de l’industrie informatique traditionnelle. Google contrôle ainsi l’intégralité de sa chaîne de valeur technologique, du silicium jusqu’à l’utilisateur final. Cette indépendance stratégique protège la firme contre les pénuries de composants. Elle dicte son propre rythme d’innovation face à une concurrence acharnée, notamment face à des adversaires tels que NVIDIA.
Comment fonctionne un TPU ?
L’architecture repose sur un concept nommé réseau systolique, unique en son genre dans l’industrie. Les données circulent à travers des milliers d’unités arithmétiques. Elles ne repassent pas par la mémoire entre chaque opération de calcul. Cette méthode réduit drastiquement la latence interne du système. Le calcul matriciel représente le cœur battant de cette mécanique de précision.
Les opérations d’algèbre linéaire s’exécutent simultanément par vagues massives et synchronisées. Une unité centrale traite les instructions de manière séquentielle, une par une. Un processeur graphique excelle plutôt dans le parallélisme simple pour l’affichage. Le circuit de Google optimise spécifiquement les multiplications de tenseurs complexes. Cette spécialisation extrême autorise une densité de calcul supérieure pour les réseaux neuronaux profonds.
Flux de données continu et efficacité énergétique
Le système utilise le format de nombre bfloat16 au lieu de la précision standard. Cette concession sur la précision mathématique accélère le traitement. Elle ne dégrade pourtant pas la pertinence des résultats finaux des modèles. La puce conserve ainsi plus d’espace physique pour les unités de calcul. La mémoire à haute bande passante nourrit ces unités sans interruption.
L’approvisionnement constant en données évite les goulots d’étranglement habituels des architectures classiques. La consommation électrique diminue aussi grâce à cette gestion optimisée des flux. Chaque watt dépensé sert directement au traitement de l’information utile. L’efficacité énergétique dépasse largement celle des solutions généralistes du marché actuel. Il fut un temps ou l’IA a fait exploser les émissions de carbone de Google, mais cette époque est révolue.
Les générations de TPU développées par Google
La première itération gravée en 28 nanomètres voit le jour publiquement vers 2016. Elle visait uniquement l’inférence des réseaux neuronaux déjà entraînés. Google réduit ensuite la taille des transistors à 16 nm avec les versions v2 et v3. Ces moutures introduisent d’ailleurs la capacité d’entraînement des modèles IA complexes.
Le géant américain franchit en revanche un nouveau cap technique en 2021. Le modèle v4 adopte alors une finesse de gravure de 7 nm. Cette architecture perdure pourtant sur les générations v5 et v5p jusqu’en 2024. Les ingénieurs optimisent en fait la mémoire pour doubler les performances brutes.
La course à la puissance s’accélère tout de même avec l’arrivée du TPU Trillium. Ce composant promet en théorie des gains 4,7 fois supérieurs à son prédécesseur. Les experts anticipent du coup une transition vers un nœud de 5 nm. La feuille de route dévoile par ailleurs le processeur Ironwood courant 2025.
Cette puce exploite en pratique la technologie de pointe en 3 nm du fabricant taïwanais TSMC. Cette évolution vise au fond une efficacité énergétique maximale. Ces puces forment finalement des supercalculateurs virtuels appelés Pods. L’architecture évolue ainsi pour supporter des modèles aux milliers de milliards de paramètres.
Quels usages concrets pour les TPU de Google ?
L’entraînement des grands modèles de langage monopolise une part importante de ces ressources de calcul. Gemini ou PaLM nécessitent des mois de travail intensif sur ces infrastructures dédiées. L’inférence en production réclame aussi une réactivité immédiate pour l’utilisateur final. La reconnaissance vocale sur mobile dépend entièrement de cette rapidité d’exécution matérielle.
La recherche scientifique bénéficie grandement de cette puissance de calcul massive et spécialisée. Les biologistes utilisent ces circuits pour prédire le repliement complexe des protéines. L’industrie pharmaceutique accélère ainsi la découverte de nouveaux médicaments grâce à ces simulations. La vision par ordinateur profite également de ces avancées matérielles spectaculaires.
L’analyse d’images médicales gagne en précision et en rapidité de diagnostic. Les véhicules autonomes traitent les flux vidéo en temps réel grâce à cette technologie. Les systèmes de recommandation de contenu exploitent aussi ces puces au quotidien. Ils analysent vos préférences sur YouTube en une fraction de seconde.
La détection de fraude financière s’appuie sur ces capacités de traitement parallèle. Les banques sécurisent les transactions grâce à des modèles entraînés sur ces architectures. La modélisation climatique requiert également cette puissance de feu numérique. Les prévisions météorologiques gagnent en fiabilité grâce à ces calculs intensifs.
Quels sont les prix et conditions d’accès aux TPU ?
L’acquisition physique des Google TPU reste totalement impossible pour le grand public ou les entreprises. L’accès se fait exclusivement via la plateforme de services dématérialisés du géant américain. La location s’effectue à la seconde ou via des contrats à long terme. Le coût varie considérablement selon la région géographique et la puissance demandée.
Une puce v4 coûte environ 3,22 dollars américains par heure d’utilisation à la demande. Les Preemptible VMs proposent des tarifs réduits pour les tâches interruptibles et non critiques. Les chercheurs et les startups constituent le cœur de cible initial de cette offre. Les grandes entreprises louent des Pods entiers pour leurs projets stratégiques confidentiels.
Google propose surtout à la location la puissance de ses TPU
Cette flexibilité évite un investissement matériel lourd en capital pour les sociétés clientes. L’utilisateur configure ses machines virtuelles depuis une console d’administration centralisée et intuitive. Il peut augmenter la puissance disponible en quelques clics seulement. Le programme TRC offre un accès gratuit temporaire pour la recherche académique.
Cette initiative favorise l’adoption de l’écosystème logiciel maison TensorFlow dans les universités. Les conditions d’utilisation interdisent toutefois certaines applications controversées comme la surveillance de masse. Google modère l’usage de sa puissance de calcul selon une charte éthique. La facturation s’ajuste automatiquement à la consommation réelle des ressources allouées.
Quelles alternatives aux TPU ?
Le marché des semi-conducteurs ne manque pas de rivaux sérieux et ambitieux. Les puces graphiques de l’entreprise NVIDIA dominent encore largement le secteur de l’IA. Les modèles H100 disposent d’une polyvalence très appréciée par les développeurs indépendants. La compatibilité logicielle CUDA reste un atout majeur pour la concurrence directe.
Cette bibliothèque standardisée facilite le portage des applications sur différents matériels existants. D’autres géants de la technologie conçoivent leurs propres circuits intégrés spécialisés désormais. Amazon Web Services propose ses processeurs Trainium et Inferentia à ses clients hébergés. Ces solutions rivalisent sur le terrain du coût et de l’intégration verticale.
Microsoft développe également ses solutions maison nommées Maia pour ses propres centres. Ces alternatives ASIC cherchent toutes à réduire la dépendance envers les fournisseurs externes. De son côté, le fabricant américain AMD tente aussi de percer avec sa gamme de cartes Instinct. La bataille du silicium pour l’intelligence artificielle ne fait que commencer réellement.
Les startups comme Cerebras explorent des architectures radicalement différentes avec des puces géantes. La diversité du matériel disponible stimule l’innovation dans tout le secteur technologique. Le choix dépendra finalement des besoins spécifiques de chaque projet informatique. L’hégémonie d’un seul acteur semble aujourd’hui peu probable sur le long terme.
Coup de théâtre dans la guerre des semi-conducteurs : Donald Trump a donné le 8 décembre 2025 son feu vert à l’exportation des H200 de Nvidia vers la Chine. Une ouverture inattendue, qui pourrait bien rebattre les cartes pour les deux camps.
Coup de théâtre dans la guerre des semi-conducteurs : Donald Trump a donné le 8 décembre 2025 son feu vert à l’exportation des H200 de Nvidia vers la Chine. Une ouverture inattendue, qui pourrait bien rebattre les cartes pour les deux camps.
On croyait que l’IA allait supprimer des emplois. Nvidia a une autre idée : elle va surtout supprimer vos pauses. Pour Jensen Huang, l’IA ne remplace pas les travailleurs, elle les accélère… quitte à transformer chaque métier en chaîne de production sans bouton “stop”.
Il y a des phrases qui changent l’ambiance d’une conférence. Celle de Jensen Huang, au US-Saudi Investment Forum, en fait partie.
Alors que la Silicon Valley entretient depuis des années la peur du “grand remplacement” par
On croyait que l’IA allait supprimer des emplois. Nvidia a une autre idée : elle va surtout supprimer vos pauses. Pour Jensen Huang, l’IA ne remplace pas les travailleurs, elle les accélère… quitte à transformer chaque métier en chaîne de production sans bouton “stop”.
Il y a des phrases qui changent l’ambiance d’une conférence. Celle de Jensen Huang, au US-Saudi Investment Forum, en fait partie.
Alors que la Silicon Valley entretient depuis des années la peur du “grand remplacement” par l’automatisation, le patron de Nvidia a pris tout le monde à contre-pied : non, l’IA ne va pas vous jeter dehors. Elle va vous occuper, vous rendre “plus productif”, vous ouvrir mille nouveaux chantiers.
Dans la bouche du dirigeant d’une entreprise qui vend des GPU à 30 000 €, cette promesse ressemble moins à un plan de libération du travail qu’à une nouvelle forme d’intensification.
Pas de licenciement massif, donc… mais une accélération générale où chaque minute gagnée devient une minute réaffectée. Et c’est là que le futur du travail prend une tournure bien moins idyllique que prévu.
L’IA veut votre agenda, pas votre poste
Pendant des années, la Silicon Valley a martelé le même refrain : l’IA automatisera tellement de tâches que l’on pourra enfin souffler. Mais la dernière prise de parole de Jensen Huang inverse la vapeur.
À l’écouter, personne ne perdra son job. Au contraire : tout le monde en aura davantage. L’IA n’est plus une menace, c’est un dopant. Pas de panique, donc… sauf si vous espériez lever le pied.
Huang s’appuie sur une idée simple : en rendant certaines tâches triviales, l’IA crée de nouvelles opportunités, de nouveaux projets, de nouvelles boucles de décision. Bref, elle libère de la bande passante. Et comme chacun sait : dans une entreprise, toute bande passante libre est immédiatement réquisitionnée.
Oubliez vos rêves de sieste prolongée
La vision de Huang repose sur un sophisme très répandu : productivité = confort. Sauf que dans la vraie vie, productivité = intensification. Toutes les grandes études récentes vont dans ce sens.
McKinsey observe que plus de 60 % des entreprises ayant déployé des agents IA voient un accroissement du volume de tâches, pas une réduction. L’OCDE note que 27 % des emplois sont “hautement exposés” à une automatisation qui modifie la nature du travail plutôt que de la supprimer.
Autrement dit : l’IA vous aide à aller plus vite… donc votre direction vous demandera davantage. Rien de personnel : c’est le business model qui veut ça.
L’IA comme turbo-chargeur du travail
Prenons l’exemple mis en avant par Huang : les radiologues américains. Grâce à l’IA, ils “processent plus de scans que jamais”.
Une phrase qui ferait presque croire que leur métier devient plus facile. En réalité, ils jonglent avec une pénurie massive de professionnels, qui force les services à multiplier les interprétations d’images. L’IA ne réduit pas la charge : elle la rend supportable… donc elle l’augmente encore.
Ce phénomène (le paradoxe de Jevons appliqué au travail) se répète déjà dans la finance, le support client, le marketing. Chaque fois qu’une barrière saute, les volumes explosent. L’IA ne remplace pas l’humain : elle le démultiplie, parfois jusqu’à la rupture.
Vous travaillez deux fois plus, les marges des géants explosent
Vu des entreprises, c’est une bénédiction. Gartner estime que l’IA générative pourrait créer 4 400 milliards de dollars de valeur annuelle d’ici 2030. Mais qui récolte ces gains ? Essentiellement les actionnaires et les grands groupes capables d’industrialiser l’automatisation.
Pour les salariés, les bénéfices sont beaucoup plus flous : hausse de la pression, montée des attentes, deadlines compressées.
IDC observe déjà un effet pervers dans les entreprises très automatisées : réduction du personnel qualifié, mais charge accrue sur ceux qui restent, devenus opérateurs polyvalents d’outils IA. L’IA comme booster de marge, oui. L’IA comme booster de qualité de vie, pas vraiment.
Pendant ce temps-là, Musk prédit un monde où le travail sera optionnel
À l’opposé, Elon Musk continue d’imaginer un futur où l’on travaillera “comme on jardine”, juste pour le plaisir. Un monde où l’abondance énergétique, la robotique humanoïde et les IA généralistes suppriment tout besoin de travailler pour vivre.
Huang, lui, ne croit pas une seconde à ce grand remplacement du labeur. Il pense même que Musk sera “plus occupé que jamais grâce à l’IA”. Deux visions qui semblent incompatibles, mais qui partagent un point commun : les deux milliardaires s’en sortiront très bien, quel que soit le scénario.
Car si l’IA libère le travail, Musk règne sur les robots. Si l’IA intensifie le travail, Huang vend les GPU qui alimentent la machine.
Et nous, dans tout ça ?
Pour les travailleurs ordinaires, l’avenir ressemble à une pente glissante. L’IA impose une polyvalence permanente, une capacité d’adaptation continue et une vitesse d’exécution qui ne laisse plus de place au moindre ralentissement.
Le risque de saturation augmente mécaniquement. Les économistes du MIT parlent déjà d’une “polarisation extrême” du marché : certains profils très qualifiés surfent sur la vague, d’autres subissent une déqualification silencieuse.
Le danger n’est donc pas la disparition de nos emplois. C’est leur métamorphose en machines à charge mentale.
L’IA n’est ni une menace ni un miracle : c’est un amplificateur
La véritable question n’est plus de savoir si l’IA va remplacer le travail humain, mais ce qu’on veut faire de cette nouvelle énergie. Sera-t-elle utilisée pour alléger les métiers, ou pour accélérer encore les cadences ?
Pour redistribuer les gains de productivité, ou pour creuser l’écart entre ceux qui contrôlent les modèles et ceux qui les subissent ?
L’IA ne va peut-être pas nous voler notre emploi. Mais si nous ne décidons pas de la manière dont elle s’intègre au monde du travail, elle pourrait bien nous voler ce qu’il nous reste de temps libre.
NVIDIA lance Alpamayo-R1 (AR1). Il s’agit d’une IA ouverte pensée pour comprendre une scène, raisonner et planifier. Elle est destinée à aider les véhicules à prévoir chaque situation sans paniquer au premier piéton distrait.
Nvidia a présenté Alpamayo-R durant NeurIPS. D’autres outils destinés aux systèmes autonomes y ont aussi été mis en avant. Parmi eux, des modèles dédiés à la parole, au son et aux environnements simulés. Cependant, dans cet article, nous allons nous concentrer sur AR1 qu
NVIDIA lance Alpamayo-R1 (AR1). Il s’agit d’une IA ouverte pensée pour comprendre une scène, raisonner et planifier. Elle est destinée à aider les véhicules à prévoir chaque situation sans paniquer au premier piéton distrait.
Nvidia a présenté Alpamayo-R durant NeurIPS. D’autres outils destinés aux systèmes autonomes y ont aussi été mis en avant. Parmi eux, des modèles dédiés à la parole, au son et aux environnements simulés. Cependant, dans cet article, nous allons nous concentrer sur AR1 qui, pour info, attire déjà l’attention des chercheurs.
Tout ce que nous savons sur Alpamayo-R1
Alpamayo-R1 repose sur un raisonnement en chaîne qui aide un véhicule à anticiper chaque action. Le modèle analyse les scènes complexes, étape par étape, avant de choisir une trajectoire. Cette logique permet de traiter les piétons pressés, les voies bloquées ou les voitures arrêtées sans prévenir.
AR1 s’appuie sur NVIDIA Cosmos Reason pour combiner vision, langage et action. Le modèle évalue plusieurs trajectoires et sélectionne celle qui réduit les risques autour du véhicule. Ce fonctionnement rapproche son jugement de celui d’un conducteur entraîné.
L’apprentissage renforcé améliore encore sa capacité à comprendre les situations. Les tests montrent d’ailleurs une progression nette entre la version pré-entraînée et celle ajustée.
Bref, le modèle est disponible sur GitHub et Hugging Face, accompagné d’un sous-ensemble de données. Les chercheurs peuvent aussi exploiter AlpaSim pour mesurer les performances en simulation.
L’IA étant open source, les expérimentations dans les laboratoires du monde entier sont encouragées. Plusieurs acteurs, dont Voxel51, Gatik ou PlusAI, s’en servent d’ailleurs déjà pour des projets liés à la conduite autonome.
Alors que Nvidia bat de nouveaux records financiers, son PDG Jensen Huang critique les équipes réticentes face à l'IA, qualifiant leur hésitation de folie. Une marche forcée vers l'automatisation qui contraste pourtant avec les doutes grandissants sur la productivité réelle de ces outils.
Alors que Nvidia bat de nouveaux records financiers, son PDG Jensen Huang critique les équipes réticentes face à l'IA, qualifiant leur hésitation de folie. Une marche forcée vers l'automatisation qui contraste pourtant avec les doutes grandissants sur la productivité réelle de ces outils.
L’IA peut désormais tout faire, affirme Jensen Huang, le patron de Nvidia. Si vous résistez encore à cette technologie, il est peut-être temps de vous poser la question.
Lors d’une réunion générale qui a suivi l’annonce de résultats trimestriels exceptionnels de Nvidia, Jensen Huang a secoué ses équipes. « Certains responsables demandent à leurs équipes d’utiliser moins l’IA », a-t-il lancé, incrédule. « Vous plaisantez ? » a-t-il ajouté.
Pour lui, toute tâche pouvant être automatisée doi
L’IA peut désormais tout faire, affirme Jensen Huang, le patron de Nvidia. Si vous résistez encore à cette technologie, il est peut-être temps de vous poser la question.
Lors d’une réunion générale qui a suivi l’annonce de résultats trimestriels exceptionnels de Nvidia, Jensen Huang a secoué ses équipes. « Certains responsables demandent à leurs équipes d’utiliser moins l’IA », a-t-il lancé, incrédule. « Vous plaisantez ? » a-t-il ajouté.
Pour lui, toute tâche pouvant être automatisée doit l’être. Selon lui, coder à l’ancienne est dépassé. Même si l’on n’a pas encore de consensus scientifique sur l’impact réel de l’IA sur la productivité, Huang est catégorique. Refuser l’automatisation, c’est presque un trouble mental. Oui, vous avez bien lu.
Utiliser l’IA pour tout ? Ce n’est pas qu’une tendance
« Je veux que toutes les tâches pouvant être automatisées grâce à l’intelligence artificielle le soient » a affirmé Jensen Huang. Pour lui, l’IA doit s’immiscer partout, du code à la moindre feuille de calcul. Les avantages sont nombreux et indéniables. En effet, automatiser certaines tâches simplifie la vie et booste la productivité. Cela fait aussi gagner du temps.
Pas étonnant, donc, que les géants du secteur accélèrent. Google affirme que 25 % de son code est désormais généré par l’IA pour tout. Microsoft suit le même chemin. Satya Nadella insiste : « L’utilisation de l’IA pour tout n’est plus une option ». Même vos lignes de code pourraient bientôt s’écrire sans que vos doigts ne touchent le clavier.
Amie ou ennemie des programmeurs ?
Mais tout n’est pas rose. Une étude révèle que les programmeurs utilisant des assistants comme Claude d’Anthropic suivent moins de la moitié des suggestions de l’IA pour tout. Ce qui les rend 19 % plus lents que leurs collègues traditionnels.
L’IA utilisée pour tout pose également la question de l’emploi. Car cette année, près de 140 000 professionnels tech devraient être licenciés. Amazon restructure massivement, tandis que d’autres dirigeants vantent les mérites transformateurs de l’IA.
Certes, Huang, lui, assure que l’IA sera bénéfique pour les salariés. Pourtant, les risques sont réels comme l’automatisation massive ou encore les pertes d’emplois. Refuser l’IA pour tout, c’est peut-être « fou » selon Nvidia, mais se jeter tête baissée dans l’automatisation n’est pas sans danger.
Et vous, qu’en pensez vous ? Et vous, qu’en pensez-vous ? Partagez-vous le même avis que Jensen Huang et croyez-vous que l’IA devrait tout automatiser ? Ou pensez-vous qu’il y a des tâches qu’aucune machine ne devrait toucher ? Donnez votre avis en commentaire !
Les résultats du T3 de Nvidia sont arrivés, et c’est une déferlante de chiffres verts. Face aux Cassandre qui annonçaient l’éclatement de la bulle IA, Jensen Huang, le PDG visionnaire, vient de mettre un poing sur la table. L’IA n’en est qu’à ses débuts, et la croissance fulgurante des bénéfices de Nvidia prouve qu’elle est au centre de tout.
Mercredi dernier, tous les yeux étaient rivés sur Nvidia. Normal, la firme n’est rien de moins que le baromètre absolu de l’industrie de l’IA. Si elle t
Les résultats du T3 de Nvidia sont arrivés, et c’est une déferlante de chiffres verts. Face aux Cassandre qui annonçaient l’éclatement de la bulle IA, Jensen Huang, le PDG visionnaire, vient de mettre un poing sur la table. L’IA n’en est qu’à ses débuts, et la croissance fulgurante des bénéfices de Nvidia prouve qu’elle est au centre de tout.
Mercredi dernier, tous les yeux étaient rivés sur Nvidia. Normal, la firme n’est rien de moins que le baromètre absolu de l’industrie de l’IA. Si elle tousse, l’IA mondiale a la grippe. Sauf que là, l’entreprise de 5 000 milliards de dollars n’a pas toussé, elle a explosé les attentes. Les prophètes de malheur qui s’épuisent à crier à la bulle spéculative dans l’IA peuvent remballer leurs pancartes.
Les bénéfices colossaux de Nvidia
57,01 milliards de dollars. C’est le chiffre d’affaires monumental réalisé par Nvidia au troisième trimestre, soit 62 % de plus que l’année dernière. Et les bénéfices de Nvidia suivent le même rythme effréné. En effet, le gain par action grimpe à 1,30 $, écrasant les 1,26 $ anticipés par les analystes les plus optimistes de Wall Street.
Et cerise sur le gâteau, les ventes pour les centres de données s’envolent à 51,2 milliards de dollars. La demande pour les puces de la firme est sans précédent. L’IA, loin de ralentir, est en train d’enclencher la vitesse supérieure. La révolution est en marche, et elle porte le logo Nvidia.
L’ironie de l’histoire, c’est que juste avant cette annonce, certains gros investisseurs avaient paniqué. Thiel Macro, le fonds spéculatif de Peter Thiel, a vendu la totalité de sa participation. SoftBank s’est aussi débarrassé de 5,8 milliards de dollars d’actions. Ces cessions, alimentant les peurs d’une bulle, ont fait chuter l’action de près de 8 % en novembre. Ils ont eu tort.
Car après l’annonce des résultats, l’action Nvidia a bondi de plus de 5 % après la clôture. Les marchés asiatiques ont suivi le mouvement. Nvidia a asséné un coup de massue à la spéculation. Les prévisions pour le quatrième trimestre sont tout aussi folles avec 65 milliards de dollars de chiffre d’affaires attendus. L’entreprise ne fait donc que commencer sa course.
L’euphorie était palpable. Mais Jensen Huang, le fondateur et PDG, a voulu être clair dès l’ouverture de la conférence téléphonique. Le sujet de la bulle de l’IA est sur toutes les lèvres. Pourtant, il balaie les craintes d’un revers de main.
« On parle beaucoup de bulle de l’IA, » a déclaré Huang. « De notre point de vue, la situation est tout autre. Nous excellons à chaque étape de l’IA, du pré-entraînement au post-entraînement, jusqu’à l’inférence.»
Il ne s’agit pas d’une simple tendance, mais d’une triple mutation de plateforme. Premièrement, on passe de l’informatique lambda à l’informatique accélérée. Deuxièmement, la transition vers l’IA générative est massive. Troisièmement, l’essor de l’IA agentielle comme les robots ou les véhicules autonomes est imminent.
Nvidia est le seul à permettre ces trois révolutions en même temps. Un analyste senior d’Investing.com a d’ailleurs confirmé la tendance : « Nous sommes loin d’avoir atteint notre apogée. » La mise à l’échelle des centres de données n’est pas une option, mais une nécessité absolue. C’est une réalité brutale.
Le géant américain des puces a publié des résultats records pour le troisième trimestre 2025 ; parallèlement, le PDG Jensen Huang a tenu à dissiper toute crainte quant à une éventuelle bulle de l'IA.
Le géant américain des puces a publié des résultats records pour le troisième trimestre 2025 ; parallèlement, le PDG Jensen Huang a tenu à dissiper toute crainte quant à une éventuelle bulle de l'IA.
World Labs, startup spécialisée dans l’intelligence spatiale et la génération de mondes virtuels 3D à partir d’images, de textes ou de vidéos, a dévoilé le 12 novembre 2025 son nouveau modèle d’IA.
World Labs, startup spécialisée dans l’intelligence spatiale et la génération de mondes virtuels 3D à partir d’images, de textes ou de vidéos, a dévoilé le 12 novembre 2025 son nouveau modèle d’IA.
Jensen Huang, le patron charismatique de Nvidia, a lancé une bombe. Selon lui, la Chine dépasse déjà les États-Unis dans la course à l’intelligence artificielle.
C’est un aveu rare, presque un cri d’alarme. Mais oui, le PDG de Nvidia l’a avoué lors du sommet sur l’avenir de l’IA organisé par le Financial Times. « La Chine va remporter la course à l’IA. » confia-t-il sans détour.
Quelle en est la cause ?
Depuis des années, les États-Unis cherchent à garder la main sur l’innovation en ma
Jensen Huang, le patron charismatique de Nvidia, a lancé une bombe. Selon lui, la Chine dépasse déjà les États-Unis dans la course à l’intelligence artificielle.
C’est un aveu rare, presque un cri d’alarme. Mais oui, le PDG de Nvidia l’a avoué lors du sommet sur l’avenir de l’IA organisé par le Financial Times. « La Chine va remporter la course à l’IA. » confia-t-il sans détour.
Quelle en est la cause ?
Depuis des années, les États-Unis cherchent à garder la main sur l’innovation en matière d’IA. Nvidia, joyau américain et entreprise la plus valorisée au monde, est au cœur de cette bataille.
Ses puces alimentent la majorité des systèmes d’intelligence artificielle. Pourtant, ironie du sort, son PDG reconnaît que Pékin est à « quelques nanosecondes » de dépasser son pays.
Le problème ? Les restrictions américaines sur les exportations de semi-conducteurs vers la Chine. En voulant freiner son rival, Washington a peut-être ralenti ses propres chances.
Car pour Huang, l’IA n’avance pas sans les développeurs chinois, qui représentent près de la moitié des talents mondiaux. Priver Nvidia de cet écosystème serait, selon lui, « une erreur qui affaiblit l’Amérique sur le long terme ».
Cette dépendance à la collaboration mondiale crée un paradoxe. Les États-Unis veulent gagner, mais coupent les ponts avec ceux qui pourraient les aider à le faire. Pendant ce temps, la Chine avance, investit massivement et construit son propre réseau de processeurs.
Nvidia au milieu d’une bataille politique à haut risque
Huang marche sur un fil. D’un côté, il prône un leadership américain fondé sur la technologie Nvidia. De l’autre, il plaide pour maintenir des liens solides avec la Chine. Un équilibre qui devient presque impossible depuis que Donald Trump a annoncé que les puces Blackwell les plus puissantes de Nvidia seraient désormais réservées aux clients américains.
Officiellement, Nvidia n’a pas demandé de licences d’exportation vers la Chine. Officieusement, le message est clair : Pékin n’est plus un marché prioritaire. Et pourtant, Huang rappelle que la Chine reste incontournable pour l’avenir de l’intelligence artificielle mondiale.
Les États-Unis veulent bâtir un monde sur des technologies américaines, dit-il. Mais sans accès au plus grand vivier de développeurs de la planète, cette ambition pourrait bien s’effriter. Derrière ses mots, un constat inquiétant : à force de dresser des murs, l’Amérique risque de perdre la guerre qu’elle voulait absolument gagner.
Nous voici dans le 74ième épisode de Quantum, le podcast mensuel francophone de l’actualité quantique. Et tant de news, anecdotes et analyse à partager en compagnie de Fanny Bouton. Au menu, nous avons toujours plein d’événements, et surtout la saison des prix Nobel de physique et les dernières annonces de Google. Sans compter diverses actualités […]
Nous voici dans le 74ième épisode de Quantum, le podcast mensuel francophone de l’actualité quantique. Et tant de news, anecdotes et analyse à partager en compagnie de Fanny Bouton. Au menu, nous avons toujours plein d’événements, et surtout la saison des prix Nobel de physique et les dernières annonces de Google. Sans compter diverses actualités […]
La start-up américaine ExtropicAI a mis au point une nouvelle forme d’informatique inspirée du fonctionnement du cerveau humain. Basée sur des principes thermodynamiques, cette technologie serait jusqu’à 10 000 fois plus économe en énergie que les systèmes actuels d’IA.
La start-up américaine ExtropicAI a mis au point une nouvelle forme d’informatique inspirée du fonctionnement du cerveau humain. Basée sur des principes thermodynamiques, cette technologie serait jusqu’à 10 000 fois plus économe en énergie que les systèmes actuels d’IA.
Starcloud, une startup soutenue par le programme NVIDIA Inception, veut bâtir des data centers en orbite. En novembre 2025, elle lancera un satellite équipé d’un GPU H100 pour tester le calcul intensif dans l’espace -- une idée ambitieuse, mais encore très expérimentale.
Starcloud, une startup soutenue par le programme NVIDIA Inception, veut bâtir des data centers en orbite. En novembre 2025, elle lancera un satellite équipé d’un GPU H100 pour tester le calcul intensif dans l’espace -- une idée ambitieuse, mais encore très expérimentale.
L’intelligence artificielle text-to-image Stable Diffusion de Stability AI permet de générer des images à partir de textes, à l’instar de MidJourney et DALL-E. Toutefois, cette IA est la seule à permettre de générer du contenu pornographique sans censure. Inutile de préciser que les internautes s’en donnent à coeur joie… découvrez tout ce que vous devez savoir.
Depuis plusieurs mois, DALL-E et MidJourney émerveillent les internautes en créant des oeuvres d’art à partir de leurs idées. Il suf
L’intelligence artificielle text-to-image Stable Diffusion de Stability AI permet de générer des images à partir de textes, à l’instar de MidJourney et DALL-E. Toutefois, cette IA est la seule à permettre de générer du contenu pornographique sans censure. Inutile de préciser que les internautes s’en donnent à coeur joie… découvrez tout ce que vous devez savoir.
Depuis plusieurs mois, DALL-E et MidJourney émerveillent les internautes en créant des oeuvres d’art à partir de leurs idées. Il suffit d’entrer des mots pour que ces IA génèrent de magnifiques dessins.
Malheureusement pour les amoureux d’art et de poésie, même l’IA text-to-image n’échappe pas à la règle 34 d’internet : la pornographie existe concernant tous les sujets concevables.
Le modèle de génération text-to-image Stable Diffusion de l’entreprise d’intelligence artificielle Stability AI vient d’être lancé, mais les gens l’utilisent déjà pour créer des images pornographiques.
Qu’est-ce que Stable Diffusion ?
Développé par Stability AI et lancé officiellement lancé le 22 août 2022, Stable Diffusion est un générateur freemium de texte à image qui crée des images étonnantes et détaillées à partir d’invites. Contrairement à DALL-E et Midjourney, il est open-source, ce qui signifie que vous êtes libre d’utiliser, de modifier ou de distribuer son code légalement. En septembre 2023, Stable Diffusion compte plus de 10 millions d’utilisateurs.
Depuis sa sortie, SDXL a bénéficié de plusieurs mises à jour, dont la version SDXL 1.0, qui a introduit une meilleure gestion des nuances, des détails anatomiques plus précis et une interprétation plus fine des invites textuelles.Cependant, les avancées ne s’arrêtent pas là. En 2025, une nouvelle version, Stable Diffusion 3.5 (SD3.5), a été lancée avec des améliorations de performance, y compris une optimisation pour les GPU AMD, ainsi que des capacités élargies pour créer des images plus réalistes dans des styles variés (photographie, art numérique, etc.).
Les utilisateurs doivent désormais vérifier les dernières versions comme SDXL 1.0, SD3.5 et SDXL Turbo pour accéder aux dernières innovations et fonctionnalités d’optimisation, particulièrement adaptées à des environnements professionnels ou de création artistique avancée.
Comment utiliser Stable Diffusion ?
Delighted to announce the public open source release of #StableDiffusion!
Pour profiter des fonctionnalités de Stable Diffusion, saisissez votre texte dans le champ réservé et cliquez ensuite sur « Générer ». Il est conseillé d’être le plus explicite possible lors de la rédaction du texte, étant donné que le logiciel prend en compte le langage naturel. Par exemple, vous pouvez simplement décrire le sujet et le style de l’image que vous souhaitez créer. En fonction de votre demande, le logiciel peut générer jusqu’à 4 images liées au texte. Pour avoir accès à ces propositions, il suffit de cliquer sur l’une d’entre elles et d’appuyer sur la touche « + ».
Selon Emad Mostaque, PDG de DreamStudio, cette API publique a pour but d’« étendre la créativité des utilisateurs et de leur permettre de vivre de nouvelles expériences ». D’autres fonctionnalités vont être ajoutées à DreamStudio, notamment la possibilité d’utiliser directement votre GPU local ou d’ajouter des animations.
Vous trouverez egalement les instructions pour utiliser Stable Diffusion via DreamStudioà cette adresse. En guise d’alternative à DreamStudio, HuggingFace offre aussi une interface web rudimentaire pour Stable Diffusion.
Gardez en tête que vous ne pouvez pas générer de contenu pornographique si vous utilisez DreamStudio. Pour créer ce type d’images, vous devez exécuter le modèle IA localement sur votre GPU. Le code complet est disponible sur GitHubà cette adresse.
Les systèmes nécessaires pour exécuter Stable Diffusion localement
Pour exécuter Stable Diffusion localement, il faut télécharger le modèle. En outre, il faut disposer d’une carte graphique Nvidia avec plus de 4 Go de RAM.
Quant aux cartes graphiques AMD, elles ne sont pas officiellement supportées, mais peuvent être utilisées avec quelques astuces. Or, bientôt les puces Apple M1 seront prises en charge.
En outre, si vous n’êtes pas très inspiré, vous pouvez utiliser un créateur de textes automatiqueà cette adresse. Pour rejoindre la communauté officielle de Stable Diffusion sur Discord, rendez-vous à cette adresse.
Stable Diffusion : l’IA text-to-image sans censure
Comme DALL-E Mini (CrAIyon) ou MidJourney, Stable Diffusion est capable de créer des images réalistes à partir de simples textes entrés par les internautes grâce aux réseaux de neurones.
Toutefois, les créateurs de ces MidJourney et DALL-E Mini ont implémenté des limites. Les requêtes contenant des mots violents ou à caractère sexuel sont automatiquement censurées.
De son côté, le modèle Stable Diffusion de Stability AI n’a aucune restriction. Les utilisateurs peuvent télécharger ce modèle et le modifier à leur guise pour générer n’importe quel contenu. Sans surprise, beaucoup s’en servent pour créer du contenu pornographique automatiquement.
Afin de développer son modèle IA, Stability AI a reçu l’aide de plus de 15 000 beta testeurs. En juillet 2022, elle a enfin ouvert l’accès à son outil pour les chercheurs.
Depuis lundi 22 août 2022, Stable Diffusion est ouvert à tous. Toutefois, ce modèle a fuité sur le web et notamment sur 4Chan bien avant sa sortie officielle.
Malgré l’interdiction fixée par l’entreprise de générer du contenu pornographique, et avant le lancement, de nombreux internautes égrillards se sont affairés à créer des images aussi grivoises que possible…
Stability AI interdit la création de porno… en vain
Depuis le début du mois d’août 2022, le forum de Stable Diffusion est inondé par les images pornographiques. Des dessins Hentai, des photos de célébrités nues, des scènes pornographiques imaginaires créées par l’IA affluent sur le site.
Pourtant, Stability AI s’oppose fermement à ce type de contenu. La version bêta de Stable Diffusion et l’application web DreamStudio interdisent le contenu pornographique ou érotique. Sur Twitter, l’entreprise avait demandé aux utilisateurs de « ne rien générer que vous auriez honte de montrer à votre mère ».
La firme précise que des filtres de contenu sont mis en place sur la plateforme. Elle applique donc la même forme de censure que MidJourney ou DALL-E Mini. En fait, la société demandait aux internautes de créer le contenu pour adulte uniquement sur leur propre GPU lorsque le modèle sera relaxé.
Toutefois, n’importe qui peut le copier pour l’exécuter sur son PC et les vils internautes s’empressent de créer des images obscènes. Néanmoins, les utilisateurs de Stable Diffusion doivent respecter les conditions d’utilisation de la licence du modèle. Il s’agit de la licence CreativeML OpenRAIL-M dont les termes sont les mêmes que ceux DALLE-Mini pour la version open-access.
Cette licence interdit notamment l’usage « détourné, malicieux ou malveillant ». Il est également proscrit de « générer des images que les gens risquent de trouver dérangeantes ou offensantes, ou du contenu propageant des stéréotypes historiques ou actuels ».
Reddit, Discord : où voir les images créées par Stable Diffusion ?
La différence entre le modèle Stable Diffusion et les autres IA text-to-image est qu’il est disponible en « open access » (accès libre). Cela signifie que n’importe qui peut télécharger le modèle et l’exécuter sur sa propre machine à la maison ou dans un laboratoire de recherche.
Il n’est pas nécessaire d’exploiter les serveurs de l’entreprise via le cloud. Or, les filtres et les règles de censure s’appliquent uniquement sur ces serveurs. Quatre subreddits dédiés au contenu licencieux ont déjà vu le jour :
r/unstablediffusion,
r/PornDiffusion,
r/HentaiDiffusion
et r/stablediffusionnsfw.
En 2025, les communautés autour de Stable Diffusion ont explosé. Les subreddits dédiés au contenu NSFW tels que r/unstablediffusion , r/PornDiffusion , r/HentaiDiffusion et r/stablediffusionnsfw regroupent désormais plus de 80 000 membres cumulés , contre seulement 2 000 à leurs débuts.
Le Subreddit principal r/StableDiffusion dépasse à lui seul 1,2 million d’abonnés. ce qui confirme l’engouement massif pour cette IA. Parallèlement, des serveurs Discord très actifs rassemblent des milliers d’utilisateurs qui partagent des invites, des modèles optimisés et des créations visuelles, souvent via des bots spécialisés. Ces communautés sont aujourd’hui des lieux incontournables pour échanger sur les techniques avancées et découvrir les dernières innovations liées à SD3.5 et ses variantes optimisées pour AMD.
Midjourney just launched a beta version of their system, which combines Midjourney and Stable Diffusion. Here are a few examples. Made only by writing text prompts to their discord bot. To test it yourself, just write –beta after your Midjourney prompt.#midjourney#conceptartpic.twitter.com/Wj5PJ4npgR
LAION : un dataset d’entraînement « truffé d’images porno »
Afin d’obtenir les dessins souhaités, les utilisateurs rédigent de longues descriptions qu’ils partagent et complètent entre eux. Par exemple, un dessin a été créé à partir du texte « peinture à l’huile d’une princesse blanche nue réaliste exposée seins symétriques et cuisses réalistes exposées avec de charmants yeux détaillés, le ciel, page de couleur, tankoban, 4K, cartographie de tons, poupée, akihiko yoshida, james dean, andrei riabovitchev, marc simonetti, yoshitaka amano, longs cheveux, bouclés ».
Ces textes sont ensuite fournis à l’IA pour la laisser créer une image. Stable Diffusion a été entraîné en utilisant 4000 GPU Nvidia A100, sur un ensemble de données nommé « LAION-Aesthetics ». En fait, LAION est l’anagramme de Large-scale Artificial Intelligence Open Network (réseau ouvert d’intelligence artificielle à grande échelle). Il s’agit d’une organisation non lucrative consacrée à l’IA.
Le dataset open source LAION 5B pèse 250 terabytes et contient 5,6 milliards d’images collectées sur internet. Son prédécesseur LAION-400M était connu pour contenir du contenu aberrant. Une étude de 2021 révélait qu’il comportait « de nombreux textes et images troublants et explicites de viols, pornographie, stéréotypes malins, insultes racistes, et autre contenu extrêmement problématique ».
L’équipe Google Research a elle aussi entraîné son modèle texte-to-image Imagen sur LAION-400M. Les chercheurs ont préférééviter d’ouvrir l’accès à leur modèle au public de peur qu’il produise des représentations blessantes et mette en scène des stéréotypes.
Pour remédier au problème, Stability AI a réduit LAION 5B de deux milliards à 120 millions d’images en entraînant un modèle à prédire la note de 1 à 10 que les gens donneraient à une image. Seules les meilleures ont été retenues pour le dataset LAION-Aesthetics. Le but étant notamment d’éliminer les images pornographiques.
Le danger des DeepFakes
The public release of the Stable Diffusion model is not just the death knell of the stock photo industry. Unless there are significant legal changes, an ecosystem of apps that let everyone generate produce and modify audio, 3d, animations, video will trigger a media revolution.
Si des images de hentaï générées par une IA n’ont rien de bien dangereux, Stable Diffusion peut être détourné pour générer du contenu beaucoup plus problématique : des DeepFakes. Les internautes peuvent utiliser cette IA pour créer de fausses photos nues de célébrités. Il suffit de lui fournir la photo d’une star, et de lui laisser imaginer son corps dénudé.
Les DeepFakes générés grâce à l’IA posent problème aux chercheurs et aux ingénieurs depuis plusieurs années. Mais encore, les nouveaux modèles text-to-images dans la lignée de Stable Diffusion ne vont clairement pas arranger les choses.
Contrairement à DALL-E ou MidJourney, Stable Diffusion peut être utilisé pour créer de fausses photos de célébrités car l’ensemble de données LAION open-source sur lequel il est entraîné contient de nombreuses photos de stars.
De telles photos peuvent nuire à la réputation d’une vedette, même si elles sont fausses. Les images générées par l’IA ne sont pas encore suffisamment réalistes pour être pris pour de vrais clichés, mais pourraient rapidement le devenir…
Un américain arrêté pour générer des images pédopornographiques sur Stable Diffusion
En mai 2024, un habitant du Wisconsin, Steven Anderegg, a été arrêté pour avoir utilisé Stable Diffusion, pour générer plus de 13 000 images pédopornographiques réalistes. Le ministère de la Justice américain a déclaré que c’est une première affaire où l’utilisation d’une IA générateur d’image sans censure a conduit à des poursuites judiciaires. Cette arrestation souligne l’ampleur des défis posés par les technologies d’IA dans la lutte contre la pédopornographie.
Anderegg utilisait Stable Diffusion, un générateur d’images open-source qui permet de créer des images réalistes à partir de descriptions textuelles. Malgré les mesures mises en place pour empêcher la création de contenus explicites, il a réussi à contourner ces restrictions. En plus de générer des images, il a également partagé certaines d’entre elles via Instagram avec un mineur de 15 ans, expliquant comment il avait utilisé l’outil pour produire ces images.
L’arrestation de cet individu met en lumière les risques croissants associés à l’utilisation des IA pour créer du contenu abusif. Europol a également signalé une augmentation significative des cas où des technologies d’IA sont utilisées pour générer ou altérer des images d’abus sexuels sur enfants. Ces images posent des défis majeurs pour l’identification des victimes réelles et compliquent les efforts des autorités pour surveiller et contrôler ce type de matériel en ligne.
Le cas d’Anderegg montre l’importance de renforcer les mesures de sécurité autour des IA générateur d’image sans censure. Plus encore, de maintenir un engagement ferme pour protéger les enfants contre toutes formes d’exploitation, même celles facilitée par les avancées technologiques (KION546) (DW).
Des datasets plus responsables : les efforts de Stability AI pour répondre aux critiques
L’utilisation de datasets de grande échelle comme LAION-5B a permis à Stable Diffusion de devenir une référence en matière de génération d’images text-to-image. Cependant, ces ensembles de données massifs ont également attiré de vives critiques. Effectivement, LAION-5B et ses prédécesseurs, tels que LAION-400M, contenaient une proportion significative de contenus explicites, violents ou biaisés. Ce qui a suscité des préoccupations éthiques et légales.
Consciente de ces défis, Stability AI a pris des mesures pour améliorer la qualité et la responsabilité de ses datasets. Le lancement de LAION-Aesthetics en est une illustration. Ce dataset réduit la quantité d’imagesproblématiques. Pour ce faire, il utilise des modèles de filtrage capables de prédire la qualité esthétique des contenus. Ce processus a permis de passer de 5,6 milliards d’images dans LAION-5B à seulement 120 millions dans LAION-Aesthetics. Ces images ont été sélectionnées pour leur valeur artistique et leur conformité à des normes éthiques élevées.
Malgré ces efforts, des critiques persistent. Certains soulignent que des contenus explicites subsistent, et que le filtrage basé sur des modèles peut introduire de nouveaux biais. Cependant, ces améliorations marquent une étape essentielle vers une IA générative plus sûre et éthique. Plus encore, elles montrent la volonté de Stability AI de répondre aux préoccupations croissantes du public et des régulateurs.
Comment utiliser un générateur d’images IA sans censure en 2025 ?
La première étape consiste à choisir un ia générateur d’image sans censure comme Stable Diffusion sur des plateformes en ligne qui l’hébergent. Vous pouvez créer un compte avec une simple adresse email. En 2025, certaines plateformes proposent même une connexion via Google ou d’autres réseaux sociaux.
Une fois connecté, vous arrivez généralement sur une interface avec un champ de texte principal. C’est ici que vous écrirez votre prompt, c’est-à-dire la description détaillée de l’image que vous souhaitez générer. Plus votre description est précise, meilleur sera le résultat.
Lors de la rédaction du prompt, pensez à inclure des détails sur le style artistique souhaité. Personnalisez votre requête : photo réaliste, peinture à l’huile, aquarelle, ambiance lumineuse, sombre, chaleureuse, etc. N’hésitez pas à utiliser des termes techniques comme « 4K », « haute résolution », ou « hyperréaliste » pour améliorer la qualité.
Les paramètres avancés permettent également d’affiner votre création en 2025. Vous pourrez ajuster la taille de l’image, le nombre d’itérations (combien d’images seront générées), et parfois même le « seed » (un nombre qui permet de reproduire exactement la même image). Ces options sont souvent accessibles via un menu déroulant ou des boutons dédiés.
Après avoir lancé la génération, l’IA mettra quelques secondes à quelques minutes pour créer vos images. Vous pourrez alors les télécharger, les modifier ou les régénérer si le résultat ne vous convient pas. Pour améliorer une image, vous pouvez ajuster votre prompt en fonction du résultat obtenu.
Stable Diffusion 3.5 arrive avec support optimisé AMD
Récemment, Stability AI a élargi le champ d’utilisation de Stable Diffusion 3.5 Large (SD3.5 Large). Ce modèle est disponible sur Microsoft Azure AI Foundry depuis février 2025. Ce nouveau cap offre des capacités avancées de génération d’images à partir de texte et d’image. Elle se distingue notamment par sa fidélité exceptionnelle aux prompts et sa diversité stylistique remarquable.
Effectivement, ses 8,1 milliards de paramètres fournissent à SD3.5 Large la capacité de produire des visuels dans une multitude de styles. Vous y trouverez de quoi générer de la photographie, du dessin ou de l’art numérique.
Et plus récemment, Stability AI a collaboré avec AMD pour optimiser Stable Diffusion pour les GPU Radeon™ et les APU Ryzen™ AI. Cette collaboration a abouti à des versions des modèles SD3.5 Large, SD3.5 Large Turbo, SDXL 1.0 et SDXL Turbo optimisées via ONNX. Ce qui accède à une exécution jusqu’à 3,8 fois plus rapide sur le matériel AMD. Ces modèles optimisés sont disponibles sur Hugging Face. Ils sont facilement identifiables par le suffixe « _amdgpu », et peuvent être utilisés avec l’outil Amuse 3.0.
FAQ
Peut-on utiliser Stable Diffusion pour générer des images porno ?
Oui, Stable Diffusion peut théoriquement être utilisé pour générer des images de n’importe quel type, y compris des images pornographiques. Cependant, cela dépend de la manière dont l’outil est déployé. Sur les plateformes officielles comme DreamStudio (l’interface officielle de Stability AI), des filtres et restrictions sont en place pour interdire ce genre de contenu.
Stability AI autorise-t-elle la création de contenu porno avec Stable Diffusion ?
Non, Stability AI interdit la création de contenu pornographique via ses plateformes officielles comme DreamStudio. Les conditions d’utilisation du modèle de Stable Diffusion précisent que la création de contenu pornographique, violent ou nuisible est prohibée sur ces plateformes. Ils appliquent des filtres de censure pour empêcher la génération d’images à caractère sexuel explicite.
Comment éviter la création de contenu explicite avec Stable Diffusion ?
Pour éviter la génération de contenu explicite, il est essentiel de respecter les conditions d’utilisation des plateformes qui hébergent Stable Diffusion, comme DreamStudio. Ces plateformes appliquent des filtres de censure pour bloquer la création de contenu pornographique. De plus, des utilisateurs doivent se conformer aux règles de la licence CreativeML OpenRAIL-M, qui interdit la création de contenu nuisible ou inapproprié.
À partir du 15 octobre 2025, le géant américain Nvidia commercialisera le DGX Spark, présenté comme un « supercalculateur d’IA personnel ». Ce poste de travail surpuissant, basé sur l’architecture Blackwell, promet aux chercheurs et ingénieurs d’entraîner ou d’affiner localement des modèles massifs, sans dépendre exclusivement du cloud.
À partir du 15 octobre 2025, le géant américain Nvidia commercialisera le DGX Spark, présenté comme un « supercalculateur d’IA personnel ». Ce poste de travail surpuissant, basé sur l’architecture Blackwell, promet aux chercheurs et ingénieurs d’entraîner ou d’affiner localement des modèles massifs, sans dépendre exclusivement du cloud.
Le partenariat annoncé le 6 octobre 2025 entre OpenAI et le concepteur de puces AMD a fait bondir l’action du groupe à un niveau historique. Une alliance stratégique qui rebat les cartes d’un marché de l’IA dominé jusqu’ici par Nvidia.
Le partenariat annoncé le 6 octobre 2025 entre OpenAI et le concepteur de puces AMD a fait bondir l’action du groupe à un niveau historique. Une alliance stratégique qui rebat les cartes d’un marché de l’IA dominé jusqu’ici par Nvidia.
La multinationale américaine des puces électroniques Nvidia a annoncé le 22 septembre 2025 vouloir investir 100 milliards de dollars dédiés à la construction de centres de données pour OpenAI. Le but notamment : « développer la prochaine ère de l'intelligence ».
La multinationale américaine des puces électroniques Nvidia a annoncé le 22 septembre 2025 vouloir investir 100 milliards de dollars dédiés à la construction de centres de données pour OpenAI. Le but notamment : « développer la prochaine ère de l'intelligence ».
Les autorités chinoises ont annoncé cette semaine interdire aux géants comme ByteDance et Alibaba d’acheter certaines puces Nvidia. Selon elles, l'entreprise américaine aurait « violé la loi anti-monopole ». Une décision qui rappelle l’embargo américain contre Huawei.
Les autorités chinoises ont annoncé cette semaine interdire aux géants comme ByteDance et Alibaba d’acheter certaines puces Nvidia. Selon elles, l'entreprise américaine aurait « violé la loi anti-monopole ». Une décision qui rappelle l’embargo américain contre Huawei.
Une semaine de travail plus courte grâce à l’IA ne signifie pas moins de labeur, mais une redirection de l’énergie vers l’innovation. Préparez-vous à un rythme effréné.
Il n’y a pas si longtemps, les grandes figures de la tech et de l’IA défendaient l’idée d’un revenu universel. Aujourd’hui, Jensen Huang, PDG de Nvidia, avance une autre vision. Selon lui, l’IA pourrait bientôt réduire la semaine de travail à quatre jours. Cependant, cette semaine de travail réduite s’accompagne de journées pl
Une semaine de travail plus courte grâce à l’IA ne signifie pas moins de labeur, mais une redirection de l’énergie vers l’innovation. Préparez-vous à un rythme effréné.
Il n’y a pas si longtemps, les grandes figures de la tech et de l’IA défendaient l’idée d’un revenu universel. Aujourd’hui, Jensen Huang, PDG de Nvidia, avance une autre vision. Selon lui, l’IA pourrait bientôt réduire la semaine de travail à quatre jours. Cependant, cette semaine de travail réduite s’accompagne de journées plus denses, une productivité accrue et des exigences toujours plus élevées.
Semaine de travail réduite grâce à l’IA
Lors d’une interview accordée à Liz Claman dans The Claman Countdown sur Fox Business Network, Jensen Huang a comparé l’impact de l’IA à celui des grandes révolutions industrielles. Selon le PDG de Nvidia, chaque avancée technologique change profondément les comportements sociaux.
Au XIXe siècle, la révolution industrielle a fait passer le rythme de sept ou six jours de labeur à une semaine standard de cinq jours. L’IA pourrait, à son tour, installer la norme d’une semaine de travail de quatre jours.
Cette prédiction repose sur la capacité de l’IA à automatiser des tâches complexes, libérant du temps pour les travailleurs.
L’idée n’a rien d’utopique. En Grande-Bretagne et en Amérique du Nord, des études pilotes révèlent que les employés atteignent les mêmes résultats en 33 à 34 heures par semaine. La productivité progresse de 24 %, les cas de burn-out diminuent de moitié et les arrêts maladie reculent nettement.
Aux Pays-Bas, la semaine de 32 heures s’impose même dans certains secteurs. Cela a amélioré la qualité de vie sans réduire les performances.
Le paradoxe de la productivité
Huang nuance aussitôt son propos. Loin de ralentir le rythme, l’IA risque d’intensifier le travail. « J’ai peur de dire que nous serons plus occupés à l’avenir qu’aujourd’hui », a-t-il confié à Claman.
Si l’IA accélère l’exécution des tâches, elle libère aussi un espace mental pour concevoir et concrétiser davantage d’idées. Entrepreneur visionnaire, Huang reconnaît que ses projets se heurtent souvent au temps limité nécessaire pour les réaliser.
« J’attends toujours que le travail soit fait parce que j’ai plus d’idées », a-t-il expliqué. Selon lui, la plupart des entreprises croulent sous les idées, mais manquent de ressources ou de temps pour les exploiter. L’IA pourrait lever cette barrière avec une semaine de travail de 4 jours, mais au prix d’une charge accrue.
Historiquement, les grandes innovations n’ont pas toujours tenu leurs promesses en matière de productivité. L’IA pourrait, cette fois, faire exception.
D’après Bank of America Research, les entreprises du S&P 500 pourraient connaître un boom en exploitant l’IA pour accomplir davantage avec moins. Cette efficacité réduit la dépendance à la main-d’œuvre, mais accroît les attentes.
Les salariés, libérés des tâches routinières grâce à l’IA, se voient confier des projets plus ambitieux, ce qui intensifie la semaine de travail. « La plupart des entreprises ont plus d’idées qu’elles ne savent quoi en faire. » insiste Huang.
Néanmoins, il reconnaît que certains métiers disparaîtront tandis que de nouveaux verront le jour. Chaque poste, cependant, se transformera sous l’effet de l’IA.
Les entreprises qui adoptent la semaine de travail de quatre jours devront trouver l’équilibre entre productivité et bien-être, sous peine de voir les bénéfices de l’IA annulés par une surcharge mentale.
Promis depuis 2019 comme la pièce maîtresse de l’IA de Tesla, le supercalculateur Dojo devait libérer l’entreprise de sa dépendance à Nvidia, grâce à ses propres puces « maison ». En 2025, le projet initial est abandonné, et Elon Musk minimise l’échec.
Promis depuis 2019 comme la pièce maîtresse de l’IA de Tesla, le supercalculateur Dojo devait libérer l’entreprise de sa dépendance à Nvidia, grâce à ses propres puces « maison ». En 2025, le projet initial est abandonné, et Elon Musk minimise l’échec.
Les tensions commerciales entre Washington et Pékin sur la question cruciale des semi-conducteurs n'en finissent plus. Nvidia se retrouve cet été au cœur des soupçons : la Chine exige des « preuves de sécurité convaincantes » concernant ses puces H20, soupçonnées d’abriter des portes dérobées.
Les tensions commerciales entre Washington et Pékin sur la question cruciale des semi-conducteurs n'en finissent plus. Nvidia se retrouve cet été au cœur des soupçons : la Chine exige des « preuves de sécurité convaincantes » concernant ses puces H20, soupçonnées d’abriter des portes dérobées.
La Commission européenne dit s'engager à ce que l'Europe achète pour 40 milliards d'euros de puces spécialisées dans l'IA. Mais comme pour d'autres promesses liées à l'accord entre l'Union européenne et les USA, cette perspective ne semble pas contraignante.
La Commission européenne dit s'engager à ce que l'Europe achète pour 40 milliards d'euros de puces spécialisées dans l'IA. Mais comme pour d'autres promesses liées à l'accord entre l'Union européenne et les USA, cette perspective ne semble pas contraignante.
L’Europe serait à la traîne dans la course mondiale à l’IA sans une stratégie souveraine solide, avertit NVIDIA lors de VivaTech 2025.
11 juin 2025, à Paris – Jensen Huang, PDG de NVIDIA, a captivé l’audience lors de son discours d’ouverture du salon VivaTech 2025. Son message est clair : l’intelligence artificielle (IA) est un égalisateur mondial, mais l’Europe risque de devenir insignifiante sans une stratégie efficace.
L’Europe face à un défi de souveraineté de l’IA
Malgré ses atouts
L’Europe serait à la traîne dans la course mondiale à l’IA sans une stratégie souveraine solide, avertit NVIDIA lors de VivaTech 2025.
11 juin 2025, à Paris – Jensen Huang, PDG de NVIDIA, a captivé l’audience lors de son discours d’ouverture du salon VivaTech 2025. Son message est clair : l’intelligence artificielle (IA) est un égalisateur mondial, mais l’Europe risque de devenir insignifiante sans une stratégie efficace.
L’Europe face à un défi de souveraineté de l’IA
Malgré ses atouts, l’Europe ne contrôle que 5 % des capacités mondiales de calcul en IA. Un déficit qui menace son autonomie stratégique.
Les États-Unis dominent grâce à leurs géants tels que Google, Microsoft et OpenAI, tandis que la Chine avance avec une stratégie étatique centralisée.
Lors de sa keynote à VivaTech 2025, Jensen Huang a souligné ce défi. « Sans infrastructures propres en IA, l’Europe risque de devenir insignifiante dans la course mondiale ».
Le PDG de NVIDIA a plaidé pour une IA souveraine, respectant les données, cultures et valeurs locales. Il rappelle que cette technologie n’est pas réservée à une élite.
En réduisant les coûts de calcul, la Green Team démocratise l’accès pour les startups et les nations. Cependant, sans infrastructures propres pour l’IA, l’Europereste dépendante des acteurs étrangers, ce qui constitue un frein à son autonomie stratégique.
Des partenariats majeurs à VivaTech 2025
En France, un partenariat avec Mistral AI déploie 18 000 puces Blackwell pour créer Mistral Compute, une plateforme cloud souveraine. En Allemagne, un cloud IA soutient l’industrie manufacturière grâce à Siemens.
We're proud to announce Mistral Compute—an unprecedented AI infrastructure undertaking in Europe, and a strategic initiative that will ensure that all nation states, enterprises, and research labs globally remain at the forefront of AI innovation.
Des projets similaires voient le jour en Italie, Espagne, Finlande et au Royaume-Uni, où un laboratoire IA est mis en place. Des initiatives qui contrastent avec la prudence réglementaire de Bruxelles.
Si l’Europe excelle en matière de droits numériques, une législation de trop stricte pourrait freiner l’innovation, contrairement à l’approche des États-Unis. L’IA soulève en effet des préoccupations légitimes, telles que la surveillance, les deepfakes, les pertes d’emplois et les biais algorithmiques.
Pour y remédier, Jensen Huang propose une gouvernance multicouche où des IA supervisent d’autres IA pour garantir leur fiabilité. Ce modèle, comparé à une nouvelle révolution industrielle, positionne ces technologies comme l’électricité du 21ᵉ siècle.
Mais là où les États-Unis investissent massivement dans des AI Factories, l’Europe manque de data centers compétitifs pour l’IA.
La Chine, quant à elle, accélère avec une stratégie centralisée. En contrario, l’Europe mise sur des alliances, comme celle avec Mistral AI, soutenue par le président Macron.
Par ailleurs, certains critiquent un risque de « sacerdoce technologique », où l’accès aux ressources IA serait réservé aux plus riches. Huang réfute cette idée. Les puces Blackwell et les collaborations avec BMW ou Perplexity rendent l’IA accessible.
Depuis le retour de Donald Trump, l'action Nvidia a perdu 20 % de sa valeur (-35 % pendant la crise des tarifs douaniers). Jensen Huang, son patron, alerte le président américain : la Chine n'est pas en retard sur l'IA et une guerre commerciale ne fera que renforcer la concurrence.
Depuis le retour de Donald Trump, l'action Nvidia a perdu 20 % de sa valeur (-35 % pendant la crise des tarifs douaniers). Jensen Huang, son patron, alerte le président américain : la Chine n'est pas en retard sur l'IA et une guerre commerciale ne fera que renforcer la concurrence.