Vue normale
-
IA
-
IA : Vsora, la pépite française qui veut défier Nvidia avec ses puces fabriquées par TSMC
Le déploiement de l’intelligence artificielle (IA) ouvre la voie à de nouveaux concepteurs de puces dans un marché ultra-dominé par Nvidia....
-
IA
-
IA : Nvidia, AMD, Broadcom... L'économie en vase clos autour d’OpenAI inquiète
OpenAI poursuit sa frénésie d’achat de puissance de calcul pour développer ses modèles d’intelligence artificielle (IA). Que ce soit auprès des...
IA : Nvidia, AMD, Broadcom... L'économie en vase clos autour d’OpenAI inquiète
-
IA
-
AMD, Google, Qualcomm… Dans les puces pour l’intelligence artificielle, la concurrence à Nvidia émerge (lentement)
Plus de 80% de parts de marché sur les puces pour l’IA, et même 94% pour les seules GPU (puces graphiques) selon le cabinet d’analyse Jon...
AMD, Google, Qualcomm… Dans les puces pour l’intelligence artificielle, la concurrence à Nvidia émerge (lentement)
-
Intelligence artificielle : les articles et enquêtes de la rédaction de Numerama

-
OpenAI et AMD signent un accord : l’action bat des records en bourse
Le partenariat annoncé le 6 octobre 2025 entre OpenAI et le concepteur de puces AMD a fait bondir l’action du groupe à un niveau historique. Une alliance stratégique qui rebat les cartes d’un marché de l’IA dominé jusqu’ici par Nvidia.
OpenAI et AMD signent un accord : l’action bat des records en bourse
![]()
Le partenariat annoncé le 6 octobre 2025 entre OpenAI et le concepteur de puces AMD a fait bondir l’action du groupe à un niveau historique. Une alliance stratégique qui rebat les cartes d’un marché de l’IA dominé jusqu’ici par Nvidia.
-
Intelligence artificielle
-
AMD met les bouchées doubles face à Nvidia en rachetant Untether AI
AMD passe la vitesse supérieure en matière d'intelligence artificielle. Et enchaîne au passage les acquisitions pour se constituer l'expertise...
AMD met les bouchées doubles face à Nvidia en rachetant Untether AI
-
Intelligence artificielle
-
IA : Humain, la start-up d'Etat saoudienne qui fricote avec AMD, AWS et Nvidia
Cette semaine, le président américain Donald Trump était en tournée pour caresser dans le sens du poil l'Arabie Saoudite. Il n'est évidemment...
IA : Humain, la start-up d'Etat saoudienne qui fricote avec AMD, AWS et Nvidia
-
Intelligence artificielle
-
TSMC propose de reprendre les usines Intel, le plan présenté à AMD, Broadcom et Nvidia
TSMC accélère. Le fabricant taïwanais aurait exposé aux pontes de la tech AMD, Broadcom et Nvidia son plan de joint-venture qui exploiterait...
TSMC propose de reprendre les usines Intel, le plan présenté à AMD, Broadcom et Nvidia
-
Intelligence artificielle
-
MWC 2025 : Les initiatives se multiplient pour aider les télécoms à s'emparer de l'IA
Le Mobile World Congress 2025 est un rendez-vous décisif, autant pour le secteur technologique que pour le secteur des télécoms. Les deux...
MWC 2025 : Les initiatives se multiplient pour aider les télécoms à s'emparer de l'IA
-
Intelligence artificielle : les articles et enquêtes de la rédaction de Numerama

-
Nvidia et les géants américains de l’IA s’effondrent en bourse à cause de DeepSeek
Nvidia, AMD, Microsoft, Google ou ARM… Les grandes entreprises de l'intelligence artificielle connaissent une correction boursière sévère à cause de l'émergence de DeepSeek, le ChatGPT chinois devenu numéro 1 des téléchargements sur l'App Store. Les investisseurs semblent ne pas comprendre ce qu'il se passe.
Nvidia et les géants américains de l’IA s’effondrent en bourse à cause de DeepSeek
![]()
Nvidia, AMD, Microsoft, Google ou ARM… Les grandes entreprises de l'intelligence artificielle connaissent une correction boursière sévère à cause de l'émergence de DeepSeek, le ChatGPT chinois devenu numéro 1 des téléchargements sur l'App Store. Les investisseurs semblent ne pas comprendre ce qu'il se passe.
-
Intelligence artificielle
-
Epaulée par AMD, la start-up Aleph Alpha dévoile une architecture LLM sans tokenizer
Présente au Forum Économique Mondial à Davos, la start-up allemande Aleph Alpha a annoncé une nouvelle architecture LLM sans tokenizer baptisé...
Epaulée par AMD, la start-up Aleph Alpha dévoile une architecture LLM sans tokenizer
-
Intelligence artificielle
-
CES 2025 : Ryzen 9950X3D, RDNA 4, Radeon RX 9000, PC IA... Les actus d'AMD à retenir
AMD profite du CES qui se déroule en ce moment même à Las Vegas pour mettre le paquet sur l'IA générative. Gaming, PC IA, et de nouveaux...
CES 2025 : Ryzen 9950X3D, RDNA 4, Radeon RX 9000, PC IA... Les actus d'AMD à retenir
-
Intelligence artificielle
-
Soutenue par AMD, la start-up Liquid AI lève 250 millions de dollars
En janvier dernier, nous dressions le portrait d'une start-up à peine sortie de l'œuf, ambitionnant de révolutionner le paysage de l’IA avec un...
Soutenue par AMD, la start-up Liquid AI lève 250 millions de dollars
-
Intelligence artificielle
-
Pour la première fois, AMD dépasse Intel dans les centres de données
C’est une passation de témoin qui symbolise deux dynamiques opposées. Au troisième trimestre, AMD a dépassé Intel sur le marché des data...
Pour la première fois, AMD dépasse Intel dans les centres de données
-
Intelligence artificielle
-
Intel est-il incapable de rattraper AMD et Nvidia sur le marché des accélérateurs IA ?
Ils sont censés être la promesse d'une remontée stratégique sur le marché des semi-conducteurs, notamment sur celui des processeurs dédiés à...
Intel est-il incapable de rattraper AMD et Nvidia sur le marché des accélérateurs IA ?
-
Intelligence artificielle
-
OpenAI va construire sa propre puce main dans la main avec Broadcom et TSMC
Les entreprises technologiques s'affrontent sur tous les fronts : infrastructures physique et virtuelle, énergie, processeurs dernier cri,...
OpenAI va construire sa propre puce main dans la main avec Broadcom et TSMC
-
Intelligence artificielle
-
IA générative : Lenovo dévoile un chatbot capable de tourner en local sur ses nouveaux "PC IA"
Cette décennie sera celle de l'intelligence artificielle. Du moins à en croire Lenovo. Ce 15 octobre, la firme chinoise a ouvert les portes de...
IA générative : Lenovo dévoile un chatbot capable de tourner en local sur ses nouveaux "PC IA"
-
Intelligence artificielle
-
Les Etats-Unis réfléchissent à restreindre les exportations de puces vers de nouveaux pays, un signal d'alarme pour l'Europe ?
Après avoir interdit l’exportation vers la Chine des puces dédiées à l’intelligence artificielle, les Etats-Unis pourraient bientôt élargir...
Les Etats-Unis réfléchissent à restreindre les exportations de puces vers de nouveaux pays, un signal d'alarme pour l'Europe ?
-
ActuIA

-
Advancing AI 2024 : un évènement AMD dédié à l’IA générative et au HPC
Lors de l’événement Advancing AI 2024, le 10 octobre dernier, Lisa SU a dévoilé les dernières solutions d’AMD conçues pour répondre aux besoins de l’IA à grande échelle dans les entreprises, les centres de données et le cloud. Parmi ces innovations, la 5ème génération de processeurs AMD EPYC, les accélérateurs AMD Instinct MI325X, les processeurs AMD Ryzen AI PRO série 300, ainsi que des solutions réseau de nouvelle génération. AMD étend les performances de ses accélérateurs En juin 2023, Lisa
Advancing AI 2024 : un évènement AMD dédié à l’IA générative et au HPC
Lors de l’événement Advancing AI 2024, le 10 octobre dernier, Lisa SU a dévoilé les dernières solutions d’AMD conçues pour répondre aux besoins de l’IA à grande échelle dans les entreprises, les centres de données et le cloud. Parmi ces innovations, la 5ème génération de processeurs AMD EPYC, les accélérateurs AMD Instinct MI325X, les processeurs AMD Ryzen AI PRO série 300, ainsi que des solutions réseau de nouvelle génération.
AMD étend les performances de ses accélérateurs
En juin 2023, Lisa Su, PDG d’AMD, dévoilait le GPU Instinct MI300X, conçu pour l’IA générative et le HPC. Selon elle, les AMD Instinct MI325X établissent une nouvelle norme en matière de performances et d’efficacité pour l’entraînement et l’inférence des modèles d’IA générative et les centres de données Gen AI.
![]()
Le MI325X utilise la même architecture CDNA 3 que son prédécesseur. Pour la mémoire, AMD opte, comme NVIDIA avant lui avec le H200, pour la HBM3e, une mémoire 50 % plus rapide que la HBM3. Sa capacité étendue à 256 Go de HBM3e supporte un débit de 6,0 To/s, ce qui représente, selon AMD, 1,8 fois plus de capacité et 1,3 fois plus de bande passante que le H200. L’AMD Instinct MI325X offrirait également des performances théoriques en calcul FP16 et FP8 supérieures de 1,3 fois à celles de son concurrent.
Cette mémoire et ce calcul de pointe peuvent fournir, selon la société, jusqu’à 1,3 fois les performances d’inférence sur Mistral 7B à FP16, 1,2 fois les performances d’inférence sur Llama 3.1 70B à FP8, et 1,4 fois les performances d’inférence sur Mixtral 8x7B à FP16, du H200.
Les accélérateurs AMD Instinct MI325X devraient être mis en production ce trimestre et disponibles sur “le système d’un large éventail de fournisseurs de plateformes, notamment Dell Technologies, Eviden, Gigabyte, Hewlett Packard Enterprise, Lenovo, Supermicro et d’autres à partir du 1er trimestre 2025”.
AMD a d’autre part dévoilé en avant-première de nouveaux détails sur la prochaine génération d’accélérateurs AMD Instinct série MI350, qui devraient être disponibles au second trimestre 2025. Basés sur l’architecture AMD CDNA 4 et équipés de jusqu’à 288 Go de mémoire HBM3E, ces accélérateurs offriront une amélioration des performances d’inférence jusqu’à 35 fois supérieure par rapport à leurs prédécesseurs basés sur l’architecture AMD CDNA 3.
AMD a également déclaré avoir fait des progrès significatifs dans le développement des accélérateurs AMD Instinct MI400 Series basés sur l’architecture AMD CDNA Next, dont la disponibilité est prévue en 2026.
Les processeurs EPYC Série 9005
Conçue pour répondre aux exigences croissantes de l’IA et des charges de travail critiques de l’entreprise, la gamme AMD EPYC série 9005 utilise une conception hybride à puces multiples et des cœurs ‘Zen 5’ et ‘Zen 5c’. Elle comprend 29 processeurs différents, variant en termes de nombre de cœurs, de fréquences, de cache et de consommation électrique.
Ils intègrent des fonctionnalités avancées comme la prise en charge de la mémoire DDR5, des canaux PCIe Gen 5, ainsi que des optimisations pour les charges de travail liées à l’IA et au machine learning. Ils offrent également une haute densité de cœurs (jusqu’à 192 cœurs) et une efficacité énergétique améliorée, ce qui les rend idéaux pour les environnements virtualisés et les applications en cloud.
Selon AMD, il est possible de remplacer 100 anciens serveurs à deux sockets équipés de processeurs Intel Xeon 8280 de 28 cœurs par environ 14 nouveaux serveurs à deux sockets équipés de processeurs AMD EPYC 9965 qui comptent 192 cœurs.
La société affirme :
« Avec des chemins de données de 512 bits dans le cœur, des optimisations du pipeline d’instructions et des unités supplémentaires pour les opérations entières et en virgule flottante, le processeur peut exécuter une large gamme de charges de travail IA sur une infrastructure uniquement basée sur CPU, sans nécessiter d’accélération GPU ».
Processeurs AMD Ryzen AI PRO pour les PC d’entreprise
AMD a également présenté les processeurs Ryzen AI PRO série 300, destinés aux PC d’entreprise, intégrant les architectures Zen 5 et AMD XDNA 2, qui équipent les premiers ordinateurs portables Microsoft Copilot+.
Solutions réseau de nouvelle génération
L’entreprise a également élargi son portefeuille de réseaux haute performance pour répondre à l’évolution des exigences de mise en réseau système pour l’infrastructure d’IA avec le réseau frontal AMD Pensando Salina DPU. L’AMD Pensando Pollara 400, première carte réseau compatible avec l’Ultra Ethernet Consortium, conçue pour optimiser le transfert de données au sein des réseaux d’IA back-end pour la communication GPU à GPU, réduit la complexité du réglage des performances et contribue à améliorer le délai de production.
Optimisation des modèles d’IA avec ROCm
AMD continue également d’améliorer sa pile logicielle ROCm : ROCm 6.2 prend désormais en charge des fonctionnalités d’IA critiques telles que le type de données FP8, Flash Attention 3, Kernel Fusion, doublant les performances d’inférence et d’entraînement des LLM sur les accélérateurs AMD Instinct. Aujourd’hui, plus d’un million de modèles IA fonctionnent sur l’architecture AMD, avec une compatibilité sans faille pour les modèles les plus populaires, dont ChatGPT d’OpenAI et Llama de Meta ou les modèles open source de la plateforme Hugging Face.
Lors de l’événement, AMD s’est entouré de partenaires technologiques de premier plan tels que Dell, Google Cloud, HPE, Lenovo, Meta, Microsoft, Oracle Cloud Infrastructure, ainsi que des leaders de l’IA comme Databricks, OpenAI, Cohere, Essential AI, Fireworks AI, Luma AI, et Reka AI pour présenter ses solutions .
Google Cloud et Oracle Cloud Infrastructure ont quant à eux détaillé comment ils exploitent les processeurs EPYC et les accélérateurs Instinct pour développer des capacités de calcul intensif et d’IA générative, tandis que Microsoft a souligné sa collaboration avec AMD pour améliorer les performances de ses infrastructures Azure et GPT grâce aux futurs accélérateurs Instinct MI350.
Lisa Su, PDG d’AMD, affirme :
« Le centre de données et l’IA représentent des opportunités de croissance importantes pour AMD, et nous construisons une forte dynamique pour nos processeurs EPYC et AMD Instinct auprès d’un nombre croissant de clients.
Avec nos nouveaux processeurs EPYC, nos GPU AMD Instinct et nos DPU Pensendo, nous fournissons un calcul de pointe pour alimenter les charges de travail les plus importantes et les plus exigeantes de nos clients. À l’avenir, nous prévoyons que le marché des accélérateurs d’IA pour centres de données atteindra 500 milliards de dollars d’ici 2028. Nous nous engageons à fournir une innovation ouverte à grande échelle grâce à nos solutions étendues de silicium, de logiciels, de réseau et de cluster ».

-
Intelligence artificielle
-
AMD met le paquet sur l'IA générative et séduit Meta et OpenAI
A l'occasion de son événement Advancing AI qui s’est tenu aujourd’hui à San Francisco, AMD a dévoilé les dernières solutions d’IA et de calcul...
AMD met le paquet sur l'IA générative et séduit Meta et OpenAI
-
IA
-
Pourquoi la sortie de la dernière puce de Nvidia destinée à l’IA est retardée
Attendue d’arrache-pied par les géants du numérique, la sortie de la dernière puce de Nvidia destinée à l’intelligence artificielle, appelée...
Pourquoi la sortie de la dernière puce de Nvidia destinée à l’IA est retardée
-
Intelligence artificielle
-
AMD s'empare de la start-up finlandaise Silo AI pour 665 millions de dollars
Acquérir les compétences plutôt que de les développer soi-même. C'est dans cette stratégie qu'AMD annonce la signature d’un accord définitif...
AMD s'empare de la start-up finlandaise Silo AI pour 665 millions de dollars
-
Intelligence artificielle
-
Snapdragon X Elite, Lunar Lake, RTX AI Laptops… Les principales annonces du Computex 2024
“La renaissance du PC” : au Computex 2024, qui a lieu cette semaine à Taipei (Taïwan), Qualcomm voit les choses en grand. Son PDG et fondateur,...
Snapdragon X Elite, Lunar Lake, RTX AI Laptops… Les principales annonces du Computex 2024
-
Intelligence artificielle
-
Face à Nvidia, huit géants technologiques s'allient sous le nom d'Ultra Accelerator Link
AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise, Intel, Meta et Microsoft annoncent la formation d'un groupe baptisé Ultra Accelerator...
Face à Nvidia, huit géants technologiques s'allient sous le nom d'Ultra Accelerator Link
-
Intelligence artificielle

-
Le support des cartes AMD débarque sur Ollama
Bonne nouvelle, Ollama vient tout juste d’annoncer un truc qui devrait vous faire plaisir : le support des cartes graphiques AMD en preview ! Cela signifie que toutes les fonctionnalités d’Ollama peuvent maintenant être accélérées par les cartes graphiques AMD, que ce soit sur Linux ou Windows. Mais au fait, c’est quoi Ollama ? Pour les deux du fond qui suivent pas, je vous refais un topo vite fait. Ollama, c’est un outil hyper pratique qui permet de faire tourner des grands modèles de lang
Le support des cartes AMD débarque sur Ollama
![]()
Bonne nouvelle, Ollama vient tout juste d’annoncer un truc qui devrait vous faire plaisir : le support des cartes graphiques AMD en preview ! Cela signifie que toutes les fonctionnalités d’Ollama peuvent maintenant être accélérées par les cartes graphiques AMD, que ce soit sur Linux ou Windows.
Mais au fait, c’est quoi Ollama ? Pour les deux du fond qui suivent pas, je vous refais un topo vite fait. Ollama, c’est un outil hyper pratique qui permet de faire tourner des grands modèles de langage open-source directement sur votre machine locale. Genre Mistral, Llama 2 et toute la clique.
Alors, quelles sont les cartes AMD compatibles ?
Pas de panique, je vous ai préparé une petite liste bien détaillée. Dans la famille des Radeon RX, on retrouve les monstres comme les 7900 XTX, 7900 XT, 7800 XT, 6900 XT et compagnie. Pour les pros, la gamme Radeon PRO est aussi de la partie avec les W7900, W6800X Duo, Vega II… Bref, y a du beau monde au rendez-vous. Et si vous êtes un fan des cartes Instinct, pas de jaloux, les MI300X, MI250, MI100 et autres sont aussi supportées.

Ollama promet également que d’autres modèles de cartes graphiques suivront. Alors on croise les doigts et on surveille les annonces comme le lait sur le feu. En attendant, si vous voulez vous lancer dans l’aventure Ollama avec votre carte AMD, c’est simple comme bonjour.
Téléchargez Ollama pour Linux ou Windows, installez le bouzin et hop, vous voilà parés pour faire chauffer votre GPU AMD ! C’est pas beau la vie ? Je vous ai même fait un tutoriel ici !
Allez, je vous laisse, j’ai un rendez-vous urgent avec mon Llama2 uncensored qui me fait de l’œil.

-
Intelligence artificielle
-
Microsoft va intégrer l'upscaling par IA directement dans DirectX
Microsoft a annoncé le 28 février le lancement prochain d’une nouvelle interface de programmation (API), nommée DirectSR, en partenariat avec...
Microsoft va intégrer l'upscaling par IA directement dans DirectX
-
Intelligence artificielle
-
Il est désormais possible d'exécuter des applications CUDA sur des GPU AMD
Nvidia a su s'imposer depuis une quinzaine d'années comme l'acteur de référence du calcul pour l'intelligence artificielle. Toutes les grandes...
Il est désormais possible d'exécuter des applications CUDA sur des GPU AMD
-
Intelligence artificielle
-
IA générative : Les profits d'AMD tirés vers le haut par son accélérateur Instinct MI300X
AMD a fait part de ses résultats financiers ce 30 janvier et le moins que l'on puisse dire c'est que l'entreprise a su dépasser les attentes....