Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Cette nouvelle forme d’informatique inspirée du vivant veut reproduire le raisonnement humain avec 10 000 fois moins d’énergie

La start-up américaine ExtropicAI a mis au point une nouvelle forme d’informatique inspirée du fonctionnement du cerveau humain. Basée sur des principes thermodynamiques, cette technologie serait jusqu’à 10 000 fois plus économe en énergie que les systèmes actuels d’IA.

  • ✇LEBIGDATA.FR
  • OpenAI s’allie à Broadcom pour créer ses puces IA : encore une action qui s’envole
    Le 13 octobre 2025, OpenAI scelle un partenariat stratégique avec Broadcom, géant américain des semi-conducteurs. Ensemble, les entreprises prévoient de déployer 10 gigawatts d’accélérateurs d’IA personnalisés entre 2026 et 2029. OpenAI conçoit désormais ses propres puces, une première dans son histoire. Ce tournant lui permet d’inscrire directement dans le matériel les savoirs tirés du développement de ses modèles et produits. Broadcom apporte, de son côté, son expertise en connectivité pour

OpenAI s’allie à Broadcom pour créer ses puces IA : encore une action qui s’envole

15 octobre 2025 à 10:42

Le 13 octobre 2025, OpenAI scelle un partenariat stratégique avec Broadcom, géant américain des semi-conducteurs. Ensemble, les entreprises prévoient de déployer 10 gigawatts d’accélérateurs d’IA personnalisés entre 2026 et 2029.

OpenAI conçoit désormais ses propres puces, une première dans son histoire. Ce tournant lui permet d’inscrire directement dans le matériel les savoirs tirés du développement de ses modèles et produits. Broadcom apporte, de son côté, son expertise en connectivité pour faire passer ces futurs clusters d’IA à une échelle inédite.

Des puces made by OpenAI, grâce à Broadcom

Depuis plusieurs mois, Sam Altman alerte sur la pénurie de processeurs qui ralentit les mises à jour de ChatGPT. Le directeur général d’OpenAI a révélé dans un podcast que l’entreprise collabore avec Broadcom depuis 18 mois sur des puces personnalisées.

Ces nouvelles puces ciblent l’inférence, c’est-à-dire le moment où l’intelligence artificielle répond aux requêtes des utilisateurs. Altman estime que cette étape finira par concentrer l’essentiel des besoins en calcul, bien au-delà de la phase d’entraînement des modèles.

We’re designing our own chips — taking what we’ve learned from building frontier models and bringing it directly into the hardware. Building our own hardware, in addition to our other partnerships, will help all of us meet the world’s growing demand for AI.

In Episode 8 of the… pic.twitter.com/DlXD3xdkjt

— OpenAI (@OpenAI) October 13, 2025

En septembre, le Financial Times avait déjà rapporté la collaboration entre OpenAI et Broadcom en vue d’une production à grande échelle dès l’an prochain. Contrairement aux accords signés avec Nvidia ou AMD, cette coopération n’inclut aucun avantage financier direct.

Les puces Broadcom se démarquent toutefois par un coût inférieur à celui des modèles Nvidia, selon des sources proches du dossier. Sa stratégie s’appuie sur la visibilité mondiale et la légitimité technologique qu’offre ce partenariat.

L’annonce de l’accord avec OpenAI a d’ailleurs fait bondir le titre de Broadcom de 8 % à l’ouverture de Wall Street.

Des investissements colossaux pour une autonomie technologique

Selon le Financial Times, l’accord entre OpenAI et Broadcom atteindrait entre 350 et 500 milliards de dollars. Ce montant s’ajoute aux investissements massifs déjà engagés par l’entreprise californienne dans les semi-conducteurs et les infrastructures cloud.

Piqûre d’appel, OpenAI a récemment conclu un accord avec AMD pour six gigawatts supplémentaires de processeurs. En septembre, Nvidia a injecté 100 milliards de dollars dans OpenAI, accompagnés d’une lettre d’intention prévoyant dix gigawatts de matériel. Parallèlement, un partenariat de 300 milliards avec Oracle porte sur la construction d’une infrastructure cloud sur cinq ans.

À long terme, ces engagements financiers réduisent sa dépendance aux grands fournisseurs de puces et consolident son autonomie industrielle d’OpenAI. Cela lui permet de mieux contrôler la chaîne de production, d’abaisser les coûts et de stabiliser les approvisionnements.

Greg Brockman says they used OpenAI's models to speed up chip development with Broadcom pic.twitter.com/rtNJHcyq29

— Marcelo P. Lima (@MarceloPLima) October 13, 2025

Chaque gigawatt d’infrastructure équivaut à près de 50 milliards de dollars, incluant le matériel et la construction des centres de données.

Le PDG de Broadcom, Hock Tan, décrit cette alliance avec OpenAI comme une avancée vers une infrastructure universelle de calcul. Une évolution comparable à la naissance du chemin de fer ou d’Internet.

D’ici 2029, OpenAI disposera d’environ 26 gigawatts de capacité de calcul, soit l’équivalent énergétique de vingt-six réacteurs nucléaires. Une puissance colossale qui assurera la stabilité de ses services, utilisés chaque semaine par plus de 800 millions de personnes.

Cet article OpenAI s’allie à Broadcom pour créer ses puces IA : encore une action qui s’envole a été publié sur LEBIGDATA.FR.

OpenAI et AMD signent un accord : l’action bat des records en bourse

Le partenariat annoncé le 6 octobre 2025 entre OpenAI et le concepteur de puces AMD a fait bondir l’action du groupe à un niveau historique. Une alliance stratégique qui rebat les cartes d’un marché de l’IA dominé jusqu’ici par Nvidia.

Le calcul quantique à la poursuite de son “moment ChatGPT”

1 mai 2025 à 11:00
Il n’y a pas une semaine sans qu’un exploit technologique, un méga-investissement ou une nouvelle start-up ne remette l’IA générative sur le...

« Build on Trainium » : Amazon annonce un investissement de 110 millions de dollars dans la recherche universitaire en IA générative

19 novembre 2024 à 14:00

Via son programme “Build on Trainium”, Amazon fournira des heures de calcul aux chercheurs qui leur permettront de créer de nouvelles architectures d’IA, des bibliothèques d’apprentissage automatique (ML) et des optimisations de performances pour les UltraClusters AWS Trainium distribués à grande échelle.

Le programme cible deux enjeux majeurs de la recherche en IA : le besoin croissant de puissance de calcul et l’accès limité aux infrastructures de pointe pour les institutions académiques qui peinent à soutenir des recherches à grande échelle en raison de contraintes budgétaires. Dans le cadre de Build on Trainium, AWS a créé un UltraCluster de recherche Trainium intégrant jusqu’à 40 000 puces Trainium optimisées pour des charges de travail complexes.

Trainium est la puce ML qu’AWS a conçue à des fins d’entraînement et d’inférence de deep learning. Tout comme sa puce Graviton, Trainium2 offre des avancées en matière de rapport qualité-prix et d’efficacité énergétique pour un large éventail de charges de travail, notamment l’entraînement des modèles d’IA et les applications d’IA générative exécutés sur Amazon Elastic Compute Cloud (Amazon EC2).

En intégrant également des interfaces de programmation avancées comme la Neuron Kernel Interface, qui donne un accès direct au jeu d’instructions de la puce, le programme offre aux chercheurs une flexibilité sans précédent pour explorer les capacités des puces Trainium.

Build on Trainium permet aux chercheurs d’accéder à des infrastructures technologiques de pointe, mais favorise aussi l’innovation ouverte puisque les avancées réalisées dans le cadre de cette initiative seront publiées en open source, permettant à la communauté scientifique de continuer à innover.

Former les experts de demain

Au-delà des avancées techniques, Amazon mise sur l’humain. Le programme finance des collaborations avec des institutions renommées telles que Carnegie Mellon et Berkeley, non seulement pour soutenir des recherches de pointe, mais aussi pour éduquer une nouvelle génération d’experts en IA.

En outre, Amazon organisera plusieurs séries d’appels à propositions Amazon Research Awards, les propositions sélectionnées recevant des crédits AWS Trainium et un accès aux grands Trainium UltraClusters pour leurs recherches.

En offrant des crédits cloud, des formations techniques et un accès aux clusters de calcul, Amazon prépare le terrain pour un écosystème où les compétences en IA deviennent plus accessibles tout en renforçant son rôle central dans les solutions cloud pour l’IA.

Amazon annonce un investissement de 110 millions de dollars dans la recherche universitaire en IA générative.
  • ✇ActuIA
  • Qualcomm annonce un nouveau processeur mobile : le Snapdragon 8s Gen 3
    Après avoir dévoilé Snapdragon 8 Gen 3 en octobre dernier, Qualcomm annonce Snapdragon 8s Gen 3, une version allégée mais qui permet elle aussi la création de contenu original à partir de commandes vocales, écrites ou d’images grâce à l’IA générative intégrée, avec une prise en charge de plus de 30 modèles de langage et de vision. Qualcomm présente Snapdragon 8s Gen 3 comme une version plus abordable de Snapdragon 8 Gen 3, les prochains smartphones hauts de gamme Honor, iQOO, Realme, Redmi et Xi

Qualcomm annonce un nouveau processeur mobile : le Snapdragon 8s Gen 3

22 mars 2024 à 14:00

Après avoir dévoilé Snapdragon 8 Gen 3 en octobre dernier, Qualcomm annonce Snapdragon 8s Gen 3, une version allégée mais qui permet elle aussi la création de contenu original à partir de commandes vocales, écrites ou d’images grâce à l’IA générative intégrée, avec une prise en charge de plus de 30 modèles de langage et de vision.

Qualcomm présente Snapdragon 8s Gen 3 comme une version plus abordable de Snapdragon 8 Gen 3, les prochains smartphones hauts de gamme Honor, iQOO, Realme, Redmi et Xiaomi devraient en être équipés.

Tout comme son prédécesseur, il pourra gérer des modèles d’IA générative allant jusqu’à 10 milliards de paramètres.

Expérience de capture intuitive

Grâce au FAI Qualcomm Spectra 18 bits Triple Cognitive, Snapdragon 8s Gen 3 offre une expérience de capture photo avancée alimentée par l’IA. Une fonctionnalité d’expansion des photos permet de remplir le contenu au-delà du format d’origine, tandis qu’une caméra à détection permanente permet un déverrouillage facial ultra-rapide

Des jeux mobiles hyperréalistes

La plateforme Snapdragon Elite Gaming apporte un niveau de gameplay comparable à celui des ordinateurs de bureau sur les smartphones. Avec des fonctionnalités telles que le Ray Tracing accéléré en temps réel, la lumière interagit avec les décors du jeu pour créer des ombres et des reflets réalistes.

Un son haute définition sans perte

La suite audio Snapdragon offre un son haute définition sans perte, même à des volumes élevés, grâce à la technologie Qualcomm Aqstic Speaker Max. De plus, la technologie Qualcomm aptX Audio garantit une reproduction fidèle de la musique.

Connectivité 

Selon Qualcomm, doté du système modem-RF SnapdragonX70 5G, Snapdragon 8s Gen 3 offre des vitesses de téléchargement ultra-rapides et une bonne efficacité énergétique. Cependant, la vitesse de liaison descendante maximale est de 5 Gbit/s sur les réseaux 5G, alors qu’elle atteint les 10 Gbit/s pour Snapdragon 8 Gen 3 avec Snapdragon X75. Le système de connectivité mobile Qualcomm FastConnect 7800 offre quant à lui le Wi-Fi 7 avec des vitesses de pointe de 5,8 Gbit/s pour les 2 processeurs, assurant une connectivité rapide et fiable.

Construit sur le nœud de processus 4 nm de TSMC, côté CPU, il compte 8 cœurs : un cœur Arm Cortex-X4 cadencé à 3 GHz, ainsi que quatre cœurs Performance Cortex-A720 jusqu’à 2,8 GHz et trois cœurs Cortex-A520 Efficiency jusqu’à 2 GHz. Pour le traitement graphique, il est doté d’un GPU Adreno 735.

Qualcomm-annonce-nouveau-processeur-mobile-Snapdragon-8s-Gen-3
❌
❌