Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal
  • ✇ActuIA
  • Développement et adoption de l’IA : l’AIE appelle à une coordination renforcée des besoins énergétiques
    Hier, alors que le Sommet pour l’Action sur l’IA réunissait des dirigeants du monde entier, le Dr Fatih Birol, directeur exécutif de l’Agence internationale de l’énergie (AIE), est intervenu pour rappeler l’interdépendance croissante entre l’IA et le secteur de l’énergie. Selon lui, le développement rapide de l’IA nécessite une infrastructure énergétique robuste, en particulier en matière d’électricité, pour soutenir l’expansion prévue des centres de données, mais également une collaboration étr

Développement et adoption de l’IA : l’AIE appelle à une coordination renforcée des besoins énergétiques

12 février 2025 à 14:00

Hier, alors que le Sommet pour l’Action sur l’IA réunissait des dirigeants du monde entier, le Dr Fatih Birol, directeur exécutif de l’Agence internationale de l’énergie (AIE), est intervenu pour rappeler l’interdépendance croissante entre l’IA et le secteur de l’énergie. Selon lui, le développement rapide de l’IA nécessite une infrastructure énergétique robuste, en particulier en matière d’électricité, pour soutenir l’expansion prévue des centres de données, mais également une collaboration étroite entre l’industrie énergétique, le secteur technologique et les gouvernements.

En décembre dernier, l’AIE a organisé à son siège de Paris une conférence mondiale sur l’énergie et l’IA qui a contribué à jeter les bases des résultats énergétiques du Sommet de cette semaine à Paris.

L’essor de l’IA et, en particulier celui de la GenAI, nécessite d’énormes datacenters, chacun consommant une quantité d’électricité équivalente à celle de 100 000 ménages. Selon l’agence, bien que les centres de données ne représentent actuellement que 1 % de la consommation mondiale d’électricité, le réseau est déjà confronté à des défis importants dans les zones où ils sont concentrés, et la demande devrait continuer à augmenter. Ainsi, en Irlande, les datacenters représentent déjà 20 % de la demande d’électricité, tandis que dans l’État américain de Virginie, cette part est supérieure à 25 %.

Lors de son allocution, le Dr Fatih Birol a souligné les nombreuses opportunités offertes par l’IA, mais également le risque que les progrès de l’IA ne soient entravés si l’infrastructure énergétique nécessaire n’est pas planifiée de manière adéquate :

“Il n’y a pas d’IA sans énergie, en particulier sans électricité. Des milliers de centres de données devraient être construits au cours des cinq prochaines années. Mais notre analyse à l’AIE montre que si l’industrie de l’énergie, le secteur technologique et les gouvernements ne collaborent pas pour fournir l’infrastructure électrique nécessaire, de nombreux projets pourraient être retardés, voire annulés.”

Il a ajouté:

“C’est pourquoi il est si stratégique et si important de réunir les entreprises et les décideurs politiques en matière d’énergie, et c’est pourquoi l’AIE continuera de travailler avec les dirigeants du monde entier sur cette question essentielle.”

Un observatoire de l’énergie, de l’IA et des centres de données

Mr Birol a annoncé que l’AIE lancera le 10 avril prochain ce nouvel observatoire afin de collecter les données les plus complètes sur les besoins en électricité de l’IA et sur les innovations de rupture pour l’IA appliquée à l’énergie.

Elle a également prévu de publier un “rapport spécial sur l’énergie et l’IA” ce même jour. Il explorera des solutions pour répondre à la demande énergétique croissante des centres de données et comment les innovations en IA pourraient transformer la production, la consommation et la distribution de l’énergie.

AIE-appelle-a-une-coordination-renforcee-des-besoins-energetiques
  • ✇ActuIA
  • Le Groupe Iliad investit 3 milliards d’euros dans l’IA et affirme son ambition industrielle
    En 2023, le groupe Iliad affirmait son intention de se tailler une place de choix dans le marché de l’IA. A l’occasion de l’AI Action Summit, il a annoncé un investissement de 3 milliards d’euros dans les infrastructures dédiées à l’IA (datacenters et puissance de calcul), la recherche et les applications grand public pour renforcer sa position en Europe. Une infrastructure européenne de premier plan OpCore, la filiale du Groupe qui opère 13 datacenters en France et en Pologne, investira 2,5 mil

Le Groupe Iliad investit 3 milliards d’euros dans l’IA et affirme son ambition industrielle

11 février 2025 à 11:00

En 2023, le groupe Iliad affirmait son intention de se tailler une place de choix dans le marché de l’IA. A l’occasion de l’AI Action Summit, il a annoncé un investissement de 3 milliards d’euros dans les infrastructures dédiées à l’IA (datacenters et puissance de calcul), la recherche et les applications grand public pour renforcer sa position en Europe.

Une infrastructure européenne de premier plan

OpCore, la filiale du Groupe qui opère 13 datacenters en France et en Pologne, investira 2,5 milliards d’euros pour renforcer sa position en tant que leader européen des datacenters hyperscale, notamment pour les ressources de calcul IA. En partenariat avec Infravia, l’une des principales sociétés indépendantes de capital-investissement en Europe, OpCore déploiera plusieurs centaines de mégawatts de capacités à court terme, avec une ambition de plusieurs gigawatts à long terme à travers l’Europe.

Scaleway : près de 5000 GPUs dernière génération

Scaleway, la filiale cloud B2B du groupe, annonce la mise à disposition de 5000 GPUs de dernière génération, constituant ainsi la plus grande capacité de calcul commercialisable pour l’IA en Europe. Cette puissance de calcul est accessible aux entreprises souhaitant entraîner leurs modèles d’IA, comme le fait Mistral AI, H et Photoroom. Scaleway offre également à ses clients un accès sécurisé aux meilleurs modèles open-source, notamment Llama (Meta), Moshi (Kyutai) et Deepseek.

Free démocratise l’IA avec Mistral AI

L’opérateur Free, également filiale du Groupe iliad, a signé un partenariat exclusif avec Mistral AI pour proposer à ses abonnés mobiles un assistant IA de nouvelle génération : le Chat Pro, la version premium du nouveau Le Chat présenté la semaine dernière par la licorne. Depuis hier, les 15,5 millions d’abonnés payants à Free peuvent accéder, et ce pendant 12 mois, gratuitement à cet outil, renforçant ainsi l’intégration de l’IA dans les usages quotidiens.

Kyutai : un laboratoire indépendant dédié à la recherche ouverte

L’IA ne se limite pas à l’infrastructure et aux applications commerciales. Iliad mise également sur la recherche avec Kyutai, un laboratoire privé qu’il a cofondé en novembre 2023 et doté de 100 millions d’euros. Fidèle à l’approche open source du Groupe, Kyutai a présenté, six mois après sa création, Moshi, un modèle vocal avancé, et a récemment dévoilé Hibiki. Cette technologie de traduction simultanée préserve la voix du locuteur tout en adaptant son rythme au contenu sémantique du discours source, offrant ainsi une traduction orale et écrite en temps réel.

Thomas Reynaud, Directeur Général du Groupe iliad, commente :

“Au sein du Groupe iliad, nous croyons depuis plusieurs années à la puissance de l’intelligence artificielle et nous avons décidé d’y consacrer les moyens nécessaires. Nous investissons 3 milliards d’euros sur toute la chaîne de valeur : des data centers à la puissance de calcul en passant par la recherche en open-science, ou encore la démocratisation des usages avec notre partenariat avec Mistral. Si nous multiplions les initiatives depuis 3 ans, c’est que nous sommes à un moment décisif où se joue notre avenir collectif.”

Le Groupe Iliad investit 3 milliards d’euros dans l’IA
  • ✇ActuIA
  • Optique co-packagée (CPO) : comment IBM entend booster l’entraînement des LLMs dans les datacenters
    IBM Research vient de dévoiler une avancée majeure dans le domaine des technologies de connexion pour les centres de données et les circuits imprimés, avec l’introduction d’un nouveau module prototype d’optiques co-packagées (CPO : co-packaged optics). Cette innovation pourrait remplacer les interconnexions électriques dans les datacenters et offrir des améliorations significatives en termes de vitesse et d’efficacité énergétique pour l’IA et d’autres applications informatiques. Avec l’essor de

Optique co-packagée (CPO) : comment IBM entend booster l’entraînement des LLMs dans les datacenters

17 décembre 2024 à 14:00

IBM Research vient de dévoiler une avancée majeure dans le domaine des technologies de connexion pour les centres de données et les circuits imprimés, avec l’introduction d’un nouveau module prototype d’optiques co-packagées (CPO : co-packaged optics). Cette innovation pourrait remplacer les interconnexions électriques dans les datacenters et offrir des améliorations significatives en termes de vitesse et d’efficacité énergétique pour l’IA et d’autres applications informatiques.

Avec l’essor de la GenAI, les centres de données sont confrontés à une demande croissante de transfert de données à haute vitesse. Alors que les câbles en cuivre traditionnellement utilisés sont limités par la dégradation du signal sur de longues distances, la CPO se présente comme une alternative prometteuse. Combinant étroitement électronique et photonique au sein d’un même module, elle augmente la densité de bande passante des interconnexions et l’efficacité énergétique en raccourcissant considérablement la longueur des liaisons électriques.

L’innovation d’IBM repose sur un processus minutieux d’intégration entre électronique et photonique, au cœur duquel se trouve le développement d’un guide d’ondes optiques en polymère (PWG : polymer optical waveguide). Elle permet d’augmenter de six fois le nombre de fibres optiques pouvant être connectées au bord d’une puce de silicium, une mesure connue sous le nom de densité de bord.

Une étape clé de ce développement a été la réalisation de connexions optiques haute densité entre les puces et les fibres, un défi technique considérable compte tenu des tolérances extrêmement serrées requises pour aligner les faisceaux lumineux avec précision. Les connexions optiques hautes fidélité nécessitent en effet un écartement extrêmement précis, de l’ordre d’un demi-micron ou moins entre une fibre et un connecteur, un exploit que l’équipe d’IBM a réalisé.

Elle a atteint pour ce prototype une densité de pas de 50 microns, réduisant ainsi de 80 % l’espace requis par rapport aux solutions conventionnelles (pas de 250 microns, soit environ trois fois la largeur d’un cheveu humain). Des tests ont même montré un potentiel de réduction à 25 microns, ouvrant la voie à des bandes passantes multipliées par dix.

L’intégration de cette technologie a nécessité des avancées dans la fabrication, notamment la mise au point de photodétecteurs et d’émetteurs optiques compacts capables de gérer des signaux à des fréquences élevées, tout en restant compatibles avec les processus de production standard.

Crédit IBM

Performances et gains environnementaux

Selon IBM, cette innovation permettrait :

  • Une diminution des coûts de mise à l’échelle de l’IA générative : la consommation énergétique serait réduite de plus de 5 fois par rapport aux interconnexions électriques. L’économie réalisée par modèle IA entraîné serait équivalente à la consommation annuelle de 5 000 foyers ;
  • Un entraînement des LLMs jusqu’à cinq fois plus rapides : la CPO pourrait également réduire le temps nécessaire à l’entraînement d’un LLM standard de trois mois à trois semaines, les gains de performance augmentant avec l’utilisation de modèles plus grands et d’un plus grand nombre de GPU.

Tests rigoureux en conditions réelles

Les prototypes ont été soumis à des tests de fiabilité dans des environnements simulant des températures extrêmes (-40 °C à 125 °C) et des contraintes mécaniques au siège social mondial d’IBM Research à Yorktown Heights, dans l’État de New York et à l’usine d’IBM à Bromont, au Québec.

Ces tests ont permis à IBM de s’assurer que les fibres optiques pouvaient supporter la flexion sans se casser ni subir de pertes de données. Ils ont validé la faible perte d’insertion (<1,2 dB) et une diaphonie limitée (<30 dB), démontrant la viabilité de la solution pour les centres de données.

John Knickerbocker, ingénieur de recherche chez IBM, assure :

“Le gros problème, ce n’est pas seulement que nous avons obtenu cette grande augmentation de la densité pour les communications sur le module, mais nous avons également démontré que cela est compatible avec des tests de résistance que les liaisons optiques n’ont pas réussi dans le passé”.

Les modules d’IBM sont compatibles avec les processus d’assemblage d’emballages électroniques passifs avancés standard, ce qui permet une réduction des coûts de production. Ils sont fabriqués à Bromont, avec une capacité à être produits à l’échelle, ouvrant la voie à une adoption commerciale.

John Knickerbocker conclut :

“Nous travaillerons également avec les fournisseurs de composants pour les positionner pour cette prochaine étape technologique, ainsi que pour les positionner pour qu’ils soient capables de prendre en charge des quantités de production, pas seulement des prototypes”. 

IBM_optics_module_banner
  • ✇ActuIA
  • UltraEdge et Gcore : un partenariat en IA et Edge Computing
    UltraEdge, pionnier français des edge data centers, et Gcore, l’un des leaders des solutions d’IA en périphérie, de cloud et de sécurité, annoncent une alliance stratégique visant à renforcer la couverture territoriale des services IA cloud et edge computing en France. UltraEdge, premier opérateur français de datacenters distribués, est né d’un partenariat entre Altice France, maison mère de SFR, et Morgan Stanley Infrastructure Partners (MSIP). En novembre 2023, Altice France a cédé 70 % de ses

UltraEdge et Gcore : un partenariat en IA et Edge Computing

4 décembre 2024 à 09:00

UltraEdge, pionnier français des edge data centers, et Gcore, l’un des leaders des solutions d’IA en périphérie, de cloud et de sécurité, annoncent une alliance stratégique visant à renforcer la couverture territoriale des services IA cloud et edge computing en France.

UltraEdge, premier opérateur français de datacenters distribués, est né d’un partenariat entre Altice France, maison mère de SFR, et Morgan Stanley Infrastructure Partners (MSIP). En novembre 2023, Altice France a cédé 70 % de ses centres de données à MSIP, valorisant l’ensemble à 764 millions d’euros.

Cette transaction a permis la création d’UltraEdge, qui gère 257 datacenters répartis sur le territoire français, totalisant une capacité installée de plus de 45 MW et environ 33 000 m² d’espaces de bureaux. Ces infrastructures, auparavant dédiées aux équipements télécoms de SFR, offrent désormais des services d’hébergement en colocation neutres, répondant aux besoins croissants en matière de latence réduite et de proximité des données. Dans le cadre de ce partenariat, cet acteur de l’hébergement de proximité en France, met à disposition de Gcore son réseau de datacenters.

Fondé en 2014 et basé à Contern, au Luxembourg, Gcore est un fournisseur mondial de solutions d’intelligence artificielle en périphérie (edge AI), de cloud computing, de réseau et de sécurité. L’entreprise exploite un réseau mondial de plus de 180 points de présence répartis sur six continents, offrant une infrastructure robuste pour des services tels que le cloud, le CDN (Content Delivery Network) et la protection contre les attaques DDoS.

En juillet 2024, elle a levé 60 millions de dollars lors d’un financement de série A, dirigé par Wargaming, avec la participation de Constructor Capital et Han River Partners. Après avoir établi un partenariat stratégique le mois dernier avec LightOn, la société a également annoncé, le 28 novembre, collaborer avec UltraEdge.

Parmi les plus de 250 sites répartis sur le territoire national mis à disposition par ce dernier, figurent six NetCenters stratégiques situés à Courbevoie, Lyon, Lille, Bordeaux, Nantes et Strasbourg. Pour rappel, un NetCenter est un type de data center, plus petit et décentralisé, utilisé principalement pour des applications d’edge computing. Il est conçu pour être proche des utilisateurs finaux, ce qui permet de réduire la latence et d’améliorer les performances des applications.

Gcore pourra ainsi déployer ses solutions d’IA de manière uniforme sur tout le territoire, garantissant une accessibilité et une performance optimales pour tous les utilisateurs, quelle que soit leur localisation. Les entreprises françaises auront quant à elles accès à une infrastructure de nouvelle génération intégrant des serveurs d’IA sophistiqués alimentés par des GPUs NVIDIA, facilitant l’entraînement de grands modèles de langage (LLMs) et le déploiement d’applications d’IA en périphérie.

Fabrice Moizan, CRO chez Gcore, conclut :

“Nous sommes à l’aube d’une révolution de l’IA qui va changer le mode de fonctionnement des entreprises, et ce partenariat nous permet de connecter la France à l’IA, partout et à tout moment”.

UltraEdge et Gcore
  • ✇ActuIA
  • Infrastructures, GPU : les défis technologiques de la Chine dans sa course à la suprématie en IA
    La Chine ne cache pas son ambition de rattraper et dépasser les USA dans le domaine de l’IA pour en devenir le leader mondial. Considérant la GenAI comme un moteur de croissance et un atout concurrentiel clé, elle a annoncé en octobre 2023, un plan pour augmenter sa puissance de calcul globale de plus de 50 % d’ici 2025, visant 300 exaflops. Alors qu’elle s’en approche aujourd’hui, elle fait face à une surabondance d’infrastructures et une inadéquation croissante entre la capacité de calcul disp

Infrastructures, GPU : les défis technologiques de la Chine dans sa course à la suprématie en IA

Par : Thomas Calvi
15 octobre 2024 à 10:00

La Chine ne cache pas son ambition de rattraper et dépasser les USA dans le domaine de l’IA pour en devenir le leader mondial. Considérant la GenAI comme un moteur de croissance et un atout concurrentiel clé, elle a annoncé en octobre 2023, un plan pour augmenter sa puissance de calcul globale de plus de 50 % d’ici 2025, visant 300 exaflops. Alors qu’elle s’en approche aujourd’hui, elle fait face à une surabondance d’infrastructures et une inadéquation croissante entre la capacité de calcul disponible et la demande réelle du marché.

La Chine a massivement investi dans les infrastructures de datacenters ces dernières années, pour répondre à la demande croissante liée à l’explosion de l’usage d’Internet, de l’IA, du cloud computing, et des services numériques. Elle a atteint une puissance de calcul totale de 246 exaflops, représentant 26 % du total mondial, juste derrière les États-Unis.

Ce chiffre impressionnant découle de la multiplication des centres de données à travers le pays, soutenue par des gouvernements locaux, des opérateurs télécoms et des investisseurs privés. Plus de 250 centres ont été construits ou sont en cours de construction.

Cependant, selon le Centre d’information d’État de Chine, les taux d’utilisation des CPU dans ces centres sont étonnamment bas, avoisinant seulement 5 %. La course à la construction a créé une surcapacité massive, avec de nombreux centres de données peu connectés aux besoins du marché réel : des régions comme la Mongolie Intérieure ou le Xinjiang, où les coûts énergétiques sont plus bas, ont attiré des projets de datacenters, mais n’ont pas vu de demande de services de calcul suffisante en raison de leur éloignement des grands centres économiques chinois comme Pékin, Shanghai ou Shenzhen.

Une inadéquation technologique exacerbée par les sanctions américaines

À cette surabondance s’ajoute un problème technique majeur : le retard de la Chine dans la fabrication des puces de pointe et l’inadéquation des GPU. Alors que l’IA et le traitement de grandes quantités de données nécessitent des unités de traitement graphique (GPU) de pointe, la Chine souffre d’un manque criant de ces équipements essentiels. Les restrictions imposées par les États-Unis, notamment l’interdiction à Nvidia et d’autres fournisseurs américains comme Micron et AMD, de lui vendre des puces avancées, ont compliqué l’accès à ces technologies essentielles pour les applications d’IA à grande échelle.

Dans un premier temps, Nvidia avait donc décidé de vendre à la Chine des produits alternatifs répondant aux exigences du gouvernement : les puces A800 et H800, moins performantes que les GPU A100 et H100, mais assez puissantes pour entraîner des modèles d’IA générative. De nouvelles restrictions ont été annoncées, notamment la vente des puces A800 qui a été interdite sans licence d’exportation spéciale des États-Unis, appliquée également aux sociétés fournissant des solutions informatiques basées sur le cloud utilisées par certaines entreprises chinoises pour contourner les contrôles à l’exportation.

En effet, la Chine est encore loin de la finesse de gravure de 3 nm du leader mondial, le groupe Taiwan Semiconductor Manufacturing Company (TSMC), quand bien même le 1er fondeur du pays SMIC (Semiconductor Manufacturing International Corp), a commencé à produire des puces gravées en 7 nm l’an passé.

En réponse aux restrictions, le gouvernement chinois a encouragé l’utilisation de matériel local, malgré les défis d’intégration. Par exemple, certains centres de données comme celui de China Mobile à Harbin fonctionnent avec des GPU fabriqués en Chine. Cependant, leur complexité d’utilisation en clusters de grande échelle empêche une exploitation optimale des infrastructures. Ces équipements restent moins performants, ce qui pourrait limiter la capacité des modèles d’IA générative chinois à rivaliser avec leurs concurrents étrangers.

Des acteurs de la GenAI chinois ont malgré tout présenté dernièrement des modèles text-to-video, avec l’objectif de rattraper, voire surpasser, leurs concurrents américains : Zhipu AI,Kuaishou, et plus récemment Minimax, une start-up par d’anciens employés de SenseTime, soutenue par Alibaba et Tencent.

Alors que dans le cadre de ses priorités politiques, la Chine entend continuer à encourager l’application de la GenAI dans des secteurs clés tels que l’industrie manufacturière, l’agriculture, l’éducation et la santé afin de renforcer l’économie, elle doit relever le défi de transformer ces installations sous-utilisées en moteurs réels de croissance économique et d’innovation technologique.

defis-technologiques-Chine-course-suprematie-en-IA
  • ✇ActuIA
  • UALink : un consortium pour améliorer l’interconnexion des accélérateurs d’IA dans les datacenters
    Huit géants de la technologie, AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta et Microsoft, ont annoncé le 30 mai dernier  la formation du consortium Ultra Accelerator Link (UALink). Leur collaboration vise à élaborer une norme sectorielle ouverte pour la communication à haute vitesse et à faible latence entre les accélérateurs d’IA dans les centres de données, permettant ainsi de surmonter les limitations actuelles en matière de transfert de données et de calcul par

UALink : un consortium pour améliorer l’interconnexion des accélérateurs d’IA dans les datacenters

3 juin 2024 à 14:00

Huit géants de la technologie, AMD, Broadcom, Cisco, Google, Hewlett Packard Enterprise (HPE), Intel, Meta et Microsoft, ont annoncé le 30 mai dernier  la formation du consortium Ultra Accelerator Link (UALink). Leur collaboration vise à élaborer une norme sectorielle ouverte pour la communication à haute vitesse et à faible latence entre les accélérateurs d’IA dans les centres de données, permettant ainsi de surmonter les limitations actuelles en matière de transfert de données et de calcul parallèle.

Face à la demande croissante de calculs IA, la nécessité de réseaux robustes, efficients et évolutifs est primordiale. UALink s’engage à établir une interface standard ouverte qui facilitera la communication entre les accélérateurs d’IA, tels que les GPU, et les commutateurs dans les pods de calcul d’IA. En développant cette norme, le groupe fondateur permet aux équipementiers, intégrateurs de systèmes de centres de données et professionnels de l’informatique de créer des solutions plus intégrées, flexibles et évolutives.

Forrest Norrod, vice-président exécutif et directeur général, Data Center Solutions Group, AMD, commente :

“Le travail effectué par les entreprises d’UALink pour créer un tissu d’accélérateur ouvert, hautement performant et évolutif est essentiel pour l’avenir de l’IA. Ensemble, nous apportons une vaste expérience dans la création de solutions d’IA à grande échelle et de calcul haute performance basées sur des normes ouvertes, l’efficience et un soutien robuste à l’écosystème”.

En adoptant UALink, les entreprises évitent le verrouillage technologique souvent associé à des solutions comme NVLink. La norme UALink 1.0 est conçue pour permettre la connexion de jusqu’à 1024 accélérateurs au sein d’un pod de calcul d’IA, et permettra des charges directes et des stockages entre la mémoire attachée aux accélérateurs dans le pod, offrant une échelle de connexion plus grande et plus flexible que les solutions actuelles.

NVLink 5.0, la dernière génération de la technologie de NVIDIA, présentée à la GTC 2024,  permet quant à elle des transferts de données rapides entre les GPU et entre les GPU et les CPU. Elle permet, grâce au commutateur NVSwitch, de connecter jusqu’à 576 GPU Blackwell B200.

Support de divers accélérateurs

Contrairement à NVLink, qui est optimisé principalement pour les GPU NVIDIA, UALink vise à supporter une variété d’accélérateurs, y compris les GPU, les TPU (Tensor Processing Units), les FPGA (Field-Programmable Gate Arrays) et d’autres processeurs spécialisés. Cette flexibilité permet d’optimiser les performances pour une gamme plus large de charges de travail, qu’il s’agisse de l’apprentissage profond, de la simulation scientifique ou d’autres applications HPC.

Le consortium UALink prévoit sa constitution officielle et la publication de sa première spécification (1.0) au troisième trimestre de 2024. Cette spécification sera mise à la disposition des entreprises qui rejoignent le consortium, ouvrant la voie à une nouvelle ère d’innovation et de performance dans le domaine de l’IA.

UALink un consortium pour améliorer l'interconnexion des accélérateurs d'IA dans les datacenters
  • ✇ActuIA
  • Le pari français de Microsoft : un investissement de 4 milliards d’euros pour accélérer l’adoption de l’IA
    Microsoft a annoncé dernièrement ses plus gros investissements pour ses infrastructures d’IA et de cloud dans différents pays, la France en fait désormais partie. La société a déclaré son intention d’investir 4 milliards d’euros dans l’hexagone ce lundi 13 mai dans le cadre de la 7ème édition du sommet “Choose France” au château de Versailles. Après 3,4 milliards de dollars en Allemagne, 2,1 milliards en Espagne, Microsoft a dévoilé dernièrement investir 2,9 milliards de dollars au Japon et des

Le pari français de Microsoft : un investissement de 4 milliards d’euros pour accélérer l’adoption de l’IA

14 mai 2024 à 12:34

Microsoft a annoncé dernièrement ses plus gros investissements pour ses infrastructures d’IA et de cloud dans différents pays, la France en fait désormais partie. La société a déclaré son intention d’investir 4 milliards d’euros dans l’hexagone ce lundi 13 mai dans le cadre de la 7ème édition du sommet “Choose France” au château de Versailles.

Après 3,4 milliards de dollars en Allemagne, 2,1 milliards en Espagne, Microsoft a dévoilé dernièrement investir 2,9 milliards de dollars au Japon et des investissements massifs dans différents pays de la zone Asie-Pacifique.

La France va toutefois bénéficier du plus important. Microsoft, présent en France depuis 41 ans où il emploie plus de 2 100 personnes, va consacrer une partie de cette somme à l’extension de ses sites de datacenters existants à Paris et Marseille qui doteront le pays d’une capacité allant jusqu’à 25 000 GPU de dernière génération d’ici fin 2025 et 2 milliards d’euros à la construction d’un nouveau datacenter à Petit Landau, près de Mulhouse, dans la région Grand Est.

Former 1 million de Français d’ici fin 2027

Microsoft a également annoncé étendre son initiative “À VOUS L’IA”, lancée en mars dernier visant à démocratiser l’IA générative en développant les compétences des Français, actifs comme étudiants, chefs d’entreprise comme salariés, associations ou encore entrepreneurs sociaux.

Le programme “GenIAles”, destiné aux demandeuses d’emploi, aux femmes souhaitant se reconvertir ou simplement s’initier et se familiariser avec les IA génératives, lancé en collaboration avec Simplon sera lui aussi accéléré. Les 2 partenaires continueront également  de développer leur réseau d’ écoles IA Microsoft By Simplon, une initiative lancée en 2018 par Microsoft France pour former les demandeurs d’emploi à devenir des développeurs en IA.

Microsoft s’associera également à France Travail pour permettre aux demandeurs d’emploi d’apprendre les concepts de base de l’IA et les fonctionnalités de l’IA générative (assistance à l’écriture, mise en forme de documents, création de contenu…) et comment les appliquer dans leur recherche d’emploi.

Soutenir 2 500 start-ups dans leur adoption de l’IA

Microsoft apportera également son soutien à 2 500 start-ups d’ici 2027 via le programme Microsoft GenAI Studio. Il offrira aux startups sélectionnées un programme sur mesure comprenant des ateliers techniques, un accès à des experts en IA, ainsi que des crédits cloud et des activités de soutien.

L’investissement de Microsoft est le plus important de cette 7ème édition de Choose France où ont été annoncés un total record de 15 milliards d’euros d’investissements étrangers et 56 projets d’entreprises, avec à la clé 10 000 créations d’emplois. Amazon va consacrer de son côté plus d’1,2 Md € au renforcement de son réseau logistique d’Amazon ainsi qu’au développement de l’infrastructure cloud d’Amazon Web Services (AWS) France, et permettra de créer plus de 3 000 emplois directs en CDI.

❌
❌