Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal
  • ✇ActuIA
  • Le Groupe Iliad investit 3 milliards d’euros dans l’IA et affirme son ambition industrielle
    En 2023, le groupe Iliad affirmait son intention de se tailler une place de choix dans le marché de l’IA. A l’occasion de l’AI Action Summit, il a annoncé un investissement de 3 milliards d’euros dans les infrastructures dédiées à l’IA (datacenters et puissance de calcul), la recherche et les applications grand public pour renforcer sa position en Europe. Une infrastructure européenne de premier plan OpCore, la filiale du Groupe qui opère 13 datacenters en France et en Pologne, investira 2,5 mil

Le Groupe Iliad investit 3 milliards d’euros dans l’IA et affirme son ambition industrielle

11 février 2025 à 11:00

En 2023, le groupe Iliad affirmait son intention de se tailler une place de choix dans le marché de l’IA. A l’occasion de l’AI Action Summit, il a annoncé un investissement de 3 milliards d’euros dans les infrastructures dédiées à l’IA (datacenters et puissance de calcul), la recherche et les applications grand public pour renforcer sa position en Europe.

Une infrastructure européenne de premier plan

OpCore, la filiale du Groupe qui opère 13 datacenters en France et en Pologne, investira 2,5 milliards d’euros pour renforcer sa position en tant que leader européen des datacenters hyperscale, notamment pour les ressources de calcul IA. En partenariat avec Infravia, l’une des principales sociétés indépendantes de capital-investissement en Europe, OpCore déploiera plusieurs centaines de mégawatts de capacités à court terme, avec une ambition de plusieurs gigawatts à long terme à travers l’Europe.

Scaleway : près de 5000 GPUs dernière génération

Scaleway, la filiale cloud B2B du groupe, annonce la mise à disposition de 5000 GPUs de dernière génération, constituant ainsi la plus grande capacité de calcul commercialisable pour l’IA en Europe. Cette puissance de calcul est accessible aux entreprises souhaitant entraîner leurs modèles d’IA, comme le fait Mistral AI, H et Photoroom. Scaleway offre également à ses clients un accès sécurisé aux meilleurs modèles open-source, notamment Llama (Meta), Moshi (Kyutai) et Deepseek.

Free démocratise l’IA avec Mistral AI

L’opérateur Free, également filiale du Groupe iliad, a signé un partenariat exclusif avec Mistral AI pour proposer à ses abonnés mobiles un assistant IA de nouvelle génération : le Chat Pro, la version premium du nouveau Le Chat présenté la semaine dernière par la licorne. Depuis hier, les 15,5 millions d’abonnés payants à Free peuvent accéder, et ce pendant 12 mois, gratuitement à cet outil, renforçant ainsi l’intégration de l’IA dans les usages quotidiens.

Kyutai : un laboratoire indépendant dédié à la recherche ouverte

L’IA ne se limite pas à l’infrastructure et aux applications commerciales. Iliad mise également sur la recherche avec Kyutai, un laboratoire privé qu’il a cofondé en novembre 2023 et doté de 100 millions d’euros. Fidèle à l’approche open source du Groupe, Kyutai a présenté, six mois après sa création, Moshi, un modèle vocal avancé, et a récemment dévoilé Hibiki. Cette technologie de traduction simultanée préserve la voix du locuteur tout en adaptant son rythme au contenu sémantique du discours source, offrant ainsi une traduction orale et écrite en temps réel.

Thomas Reynaud, Directeur Général du Groupe iliad, commente :

“Au sein du Groupe iliad, nous croyons depuis plusieurs années à la puissance de l’intelligence artificielle et nous avons décidé d’y consacrer les moyens nécessaires. Nous investissons 3 milliards d’euros sur toute la chaîne de valeur : des data centers à la puissance de calcul en passant par la recherche en open-science, ou encore la démocratisation des usages avec notre partenariat avec Mistral. Si nous multiplions les initiatives depuis 3 ans, c’est que nous sommes à un moment décisif où se joue notre avenir collectif.”

Le Groupe Iliad investit 3 milliards d’euros dans l’IA
  • ✇ActuIA
  • Infrastructures, GPU : les défis technologiques de la Chine dans sa course à la suprématie en IA
    La Chine ne cache pas son ambition de rattraper et dépasser les USA dans le domaine de l’IA pour en devenir le leader mondial. Considérant la GenAI comme un moteur de croissance et un atout concurrentiel clé, elle a annoncé en octobre 2023, un plan pour augmenter sa puissance de calcul globale de plus de 50 % d’ici 2025, visant 300 exaflops. Alors qu’elle s’en approche aujourd’hui, elle fait face à une surabondance d’infrastructures et une inadéquation croissante entre la capacité de calcul disp

Infrastructures, GPU : les défis technologiques de la Chine dans sa course à la suprématie en IA

Par : Thomas Calvi
15 octobre 2024 à 10:00

La Chine ne cache pas son ambition de rattraper et dépasser les USA dans le domaine de l’IA pour en devenir le leader mondial. Considérant la GenAI comme un moteur de croissance et un atout concurrentiel clé, elle a annoncé en octobre 2023, un plan pour augmenter sa puissance de calcul globale de plus de 50 % d’ici 2025, visant 300 exaflops. Alors qu’elle s’en approche aujourd’hui, elle fait face à une surabondance d’infrastructures et une inadéquation croissante entre la capacité de calcul disponible et la demande réelle du marché.

La Chine a massivement investi dans les infrastructures de datacenters ces dernières années, pour répondre à la demande croissante liée à l’explosion de l’usage d’Internet, de l’IA, du cloud computing, et des services numériques. Elle a atteint une puissance de calcul totale de 246 exaflops, représentant 26 % du total mondial, juste derrière les États-Unis.

Ce chiffre impressionnant découle de la multiplication des centres de données à travers le pays, soutenue par des gouvernements locaux, des opérateurs télécoms et des investisseurs privés. Plus de 250 centres ont été construits ou sont en cours de construction.

Cependant, selon le Centre d’information d’État de Chine, les taux d’utilisation des CPU dans ces centres sont étonnamment bas, avoisinant seulement 5 %. La course à la construction a créé une surcapacité massive, avec de nombreux centres de données peu connectés aux besoins du marché réel : des régions comme la Mongolie Intérieure ou le Xinjiang, où les coûts énergétiques sont plus bas, ont attiré des projets de datacenters, mais n’ont pas vu de demande de services de calcul suffisante en raison de leur éloignement des grands centres économiques chinois comme Pékin, Shanghai ou Shenzhen.

Une inadéquation technologique exacerbée par les sanctions américaines

À cette surabondance s’ajoute un problème technique majeur : le retard de la Chine dans la fabrication des puces de pointe et l’inadéquation des GPU. Alors que l’IA et le traitement de grandes quantités de données nécessitent des unités de traitement graphique (GPU) de pointe, la Chine souffre d’un manque criant de ces équipements essentiels. Les restrictions imposées par les États-Unis, notamment l’interdiction à Nvidia et d’autres fournisseurs américains comme Micron et AMD, de lui vendre des puces avancées, ont compliqué l’accès à ces technologies essentielles pour les applications d’IA à grande échelle.

Dans un premier temps, Nvidia avait donc décidé de vendre à la Chine des produits alternatifs répondant aux exigences du gouvernement : les puces A800 et H800, moins performantes que les GPU A100 et H100, mais assez puissantes pour entraîner des modèles d’IA générative. De nouvelles restrictions ont été annoncées, notamment la vente des puces A800 qui a été interdite sans licence d’exportation spéciale des États-Unis, appliquée également aux sociétés fournissant des solutions informatiques basées sur le cloud utilisées par certaines entreprises chinoises pour contourner les contrôles à l’exportation.

En effet, la Chine est encore loin de la finesse de gravure de 3 nm du leader mondial, le groupe Taiwan Semiconductor Manufacturing Company (TSMC), quand bien même le 1er fondeur du pays SMIC (Semiconductor Manufacturing International Corp), a commencé à produire des puces gravées en 7 nm l’an passé.

En réponse aux restrictions, le gouvernement chinois a encouragé l’utilisation de matériel local, malgré les défis d’intégration. Par exemple, certains centres de données comme celui de China Mobile à Harbin fonctionnent avec des GPU fabriqués en Chine. Cependant, leur complexité d’utilisation en clusters de grande échelle empêche une exploitation optimale des infrastructures. Ces équipements restent moins performants, ce qui pourrait limiter la capacité des modèles d’IA générative chinois à rivaliser avec leurs concurrents étrangers.

Des acteurs de la GenAI chinois ont malgré tout présenté dernièrement des modèles text-to-video, avec l’objectif de rattraper, voire surpasser, leurs concurrents américains : Zhipu AI,Kuaishou, et plus récemment Minimax, une start-up par d’anciens employés de SenseTime, soutenue par Alibaba et Tencent.

Alors que dans le cadre de ses priorités politiques, la Chine entend continuer à encourager l’application de la GenAI dans des secteurs clés tels que l’industrie manufacturière, l’agriculture, l’éducation et la santé afin de renforcer l’économie, elle doit relever le défi de transformer ces installations sous-utilisées en moteurs réels de croissance économique et d’innovation technologique.

defis-technologiques-Chine-course-suprematie-en-IA
  • ✇ActuIA
  • FlexAI émerge du mode furtif avec une levée de fonds de 28,5 millions d’euros
    Répondre à la demande de puissance de calcul nécessaire pour les modèles d’IA, tout en permettant aux développeurs de les entraîner de manière plus simple, plus efficiente et plus frugale, telle est l’ambition de FlexAI. La jeune start-up parisienne annonce qu’elle vient de boucler un tour de financement d’amorçage qui lui permettra de mettre sur le marché d’ici quelques mois son premier produit : FlexAI Cloud. Cofondée en octobre dernier par Brijesh Tripathi et Dali Kilani, anciens cadres d’App

FlexAI émerge du mode furtif avec une levée de fonds de 28,5 millions d’euros

29 avril 2024 à 11:00

Répondre à la demande de puissance de calcul nécessaire pour les modèles d’IA, tout en permettant aux développeurs de les entraîner de manière plus simple, plus efficiente et plus frugale, telle est l’ambition de FlexAI. La jeune start-up parisienne annonce qu’elle vient de boucler un tour de financement d’amorçage qui lui permettra de mettre sur le marché d’ici quelques mois son premier produit : FlexAI Cloud.

Cofondée en octobre dernier par Brijesh Tripathi et Dali Kilani, anciens cadres d’Apple, Intel, NVIDIA, Tesla, Lifen et Zoox, FlexAI compte aujourd’hui une quarantaine de collaborateurs, parmi eux, d’anciens employés de DeepMind ou Google. Si la start-up possède des bureaux aux Etats-Unis, à San Francisco, et à Bangalore, en Inde, les deux cofondateurs disent avoir choisi de l’installer à Paris en raison de la vitalité de l’écosystème d’IA français.

Les 28,5 millions d’euros récoltés lors de ce tour de table qui l’a faite sortir du mode furtif proviennent entièrement de fonds européens. Il a été dirigé par Alpha Intelligence Capital (AIC), Elaia Partners et Heartcore Capital, rejoints par Bpifrance, Frst Capital, Motier Ventures, Partech, ainsi que Karim Beguir, PDG d’InstaDeep.

Antoine Blondeau, associé directeur chez Alpha Intelligence Capital, affirme :

“Le calcul est à la traîne, pas en tête, des capacités de plus en plus puissantes des modèles d’IA. Pour concrétiser le potentiel de l’IA, l’industrie doit résoudre le problème des coûts de calcul et celui de la complexité de la pile technologique, qui augmentent considérablement les coûts de développement et le temps de mise sur le marché. Brijesh et Dali possèdent, de manière unique, les compétences en matériel et en logiciel pour architecturer et construire l’écosystème de la couche d’orchestration du calcul en intelligence artificielle”.

FlexAI Cloud : une solution à la demande

FlexAI entend s’attaquer aux trois plus grands obstacles qui freinent l’innovation en IA : un goulot d’étranglement dans l’approvisionnement en puissance de calcul, une pénurie de compétences mondiales ainsi que des processus complexes et peu fiables pour le développement et le déploiement de modèles d’IA.

Brijesh Tripathi, PDG et co-fondateur de FlexAI, explique :

“Nous croyons en le pouvoir transformateur de l’IA pour résoudre certains des plus grands problèmes de l’humanité, mais cela nécessitera une magnitude 1000 fois plus de puissance de calcul pour réaliser cette vision. La puissance de calcul en IA est aujourd’hui limitée à quelques privilégiés. Notre vision est de débloquer l’accès au calcul pour tous”.

Les deux cofondateurs, qui se sont rencontrés chez Nvidia, ont pour objectif non seulement de simplifier l’accès à la puissance de calcul pour les développeurs soumis à des contraintes budgétaires, mais de leur permettre d’accéder à une gamme diversifiée de calcul, offrant le choix parmi plusieurs configurations matérielles sans avoir à modifier le code. Selon leurs besoins, FlexAI Cloud exploitera les capacités de calcul et les infrastructures non seulement de Nvidia, mais aussi d’AMD, Intel, AWS, Google Cloud ou Scaleway.

Ils collaborent avec ces entreprises mais ont également pour partenaires Mistral AI, InstaDeep, Hugging Face ainsi que Tenstorrent, dont le PDG, Jim Keller, est membre du conseil d’administration de FlexAI.

Construire une “architecture d’IA universelle” en Europe

Cette levée de fonds va leur permettre de renforcer leur équipe et d’accélérer le déploiement de leur solution cloud à destination des entreprises européennes mais aussi internationales. Toutefois, les dirigeants de FlexAI voient plus loin : la start-up envisage une nouvelle levée de fonds pour établir ses propres centres de données.

FlexAI émerge du mode furtif avec une levée de fonds de 28,5 millions d'euros
❌
❌