La SNCF refond sa gouvernance numérique pour accélérer l’intégration de l’IA










Hier, alors que le Sommet pour l’Action sur l’IA réunissait des dirigeants du monde entier, le Dr Fatih Birol, directeur exécutif de l’Agence internationale de l’énergie (AIE), est intervenu pour rappeler l’interdépendance croissante entre l’IA et le secteur de l’énergie. Selon lui, le développement rapide de l’IA nécessite une infrastructure énergétique robuste, en particulier en matière d’électricité, pour soutenir l’expansion prévue des centres de données, mais également une collaboration étroite entre l’industrie énergétique, le secteur technologique et les gouvernements.
En décembre dernier, l’AIE a organisé à son siège de Paris une conférence mondiale sur l’énergie et l’IA qui a contribué à jeter les bases des résultats énergétiques du Sommet de cette semaine à Paris.
L’essor de l’IA et, en particulier celui de la GenAI, nécessite d’énormes datacenters, chacun consommant une quantité d’électricité équivalente à celle de 100 000 ménages. Selon l’agence, bien que les centres de données ne représentent actuellement que 1 % de la consommation mondiale d’électricité, le réseau est déjà confronté à des défis importants dans les zones où ils sont concentrés, et la demande devrait continuer à augmenter. Ainsi, en Irlande, les datacenters représentent déjà 20 % de la demande d’électricité, tandis que dans l’État américain de Virginie, cette part est supérieure à 25 %.
Lors de son allocution, le Dr Fatih Birol a souligné les nombreuses opportunités offertes par l’IA, mais également le risque que les progrès de l’IA ne soient entravés si l’infrastructure énergétique nécessaire n’est pas planifiée de manière adéquate :
“Il n’y a pas d’IA sans énergie, en particulier sans électricité. Des milliers de centres de données devraient être construits au cours des cinq prochaines années. Mais notre analyse à l’AIE montre que si l’industrie de l’énergie, le secteur technologique et les gouvernements ne collaborent pas pour fournir l’infrastructure électrique nécessaire, de nombreux projets pourraient être retardés, voire annulés.”
Il a ajouté:
“C’est pourquoi il est si stratégique et si important de réunir les entreprises et les décideurs politiques en matière d’énergie, et c’est pourquoi l’AIE continuera de travailler avec les dirigeants du monde entier sur cette question essentielle.”
Mr Birol a annoncé que l’AIE lancera le 10 avril prochain ce nouvel observatoire afin de collecter les données les plus complètes sur les besoins en électricité de l’IA et sur les innovations de rupture pour l’IA appliquée à l’énergie.
Elle a également prévu de publier un “rapport spécial sur l’énergie et l’IA” ce même jour. Il explorera des solutions pour répondre à la demande énergétique croissante des centres de données et comment les innovations en IA pourraient transformer la production, la consommation et la distribution de l’énergie.


Une récente étude menée par des chercheurs de l’École Polytechnique fédérale de Lausanne (EPFL), présentée lors de l’atelier sur la sécurité de l’IA à la conférence internationale sur l’apprentissage automatique 2024, met en évidence les vulnérabilités des LLMs les plus récents, malgré leur alignement sur des critères de sécurité avancés.
L’étude “Jailbreaking leading safety-aligned LLMs with simple adaptive attacks” s’appuie sur la thèse de doctorat de son auteur principal, Maksym Andriushchenko. Il y explore les moyens d’évaluer la résilience des réseaux neuronaux face à de petites perturbations d’entrée, ainsi que l’impact de ces changements sur les résultats générés par les modèles.
Les chercheurs Maksym Andriushchenko, Francesco Croce et Nicolas Flammarion du Laboratoire de théorie en apprentissage machinent (TML) de l’EPFL ont démontré que de simples manipulations des prompts permettent de contourner les mécanismes de sécurité des LLMs, ce qui pourrait les amener à se comporter de manière involontaire ou préjudiciable.
En ajustant les prompts en fonction des particularités de chaque modèle, ils ont réussi à provoquer des réponses contraires aux consignes de sécurité. Avec un ensemble de données de 50 requêtes nuisibles, ils ont obtenu un score de jailbreak parfait (100 %) sur Vicuna-13B, Mistral-7B, Phi-3-Mini, Nemotron-4-340B, Llama-2-Chat-7B/13B/70B, Llama-3-Instruct-8B, Gemma-7B, GPT-3.5, GPT-4o, Claude-3/3.5 et le R2D2 entraîné de façon adverse.
Nicolas Flammarion, responsable du TML et coauteur de l’article, explique :
“Nous montrons qu’il est possible d’exploiter les informations disponibles sur chaque modèle pour créer des attaques adaptatives simples, que nous définissons comme des attaques spécifiquement conçues pour cibler une défense donnée. Nous espérons que nos travaux constitueront une précieuse source d’informations sur la robustesse des LLM frontières”.
Le point commun derrière ces attaques est l’adaptabilité : elles exploitent les spécificités de chaque modèle pour contourner leurs mécanismes de sécurité. Les résultats de l’EPFL soulignent ainsi l’importance d’étendre les tests au-delà des scénarios prédéterminés, afin de mieux comprendre les limites et les failles des LLMs.
Maksym Andriushchenko souligne :
“Nos travaux montrent que l’application directe des attaques existantes est insuffisante pour évaluer avec précision la robustesse adverse des LLM et conduit généralement à une surestimation significative de la robustesse. Dans notre étude de cas, aucune approche n’a fonctionné suffisamment bien. Il est donc essentiel de tester à la fois les techniques statiques et adaptatives”.
Alors que les principaux acteurs de l’IA se dirigent vers l’ère agentique, où les agents autonomes exploitent les capacités des LLMs, les résultats de cette recherche mettent en évidence la nécessité de renforcer la sécurité de ces modèles pour garantir leur utilisation sûre et éthique.
Maksym Andriushchenko souligne :
“Si nous voulons déployer ces modèles en tant qu’agents autonomes, il est important de s’assurer qu’ils sont correctement entraînés pour se comporter de manière responsable et réduire au minimum le risque de causer des dommages graves”.
Concluant :
“Nos résultats mettent en évidence une lacune critique dans les approches actuelles de la sécurité des LLM. Nous devons trouver des moyens de rendre ces modèles plus robustes, afin qu’ils puissent être intégrés en toute confiance dans notre vie quotidienne, en veillant à ce que leurs capacités de pointe soient utilisées de manière sûre et responsable”.
Les vulnérabilités identifiées par les chercheurs témoignent de l’importance de poursuivre les recherches sur la sécurité des modèles.
Source de l’article : Tanya Petersen, EPFL


Pearltrees, un des leaders français des solutions numériques éducatives, annonce le lancement de l’expérimentation de son nouvel outil d’IA dédié aux enseignants. Conçue pour alléger la charge de travail des enseignants et intégrée à la plateforme Pearltrees Éducation dès janvier 2025, cette IA souveraine a pour objectif d’accompagner 120 000 professeurs en leur fournissant des solutions adaptées et personnalisées.
Lancée en 2019, Pearltrees est une plateforme collaborative de curation de contenu web. A l’intersection des technologies cloud, IA et des réseaux sociaux grand public, elle est aujourd’hui utilisée par plus de 10 millions de personnes dans le monde.
Pearltrees Éducation, sa version SaaS dédiée aux établissements scolaires, est utilisée par plus d’un tiers des professeurs et des élèves des collèges et des lycées français, soit près d’1.3 million de personnes.
Les enseignants du secondaire font face à des défis croissants : hétérogénéité des niveaux des élèves, augmentation des tâches administratives et exigences accrues en termes de personnalisation des apprentissages. L’IA Pearltrees est pensée comme un assistant pédagogique : elle propose aux enseignants des outils tels que des éléments ou plans de cours, des exercices différenciés ou des QCM.
Ces outils visent à libérer du temps aux enseignants, leur permettant ainsi de se consacrer pleinement à une pédagogie adaptée aux besoins de chaque élève.
Pour garantir son efficacité, l’IA Pearltrees est testée selon une approche en deux étapes :
Cette seconde phase vise à s’assurer que l’IA, dans ce contexte d’utilisation réel, est à la fois compréhensible et utilisable en autonomie par les enseignants. Si c’est le cas, l’IA Pearltrees sera généralisée à la fin janvier 2025, offrant ainsi ses bénéfices à plus de 120 000 enseignants, soit un tiers des professeurs du secondaire en France.
Les premiers utilisateurs saluent les atouts de l’IA Pearltrees. Pascal Pannier, professeur-documentaliste, se dit conquis par sa simplicité d’accès et la pertinence des contenus produits. Pour Vincent Sallent, seul professeur de physique-chimie dans un petit collège, “C’est comme si je travaillais avec un collègue, ce qui pour moi est très appréciable”.
Patrice Lamothe, PDG et cofondateur de Pearltrees conclut :
“L’intégration de l’IA Pearltrees s’inscrit dans la mission fondamentale de Pearltrees : offrir aux enseignants les meilleures technologies pour organiser et partager la connaissance”.


Les assistants applicatifs, comme Google Gemini ou Notion AI, incarnent une nouvelle ère de productivité. Ils ne se contentent plus de prédire des résultats : ils orchestrent des actions planifiées et automatisées. L’AI Decision Matrix d’AI Builders Research, le cabinet d’analystes d’AI Builders, en cartographiant et analysant les solutions des principaux acteurs de ce marché, permet aux entreprises de choisir la solution la plus adaptée à leurs besoins spécifiques.
Les LLMs, dotés de milliards de paramètres, agissent comme des orchestrateurs, capables de :
Ces modèles fonctionnent comme des Large Action Models (LAM), transformant une requête en une série d’actions réalisables.
Le machine learning a permis aux systèmes d’IA d’évoluer du réactif au prédictif, l’IA générative du prescriptif à l’actionnable planifié.
Stéphane Roder, PDG d’AI Builders commente :
“L’actionnabilité est certainement la vraie révolution de l’IA Générative. Ces assistants d’un nouveau genre, capables de réaliser des actions, semblent devenir un nouveau standard d’interaction avec nos applications du quotidien”.
Les assistants applicatifs sont des chatbots intégrés à des logiciels ou à des suites logicielles qui utilisent des agents pour actionner les applications de la suite dans laquelle ils opèrent, permettant ainsi une automatisation efficaces des tâches.
Il peut s’agir d’assistants bureautiques comme Microsoft Copilot ou Gemini de Google ou d’assistants dédiés aux suites métiers comme Agentforce de Salesforce ou Joule de SAP.
L’AIDM se veut un outil évolutif, AI Builders prévoit déjà une nouvelle publication d’ici 6 mois. Il ne pouvait tenir compte lors de sa publication de la décision par Microsoft de retirer son assistant Copilot pour les utilisateurs professionnels, annoncée ce 16 décembre.
L’AIDM évalue les solutions selon leur performance et leur maturité. La performance inclut des critères comme la qualité des réponses, la personnalisation, la sécurité des données et la complexité des tâches réalisées tandis que pour la maturité, l’AIDM analyse l’adoption sur le marché, les intégrations possibles, la facilité d’utilisation et la scalabilité.
Les solutions étudiées sont classées en quatre catégories :
AI Builder a évalué quinze assistants applicatifs. Parmi ceux-ci :
Microsoft Copilot
Points forts : Intégration avec des outils tiers comme SAP et ServiceNow, possibilité de créer des agents spécialisés.
Catégorie : Best in Class.
Google Gemini
Performances : Nombreuses fonctionnalités grâce à une intégration
totale avec l’écosystème Google, notamment les outils BigQuery, Workspace et Colab.
Catégorie : Best in Class.
SAP Joule
Particularités : Dashboards automatiques, création d’agents personnalisés via Joule Studio.
Catégorie : Next Gen.
Notion AI
Atouts : Simple d’utilisation, capable de générer des tableaux et de rechercher dans plusieurs bases de données.
Catégorie : Safe Bet.
On retrouve dans le tableau ci-dessous les catégories attribuées à chacun des assistants analysés.
![]()


La 10ᵉ édition du HDI Day, organisé par le Healthcare Data Institute le mardi 26 novembre prochain, explore une problématique cruciale : « Données de santé : Quelle(s) souveraineté(s) pour la France ? ». En effet, les avancées fulgurantes des technologies numériques et de l’intelligence artificielle transforment profondément l’utilisation des données de santé. Dans ce contexte, la souveraineté nationale et européenne s’impose comme une priorité stratégique. Mais comment définir cette souveraineté dans la gestion de ces données sensibles ? Quels équilibres trouver entre compétitivité, coopération industrielle et contrôle des données pour garantir une autonomie durable ?
Pour cette édition spéciale marquant son 10ᵉ anniversaire, le HDI, sous la présidence de Christian Deleuze, Directeur Général Délégué à l’Innovation de Sanofi France, mettra en lumière des questions essentielles liées à la souveraineté des données de santé. Une thématique centrale comme le précise Christian Deleuze, président du Healthcare Data Institute : « La souveraineté numérique en matière de données de santé est un défi majeur : il s’agit de préserver notre indépendance et notre capacité d’innovation tout en maintenant des partenariats internationaux essentiels ».
Au cœur de la journée, des keynotes et tables rondes avec des leaders d’opinion et des représentants d’organisations majeures tels que Google, La Poste, Sanofi et Thalès, permettront d’explorer des thématiques telles que : « Quelles sont les clés d’une souveraineté numérique offensive dans la santé ? » ou encore « Comment construire une souveraineté numérique et des données de santé au niveau européen ? », avec des interventions d’acteurs tels que BLEU, TeraLab, Phase 4, et l’Agence de l’innovation en santé. Découvrez le programme du HDI Day 2024.
L’après-midi sera marqué par la présentation de l’Observatoire des données de santé hospitalière, une initiative du HDI visant à fournir des insights stratégiques sur l’usage des données dans les hôpitaux. Un entretien exclusif avec François Caire-Maurisier, Pharmacien général des armées et Directeur adjoint de l’Académie de santé des armées, viendra enrichir les réflexions, en partenariat avec l’IHEDN.
Le discours de clôture sera prononcé par Sylvie Retailleau, Enseignante-chercheuse en physique & en électronique et Ancienne présidente d’université et ministre de l’Enseignement supérieur et de la Recherche.
Le HDI Day est organisé avec le soutien de l’agence RCA Factory, spécialisée en communication santé, et en partenariat avec des institutions telles que l’IHEDN Région Paris Île-de-France et Medicen Paris Region. Les médias spécialisés, dont TICsanté, TICpharma, Pharmaceutiques et ActuIA, suivront également de près les moments phares de la journée.
Le Healthcare Data Institute (HDI) est un acteur clé dans l’écosystème de la santé en France. Ce laboratoire d’idées rassemble environ 60 experts issus des secteurs public et privé, dédiés à maximiser la valeur scientifique et économique des données de santé. Son objectif : contribuer à une transformation durable du système de santé au profit des patients, des professionnels et des citoyens.
Chaque année, le HDI organise le HDI Day, un événement phare qui attire près de 200 décideurs et experts dans les domaines du numérique, de l’intelligence artificielle et de la gestion des données de santé. L’événement, qui se déroule à l’Institut Imagine, favorise les échanges sur les enjeux stratégiques du secteur.
Cette année encore, le HDI Day promet d’être un espace unique de dialogue et de collaboration pour imaginer les solutions qui permettront à la France et à l’Europe de s’affirmer comme des leaders dans la gestion souveraine des données de santé.


Le PEPR (Programme et Équipement Prioritaire de Recherche) Intelligence Artificielle vise à accompagner l’accélération de la France dans le domaine de l’IA à travers trois grandes thématiques de recherche : l’IA frugale et embarquée, l’IA de confiance et distribuée, et les fondements mathématiques de l’IA. L’ANR (Agence Nationale de la Recherche), qui opère ce programme, annonce le lancement d’un AAP s’adressant à ce troisième axe.
Lancé le 25 mars dernier, co-piloté par le CEA, le CNRS et Inria, le PEPR IA est doté d’un budget de 73 millions d’euros sur six ans, financé par France 2030 dans le cadre de la stratégie nationale pour l’IA (SNIA).
Ses objectifs sont multiples : renforcer l’écosystème français de recherche et d’innovation, lever les verrous du déploiement de l’IA, faire émerger des technologies de rupture, positionner la France et l’Europe comme des leaders sur des thématiques stratégiques.
Le PEPR IA vise également à faciliter l’interdisciplinarité, attirer les talents et créer des passerelles entre la recherche publique et l’innovation, en collaboration avec les start-ups et les PME. Il s’inscrit ainsi pleinement dans la seconde phase de la SNIA axée sur la formation à l’IA, le développement d’une offre de technologies deeptech sur l’IA embarquée, l’IA de confiance, l’IA frugale et l’IA générative ainsi que le rapprochement de l’offre et de la demande de solutions d’IA.
Cet AAP vise à mobiliser et développer des recherches fondamentales en mathématiques pour analyser les mécanismes sous-jacents des réseaux de neurones profonds et des modèles génératifs et améliorer les techniques d’apprentissage automatique, en termes, entre autres, de frugalité, de confiance (robustesse, préservation de la vie privée, certification, détection et élimination des biais, explicabilité, etc.), de performance, d’évolutivité et de modularité.
Sur les 73 millions alloués au PEPR IA, six seront consacrés aux projets sélectionnés qui devront impliquer au minimum 3 structures de recherche. Chacun d’eux, dont la durée sera comprise entre 36 et 48 mois, bénéficiera d’une aide financière allant de 600 000 à 1 million d’euros.
Les projets devront se positionner par rapport à au moins l’une des deux thématiques ci-dessous :
Cette thématique vise à promouvoir les recherches mathématiques de pointe pour analyser et perfectionner les techniques d’IA générative. L’objectif est de rendre ces techniques plus performantes, efficaces et sûres. Les projets sélectionnés devront exploiter un vaste éventail de techniques mathématiques, incluant la théorie des probabilités, la théorie des jeux, les équations aux dérivées partielles, le contrôle optimal, le transport optimal, les systèmes dynamiques, les systèmes désordonnés, les théories des matrices et des réseaux aléatoires. Ces théories joueront un rôle clé dans le développement de techniques d’apprentissage telles que l’entraînement par réseaux adverses, les modèles de diffusion, l’apprentissage profond par renforcement et les grands réseaux de type transformers.
Cette thématique se concentre sur l’apprentissage profond géométrique, qui permet d’aborder des données avec des structures non-euclidiennes comme les graphes, les surfaces et les nuages de points. L’objectif est de promouvoir les recherches mathématiques de pointe pour analyser et perfectionner les techniques d’IA au cœur de l’apprentissage géométrique. Les disciplines mathématiques concernées incluent la théorie des graphes, la géométrie computationnelle, la théorie des groupes, les décompositions tensorielles et la topologie. Les projets devront démontrer une maîtrise des fondements mathématiques et proposer des applications pratiques pour avancer dans les problématiques de l’IA, en particulier dans les domaines où la structure des données sort des cadres traditionnels.
Les consortiums candidats ont jusqu’au 04/02/2025 pour déposer leur projet électroniquement.


Dans le cadre de l’ouverture prochaine de son bureau à Paris, OpenAI annonce un partenariat avec Simplon, entreprise sociale qui se distingue par son approche inclusive et son engagement en faveur de la diversité dans le secteur du numérique. Celle-ci devient le premier partenaire européen à rejoindre le programme OpenAI Academy dédié à la démocratisation de l’accès aux technologies de l’IA lancé le mois dernier.
Fondée en 2013 par Frédéric Bardeau, Andrei Vladescu-Olt et Erwan Kezza, Simplon vise à rendre les compétences numériques accessibles à tous, en particulier aux personnes éloignées de l’emploi ou en reconversion professionnelle. L’entreprise propose des formations intensives et gratuites dans des domaines tels que le développement web, la data science, le design numérique…
En plus de ses formations en présentiel, Simplon a également développé des initiatives en ligne, des MOOCs, et des partenariats avec des entreprises comme Microsoft, Meta ou des institutions pour étendre son impact et favoriser l’insertion professionnelle des personnes formées.
Dans le cadre de ce partenariat, OpenAI fournira à Simplon un soutien sous forme de formations spécialisées, de conseils techniques, ainsi que des crédits d’API pour permettre le développement de projets à fort impact social. Cette collaboration stratégique vise à familiariser les organisations à but non lucratif avec les outils d’IA et à maximiser leur impact positif auprès des populations vulnérables.
Frédéric Bardeau, président et cofondateur de Simplon, commente :
“Nous sommes ravis de nous associer à OpenAI et ChatGPT pour apporter les super-pouvoirs de l’IA générative aux communautés sous-desservies et sous-représentées. En étendant les bénéfices des modèles multilingues et multimodaux de pointe aux organisations à but non lucratif et en rendant ChatGPT largement accessible à notre équipe, nos apprenants et nos bénéficiaires, nous visons à libérer tout leur potentiel et à créer un impact durable”.
Pour marquer le lancement de ce partenariat, Simplon organisera, le 13 novembre prochain, un hackathon GenAI en partenariat avec Big Bloom et avec le soutien de RAISE Sherpas. Cet événement, qui se déroulera juste avant la Semaine Européenne pour l’Emploi des Personnes Handicapées, réunira des associations engagées telles qu’EPNAK et Club House France, qui œuvrent pour les personnes en situation de handicap, ainsi que J’accueil by SINGA et UTOPIA 56, actives dans le soutien aux réfugiés.
L’objectif de ce hackathon est de développer huit solutions concrètes basées sur l’IA générative pour améliorer l’accessibilité et l’inclusion sociale. Des sessions d’acculturation à l’IA seront également organisées à destination de publics éloignés de l’emploi, ainsi que des équipes travaillant au sein d’ONG et auprès de personnes fragiles.
Au-delà des aspects techniques, ce partenariat vise à sensibiliser les acteurs de l’économie sociale et solidaire (ESS) à l’utilisation de l’IA comme levier pour l’inclusion, l’accessibilité, et l’égalité des chances. Simplon prévoit d’organiser des formations et webinaires afin de familiariser ces acteurs avec des outils comme ChatGPT, contribuant ainsi à renforcer l’impact des initiatives sociales et solidaires.


IBM a inauguré hier son premier datacenter quantique en Europe. Ce nouveau centre de données, situé à Ehningen, en Allemagne, est la première installation d’IBM en dehors des États-Unis dédiée à l’informatique quantique. L’entreprise possède un autre datacenter quantique à Poughkeepsie, dans l’État de New York, dont elle vient d’achever l’extension.
L’inauguration a eu lieu en présence du Chancelier allemand, Olaf Scholz, de dirigeants d’IBM, dont Arvind Krishna, son PDG, et Ana Paula Assis, General Manager d’IBM EMEA, ainsi que de nombreux représentants de grandes entreprises européennes telles que Volkswagen, Bosch, Crédit Mutuel, E.ON et des institutions de recherche comme l’Université du Pays basque et la Fraunhofer-Gesellschaft.
Le nouveau datacenter abrite déjà deux ordinateurs quantiques, fonctionnant à une échelle utile, basés sur le processeur Eagle et accueillera prochainement un système quantique utilisant le processeur IBM Quantum Heron, qui permet de réduire les taux d’erreur, offrant des performances 16 fois supérieures et une vitesse 25 fois plus rapide par rapport aux précédents ordinateurs quantiques d’IBM de 2022.
Ce passage à l’utilité quantique signifie que l’informatique quantique n’est plus une technologie théorique ou exploratoire, mais qu’elle peut être utilisée de manière pratique pour résoudre des problèmes réels dans des domaines variés. En juin 2023, IBM a démontré que son matériel quantique pouvait exécuter des calculs de manière plus efficace qu’un ordinateur classique, ce qui permet de franchir une étape vers l’avantage quantique, le moment où un ordinateur quantique surpassera définitivement les ordinateurs classiques sur des tâches spécifiques.
Plus de 80 organisations européennes accèdent actuellement aux ordinateurs quantiques du nouveau centre de données via IBM Quantum Platform pour explorer les applications potentielles de l’informatique quantique dans leurs secteurs respectifs. Parmi celles-ci, le Crédit Mutuel, Bosch, E.ON et Volkswagen.
Selon Frantz Rublé, Directeur général adjoint de Crédit Mutuel Alliance Fédérale, :
“La mise à disposition de ce datacenter quantique sur le sol européen adresse nos contraintes en termes de proximité des traitements et l’approche du Crédit Mutuel en matière de conformité réglementaire. Il permet également d’envisager sereinement les prochaines étapes du projet Quantique au Crédit Mutuel, au CIC et ensuite chez Targobank”.
Pour Javier Aizpurua, professeur à Ikerbasque, au Centre international de physique de Donostia (DIPC) et directeur de BasQ, le datacenter permettra aux scientifiques et aux chercheurs du Centre de s’attaquer à des problèmes exigeants en sciences des matériaux, en physique des hautes énergies et en biosciences.
Il assure :
“Une utilisation combinée de l’informatique quantique, de l’IA et de la science des données, si elle est généralisée, donnera lieu à un scénario de nouvelles possibilités non seulement dans la recherche fondamentale, mais aussi dans l’innovation industrielle”.
Le jour même de l’inauguration, IBM a annoncé avoir terminé l’installation d’un deuxième ordinateur quantique basé sur le processeur Heron, à Poughkeepsie.
Ana Paula Assis, General Manager d’IBM EMEA, conclut :
“L’ouverture de notre premier datacenter quantique IBM en Europe marque un moment crucial pour le développement technologique de la région, démontre notre engagement envers l’Europe et met en évidence le rôle clé de la collaboration avec l’industrie, le monde universitaire et les décideurs politiques pour un écosystème quantique paneuropéen. Cette installation de pointe favorisera l’innovation dans le domaine de l’informatique quantique, en créant de nouvelles opportunités pour attirer les talents et en assurant que l’Europe reste à la pointe des avancées technologiques mondiales”.


L’IA continue de transformer le paysage du recrutement, offrant de nouvelles perspectives pour les recruteurs et les chercheurs d’emploi. Une étude récente de Capterra met en lumière la perception des candidats français à l’égard de l’IA dans le cadre de leur recherche d’emploi et révèle des pistes d’optimisation pour les recruteurs, soulignant la nécessité d’une approche humaine et transparente dans le processus.
Pour son étude “Job Seeker AI 2024”, Capterra a interrogé en juillet dernier près de 3 000 chercheurs d’emploi dans le monde, dont 247 en France. La première partie a révélé que 57 % des demandeurs d’emploi français ont utilisé au moins une fois l’IA pour postuler à une offre, la seconde que le même pourcentage des postulants français est favorable à l’usage de l’IA dans les processus d’embauche.
Pour eux, l’IA rend le processus de recrutement plus équitable et plus efficace : 58 % des candidats estiment que l’IA est moins partiale, réduisant les biais humains.
Pour autant, l’automatisation complète des processus de recrutement ne fait pas l’unanimité : 38 % des répondants affirment qu’un processus trop automatisé, sans intervention humaine, serait un frein à leur candidature, ce qui souligne l’importance de trouver un équilibre entre technologie et interaction humaine.
Un autre chiffre clé de l’étude est le nombre de chercheurs d’emploi (30 %) ayant refusé une offre jugée inadéquate, principalement en raison d’un manque de clarté dans la description des missions, 28 % l’ayant décliné en raison d’une rémunération inférieure à leurs attentes.
L’une des principales forces de l’IA réside dans sa capacité à traiter rapidement de grandes quantités d’informations. Les recruteurs peuvent ainsi se concentrer sur les entretiens de qualité et affiner leurs critères en temps réel. En misant sur une approche combinant automatisation et intervention humaine, les recruteurs ont la possibilité d’améliorer l’efficacité de leurs processus et d’offrir une expérience de candidature plus fluide et engageante.
Pour tirer pleinement parti de l’IA tout en répondant aux attentes des candidats, Capterra identifie trois axes clés pour les recruteurs :
![]()
L’étude de Capterra montre que, dans un contexte où 30 % des chercheurs d’emploi refusent des offres en raison d’un décalage entre leurs attentes et celles des recruteurs, l’IA peut jouer un rôle clé pour améliorer l’adéquation entre les deux parties. En aidant à rationaliser les étapes de présélection et en garantissant plus d’équité, cette technologie permet aux recruteurs de se concentrer sur des interactions de qualité avec les candidats les plus qualifiés.
Pour Emilie Audubert, analyste de contenu chez Capterra :
“L’intégration de l’IA dans les processus de recrutement ne signifie pas qu’il faille négliger l’élément humain. D’une part, il est essentiel de reconnaître que l’IA n’est pas infaillible et demande une certaine supervision. D’autre part, cette technologie se présente comme un outil complémentaire qui, utilisé à bon escient, peut compléter les capacités humaines et contribuer à une amélioration de l’expérience proposée aux candidats. En facilitant le traitement de tâches répétitives et de volumes importants d’informations, cette solution est un atout réel permettant aux recruteurs de se concentrer sur des missions à forte valeur ajoutée”.
Vous pouvez retrouver l’étude complète sur le blog de Capterra


La nomination de Clara Chappaz au Secrétariat d’État chargé de l’Intelligence artificielle et du Numérique dans le gouvernement de Michel Barnier, a été largement saluée par l’écosystème des start-ups françaises. Cependant, l’ensemble des acteurs de la filière des infrastructures et services numériques, portée par InfraNum et des associations d’élus locaux, exprime son inquiétude quant à la place accordée au numérique et aux télécommunications dans la stratégie du nouveau gouvernement.
La fédération InfraNum a été créée le 6 décembre 2012 pour accompagner le Plan France Très Haut Débit, elle regroupe plus de 200 acteurs de la filière des infrastructures numériques (bureaux d’études, opérateurs, intégrateurs, équipementiers, fournisseurs de services…). Partenaire industriel de tous les territoires connectés ou à connecter, elle appelle avec l’Avicca (Association des Villes et Collectivités pour les Communications Électroniques et l’Audiovisuel) et la FNCCR (Fédération Nationale des Collectivités Concédantes et Régies) à un portage politique complet du numérique.
Le secteur des télécommunications en France représente un marché de 40 milliards d’euros, et joue un rôle central dans la transformation numérique de la société. Toutefois, la filière s’inquiète du peu de place accordée à ce secteur essentiel dans les priorités gouvernementales. Ses acteurs appellent à un engagement politique plus fort, soulignant les défis importants auxquels le secteur est confronté, tels que l’achèvement du Plan France Très Haut Débit, la couverture mobile 4G/5G, et la gestion des infrastructures essentielles, comme la fibre optique et la fermeture du réseau téléphonique en cuivre.
Elle déplore l’insuffisance des moyens alloués pour assurer une connectivité équitable et durable dans l’ensemble du pays, notamment dans les zones rurales et défavorisées, en particulier après la réduction de 39 % des crédits (155 millions d’euros) pour 2024 décidée en février dernier. Elle craint que cette tendance ne se poursuive, compromettant les ambitions d’inclusion numérique et de transformation des territoires.
InfraNum, l’Avicca et la FNCCR se disent prêts à collaborer avec le nouveau gouvernement pour bâtir l’avenir numérique de la France, mais pour les industriels de la filière et les deux associations d’élus locaux, le numérique et les télécommunications ne doivent pas être négligés au profit de projets plus visibles mais moins structurants.
Ils concluent :
“Face aux grands enjeux d’inclusion, de compétitivité et de pérennité, la filière s’étonne de la portion congrue accordée au numérique et de l’absence de prise en compte du sujet télécommunications, dont le nouveau gouvernement ne semble pas faire une priorité. La transition numérique de la France, pour être complète y compris sur les sujets de l’IA ou des Startups, ne peut s’appuyer sur une absence de socle de télécommunications, pas plus qu’elle ne peut se faire en laissant sur le côté des millions de Françaises et Français”.


Le “Rapport Art & IA 2024” publié récemment par Hiscox, l’assureur spécialisé dans le marché de l’art, révèle une montée en puissance de l’intérêt pour l’art généré par l’IA, en particulier chez une nouvelle génération de collectionneurs. Cette nouvelle étude d’Hiscox, menée en partenariat avec ArtTactic, une société d’analyse spécialisée dans le marché de l’art, interroge la perception qu’ont les acheteurs et les amateurs d’art des œuvres générées par IA, ainsi que la valeur et le potentiel de ces œuvres pour les collectionneurs.
Selon l’étude, 40 % des collectionneurs d’art estiment que la demande pour l’art généré par IA progressera au cours des 12 prochains mois. Les amateurs d’art sont quant à eux plus optimistes et considèrent à 67% que le marché des ventes d’œuvres d’art généré par IA devrait connaître un essor.
Si seulement 2% des collectionneurs d’art traditionnel ont acheté une œuvre générée par IA, 29% pourraient envisager d’en acheter une à l’avenir. L’intérêt pour l’art généré par IA s’est avéré plus important chez les nouveaux collectionneurs, à savoir ceux qui collectionnent depuis moins de trois ans, 7% d’entre eux ayant déjà acheté de l’art généré par IA et 39% déclarant qu’ils envisageaient de le faire.
Les amateurs, quant à eux, sont 28 % à avoir déjà acquis une œuvre créée par des algorithmes d’IA, plus de la moitié d’entre eux, soit 52 %, envisage l’acquisition de telles œuvres à l’avenir.
Ces chiffres illustrent l’intérêt grandissant pour ce type d’art, notamment auprès d’une nouvelle typologie d’acheteurs, ce qui laisse entrevoir un avenir prometteur pour cette forme d’art en tant qu’objet de collection.
Pour Hiscox, cet engouement est dû à la popularité des IA génératives d’images comme DALL·E, Stable Diffusion et MidJourney. En parallèle, le nombre croissant de sites web et d’artistes vendant leurs œuvres IA, que ce soit sous forme physique ou en tant que NFT, ne cesse d’alimenter l’intérêt des acheteurs.
Julie Hugues, Responsable Marché Art et Clientèle Privée chez Hiscox France, commente ces résultats :
“L’Intelligence Artificielle est désormais omniprésente dans notre société, et le marché de l’art n’y échappe pas. Notre rapport est une première étape pour comprendre la réaction des experts du marché face à l’arrivée de l’art généré par IA et ce que cela pourrait signifier pour l’avenir. Ce nouveau type d’art peut-il vraiment reproduire le parcours émotionnel, élément nécessaire du processus créatif humain ? Ou existe-t-il un avenir où les œuvres humaines et celles générées par IA coexistent harmonieusement ? Seul l’avenir nous le dira. Il est cependant clair qu’il y a pour l’instant un intérêt naissant face au potentiel de l’art généré par IA chez un segment de collectionneurs actuels et futurs.”
Malgré cette dynamique, des préoccupations subsistent. Selon le rapport, 82 % des collectionneurs et 76 % des passionnés d’art estiment nécessaire de mieux distinguer l’art généré par IA de celui créé par des artistes humains. Les questions relatives aux droits d’auteur et à la propriété intellectuelle continuent d’être débattues, accentuant le besoin de réglementation dans ce domaine émergent.
Bien que l’intérêt pour l’art IA croisse, 67 % des jeunes collectionneurs et 69 % des collectionneurs plus âgés affirment que ces œuvres ont moins de valeur à leurs yeux que celles produites par des artistes humains, reflétant un scepticisme persistant face à la capacité de l’IA à capturer l’émotion et l’intention qui sous-tendent l’acte créatif humain.
Cependant, 26 % des jeunes collectionneurs considèrent l’art généré par l’IA aussi important que les formes d’art traditionnelles, telles que la peinture ou la sculpture, ce qui pourrait indiquer un tournant pour l’acceptation de l’art généré par l’IA dans le futur.
La vente aux enchères en 2018 de l’œuvre “Portrait d’Edmond de Belamy” du Collectif Obvious, pour la somme record de 432 500 dollars, a marqué le début de la reconnaissance du potentiel de l’art généré par IA. Si le marché s’est depuis montré irrégulier, cette année, les œuvres de Refik Anadol, Sougwen Chung, Harold Cohen, Claire Silver et Roope Rainisto ont suscité l’intérêt lors des ventes aux enchères. En 2024, plusieurs expositions ont donné plus d’espace à ces artistes, notamment au Whitney Museum à New York, à la Fondation Beyeler à Bâle, à la Serpentine Gallery à Londres et au Centre Pompidou à Paris.


Le Sommet de l’Avenir 2024 s’est tenu les 22 et 23 septembre derniers au siège de l’ONU à New York. En marge de cet événement qui a réuni plus de 130 chefs d’État et de gouvernement pour discuter des défis mondiaux actuels et futurs, l’ONU et l’OCDE ont annoncé une nouvelle collaboration pour renforcer la gouvernance mondiale de l’IA. Cette initiative vise à répondre aux défis croissants posés par le développement rapide de l’IA et à maximiser ses opportunités tout en gérant les risques associés.
Créée en 1961, l’OCDE (Organisation de coopération et de développement économiques) a pour objectif de promouvoir la coopération économique entre ses pays membres, mais aussi de faire progresser le bien-être social au niveau mondial en dispensant aux gouvernements des conseils sur la mise en œuvre de politiques à l’appui d’une croissance résiliente, inclusive et durable.
Dès 2017, l’Organisation s’est intéressée aux usages d’une IA bénéficiant à toute la société, a adopté en 2019 les principes sur l’IA établissant les normes d’une IA responsable et digne de confiance qu’elle a révisés en mai dernier, prenant en compte l’émergence des IA génératives et à usage général et abordant plus directement les défis associés à l’IA : la protection de la vie privée, les droits de propriété intellectuelle, la sécurité et l’intégrité des informations. Aujourd’hui, 47 pays y adhèrent.
Pour aider les gouvernements et les parties prenantes à les comprendre et à les mettre en œuvre, elle a lancé, en février 2020, l’Observatoire des politiques publiques relatives à l’IA,(OECD.AI), fournissant aux gouvernements des données comparatives et des analyses des politiques adoptées à travers le monde, leur permettant ainsi d’anticiper les impacts de l’IA sur leurs sociétés. Servant de plateforme de dialogue et de partage de bonnes pratiques, il couvre divers aspects de l’IA, tels que la gouvernance, la sécurité, la confidentialité des données, et l’impact de l’IA sur le marché du travail et les compétences.
Depuis 2020, l’OCDE héberge le secrétariat du PMIA à Paris, une initiative franco-canadienne favorisant les échanges entre décideurs et experts en IA afin de combler l’écart entre la théorie et la pratique en matière de politiques relatives à l’IA.
De son côté, l’ONU travaille également activement pour s’assurer que l’IA soit utilisée de manière bénéfique pour toute l’humanité. Par le biais de l’UNESCO, elle a adopté le premier accord mondial sur l’éthique de l’IA en 2021, sa résolution sur les systèmes d’armes autonomes a été approuvée par 152 pays en décembre 2023. Plus récemment, son projet de résolution visant à promouvoir des systèmes d’IA sûrs, sécurisés et dignes de confiance pour répondre aux grands défis mondiaux, tels que la pauvreté, la sécurité alimentaire, la santé, l’éducation, l’énergie et le changement climatique, a été adopté sans vote lors d’une de ses assemblées générales en mai dernier.
Amandeep Singh Gill, Envoyé du Secrétaire général des Nations Unies pour les technologies, a souligné lors de l’annonce l’importance cruciale du renforcement de la collaboration entre les deux entités :
“Le développement rapide des technologies d’IA et l’ampleur de leur impact nécessitent une collaboration renforcée, et en temps réel, entre les divers écosystèmes de politiques publiques. Cette nouvelle initiative entre l’ONU et l’OCDE mettra à profit leurs capacités complémentaires pour aider les gouvernements à agir rapidement et efficacement en réponse aux enjeux liés à l’IA. L’objectif est d’établir des mécanismes de gouvernance mondiale, inclusifs et robustes, en coopération avec des parties prenantes clés, dont des centres universitaires de renom et des scientifiques du monde entier”.
La collaboration entre l’ONU et l’OCDE s’articulera autour d’évaluations régulières, fondées sur des données scientifiques des risques et des opportunités que présente l’IA. Les deux organisations mettront à profit leurs réseaux, plateformes d’échanges et travaux en cours respectifs en matière de politiques publiques et de gouvernance de l’IA pour soutenir leurs États membres et d’autres parties prenantes dans leurs efforts visant à promouvoir une approche inclusive à l’échelle mondiale.
Ulrik Vestergaard Knudsen, Secrétaire général adjoint de l’OCDE, explique :
“L’évaluation scientifique rigoureuse et fondée sur des données probantes doit être au cœur de la gouvernance mondiale de l’IA. Notre annonce marque une avancée notable dans cette direction : le partenariat alliera les capacités techniques et analytiques de l’OCDE au vaste rayonnement mondial des Nations Unies et à ses efforts complémentaires pour soutenir une coordination internationale de la gouvernance de l’IA”.
Concluant :
“L’Observatoire des politiques publiques relatives à l’IA de l’OCDE, les travaux d’envergure que nous menons pour faire progresser la mise en œuvre des Principes sur l’IA et le Partenariat mondial sur l’intelligence artificielle à l’OCDE offrent une base solide à cette collaboration. Nos efforts conjoints aideront les pays à tirer parti de toutes les possibilités offertes par l’IA tout en atténuant et en gérant plus efficacement les risques et les bouleversements qui lui sont associés, afin de favoriser une IA centrée sur l’humain, sûre, sécurisée et digne de confiance”.


Samedi dernier, Alexis Kohler, secrétaire général de l’Élysée, a annoncé la nomination de Clara Chappaz au Secrétariat d’État chargé de l’Intelligence artificielle et du Numérique dans le gouvernement de Michel Barnier. Cette décision marque une première : l’intégration officielle de l’IA dans un portefeuille ministériel. Elle a été largement saluée par l’écosystème des start-ups françaises, d’autant plus que, Clara Chappaz, forte de son expérience à la tête de la Mission French Tech, a déjà prouvé son engagement auprès d’elles.
Clara Chappaz succède donc à Marina Ferrari, secrétaire d’État chargée du Numérique depuis le 9 février 2024. Par contre, elle ne sera pas placée sous la tutelle du Ministère de l’Economie et des Finances, mais sous celle du Ministère de l’Enseignement supérieur et de la Recherche, dirigé par Patrick Hetzel, depuis ce 21 septembre. Un choix stratégique qui souligne l’importance de la recherche dans le développement de l’IA et des technologies numériques.
La nouvelle secrétaire d’État sera confrontée à des enjeux de taille, notamment les difficultés de financement auxquelles sont confrontées de nombreuses start-ups françaises. Le développement de l’IA et la nécessité de soutenir cette transition technologique par des investissements adaptés seront au cœur de son mandat.
Diplômée de l’ESSEC et de la Harvard Business School, Clara Chappaz, aujourd’hui âgée de 35 ans, est au fait des problématiques de l’entrepreneuriat. En 2017, lors de sa seconde année de Master en administration des affaires (MBA) à Harvard, elle a cofondé Lullaby, une start-up dédiée aux vêtements de seconde main pour enfants.
Elle a ensuite occupé des postes de direction chez Lyst, une entreprise londonienne de mode en ligne, puis chez Vestiaire Collective, licorne basée à Paris, spécialisée dans l’achat et dans la vente de vêtements et accessoires de mode de luxe d’occasion.
Elle a quitté ce dernier poste en octobre 2021 pour succéder le 1er novembre suivant à Kat Borlongan à la direction de la Mission French Tech, contrat de 3 ans qu’elle a décidé de ne pas renouveler. À cette fonction, selon ses dires, “l’aventure la plus excitante de ma vie professionnelle”, elle a fortement contribué au développement de l’écosystème des start-ups françaises, que ce soit via des programmes sectoriels ou le programme d’accélération French Tech 2030.
Lutter contre la sous-représentation de femmes dans l’écosystème de la Tech a été l’une de ses priorités. En mai 2022, la Mission French Tech lançait le Pacte Parité, auquel ont adhéré aujourd’hui plus de 700 start-ups, s’engageant à ce que 20% des membres de leur conseil d’administration soient des femmes d’ici 2025 et 40% d’ici 2028, et à former leurs dirigeants sur les enjeux de la diversité et la lutte contre les discriminations et le harcèlement.
C’est également sous sa direction que l’initiative French Tech Finance Partners a été lancée en janvier 2023 pour renforcer les investissements dans les startups françaises en réunissant des acteurs clés de l’investissement.
Aujourd’hui, elle se déclare prête pour cette nouvelle aventure, postant sur LinkedIn :
“Après 3 années à diriger La French Tech au sein du Ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique, je suis ravie de poursuivre mon engagement au service de l’action publique sur ces sujets majeurs que sont le numérique et l’intelligence artificielle”.


Le rapport “State Of The Media” de Cision, acteur majeur de l’industrie des médias et des relations publiques, dresse un panorama des défis rencontrés par les journalistes de divers secteurs et en explore les répercussions pour les équipes de relations médias. Cette année, sa quinzième édition met en lumière les spécificités des journalistes Tech face à leurs homologues d’autres secteurs, en s’appuyant sur les réponses de 3 016 journalistes de 19 marchés différents, dont 500 provenant des secteurs de la technologie et de l’ingénierie.
En 2024, les journalistes Tech partagent avec leurs homologues des autres secteurs les mêmes préoccupations fondamentales. Cependant, certaines nuances apparaissent dans les priorités :
Selon le rapport de Cision, le taux d’adoption de l’IA reste faible pour l’ensemble de la profession, bien que les journalistes Tech soient les plus enclins à utiliser cette technologie. Interrogés sur leur utilisation des outils d’IA générative tels que ChatGPT ou Gemini de Google, 49 % d’entre eux affirment ne pas y avoir recours du tout contre 53 % de leurs confrères. Tous secteurs confondus, les journalistes ne sont que 12 % à faire un usage régulier de la GenAI, 7 % à le faire souvent dans le secteur de la Tech contre seulement 5 % pour leurs homologues.
Les journalistes utilisent l’IA principalement pour :
Les journalistes Tech sont les plus grands utilisateurs des réseaux sociaux : près de 98 % les utilisent dans le cadre de leur travail. Si le classement des trois premiers usages est identique pour les deux groupes, ils placent la veille de l’information en 4ème position
alors que leurs confrères préfèrent le réseautage.
L’an passé, les usages prioritaires ont été les suivants :
Cision a interrogé les journalistes sur leurs activités prévues sur les plateformes. Pour ceux de la Tech, LinkedIn, avec 51 %, sera la plateforme de prédilection alors que leurs homologues penchent pour Instagram (44 %). YouTube est également en forte progression chez les journalistes Tech, avec 33 % d’entre eux prévoyant de l’utiliser davantage, contre 28 % dans les autres secteurs.
Les journalistes Tech sont plus sollicités que les autres. En effet, 22 % d’entre eux reçoivent plus de 151 sollicitations par semaine, contre 15 % pour l’ensemble de la profession. Cependant, ces sollicitations sont jugées non pertinentes par près de 72 % des journalistes Tech, une tendance similaire aux autres secteurs. Malgré tout, les journalistes Tech montrent un intérêt accru pour certains types de contenus, notamment :
Les informations exclusives sont également appréciées par les 2 groupes (55 %).
Les journalistes Tech sont également plus nombreux à considérer les contenus fournis par les communicants comme une source d’inspiration pour leurs sujets. Les communiqués de presse (72 %), les experts du secteur (56 %), et les courts pitchs par mail (52 %) sont pour eux les trois sources les plus utiles, suivis de la newsroom de l’entreprise (39%).


Probabl, l’opérateur officiel de la bibliothèque open source incontournable pour le ML, scikit-learn, annonce un tour de table de 5,5 millions d’euros, marqué par l’arrivée de nouveaux investisseurs. Cette levée de fonds intermédiaire, composée de bons de souscription convertibles, vise à préparer une future levée de fonds en actions afin de soutenir la croissance de l’entreprise tout en respectant sa mission phare : permettre à chacun de maîtriser sa science des données grâce à des outils fiables et innovants.
Créée en septembre 2023, Probabl, spin-off de l’Inria créée autour de scikit-learn, vise à développer des outils open source pour la science des données, l’IA et le ML, et d’étendre l’infrastructure logicielle de scikit-learn. L’objectif est d’assurer que scikit-learn continue d’évoluer et de répondre aux besoins des utilisateurs dans le monde entier, en restant un pilier de la data science open source.
Probabl a mis en place un modèle d’actionnariat reflétant son engagement en faveur de la souveraineté industrielle et numérique. L’entreprise a structuré ses parts autour de trois collèges distincts :
La levée de fonds, qui inclut une participation du dispositif French Tech Souveraineté, a vu l’arrivée de nouveaux investisseurs et partenaires clé, parmi lesquels Apertu Capital et Mozilla Ventures dont le soutien s’aligne avec les valeurs de Probabl, en accord avec les principes du Manifeste de Mozilla.
Parmi les nouveaux investisseurs se trouvent également des figures respectées de la communauté scikit-learn : des contributeurs « core-dev », des data scientists, des ingénieurs de recherche renommés, ainsi que des technologues de premier plan.
Devant ce message fort de la communauté, Yann Lechelle, PDG de Probabl, souligne :
“La communauté Python est extrêmement soudée et reconnaissante envers scikit-learn, qui a redéfini les standards de la science des données. En élargissant notre cercle d’actionnaires, nous nous assurons d’être en phase avec l’écosystème pour poursuivre notre mission avec force. Nous sommes très touchés par l’enthousiasme qui a dépassé nos attentes”.
Plusieurs business angels, ainsi qu’un champion olympique, ont également participé à ce tour de table, soulignant l’attractivité de l’entreprise au-delà de la sphère technologique.
Grâce à ce financement, Probabl a pu sécuriser l’acqui-hiring (une stratégie d’acquisition d’entreprises où l’objectif principal n’est pas d’acheter les produits ou les services de l’entreprise cible, mais plutôt de recruter ses talents et son expertise) de Mnemotix, une société spécialisée dans la gestion des données complexes. Cette opération lui permet d’intégrer les talents de Mnemotix pour renforcer les compétences de Probabl en matière de ML et de traitement de données non structurées.
Nicolas Delaforge, cofondateur de Probabl et Mnemotix, déclare :
“Nous sommes ravis d’annoncer que toute l’équipe de Mnemotix rejoint Probabl. Ce faisant, nous croyons que nous aurons un impact plus fort, en atteignant un public plus large et en gagnant de nouvelles capacités de résolution de problèmes, en restant fidèles aux valeurs qui nous ont guidés depuis le début. Cela marque la prochaine étape du parcours que nous avons entamé il y a 12 ans”.
Pour soutenir la communauté scikit-learn, Probabl prévoit de lancer son premier programme officiel de certification scikit-learn au quatrième trimestre 2024. Cette certification, développée par des membres clés de l’équipe scikit-learn, vise à promouvoir l’excellence en science des données et à offrir une reconnaissance des compétences dans ce domaine.
En parallèle, Probabl travaille sur un nouveau produit MVP (Produit Minimum Viable), qui verra le jour à la fin de l’année. Ce produit compagnon est conçu pour accompagner les data scientists dans la phase pré-MLOps, facilitant ainsi la préparation des données avant l’intégration des modèles de ML. Les entreprises intéressées peuvent dès maintenant rejoindre le programme de bêta-test pour explorer cette nouvelle solution.


L’UE, à travers l’entreprise commune EuroHPC et avec le soutien de la Commission européenne, a lancé ce 10 septembre une initiative pour établir des usines d’IA dans toute l’Europe. Ce projet vise à renforcer le leadership européen dans le domaine de l’IA digne de confiance et à accélérer l’innovation en mettant à disposition des infrastructures de supercalcul et des services dédiés aux développeurs d’IA.
Les usines d’IA, au cœur de cette initiative, seront créées autour du réseau des 9 supercalculateurs européens de calcul à haute performance d’EuroHPC. Trois de ces supercalculateurs EuroHPC sont aujourd’hui classés parmi les 10 supercalculateurs les plus puissants au monde : LUMI en Finlande, Leonardo en Italie et MareNostrum 5 en Espagne.
Ces infrastructures de classe mondiale, déployées par EuroHPC, offriront aux startups, aux PME, à l’industrie et aux chercheurs un accès simplifié à des capacités de calcul puissantes et des services d’IA avancés. Ces usines d’IA fourniront les ressources clés du succès dans le domaine de l’IA : puissance de calcul, données et talents.
Ursula von der Leyen, présidente de la Commission européenne, a salué cette initiative :
“L’Europe montre déjà la voie avec la législation de l’UE sur l’IA, en veillant à ce que l’IA soit plus sûre et plus digne de confiance. Au début de cette année, nous avons tenu notre promesse en ouvrant nos ordinateurs à haute performance aux jeunes pousses européennes dans le domaine de l’IA. Aujourd’hui, l’Europe doit également devenir un leader mondial en matière d’innovation dans le domaine de l’IA. Les usines d’IA contribueront à sécuriser notre position à l’avant-garde de cette technologie transformatrice”.
Pour la mise en œuvre de ces infrastructures, EuroHPC a lancé deux appels à manifestation d’intérêt, ouverts en continu jusqu’au 31 décembre 2025, avec des dates limites prédéfinies, dont la première est fixée au 4 novembre 2024 :
L’objectif de ces usines d’IA est de soutenir l’innovation en Europe, notamment dans des secteurs clés tels que les soins de santé, l’énergie, l’automobile, la défense, l’aérospatiale, la robotique, les technologies propres et agricoles. L’initiative AI Factories vise à établir un certain nombre de guichets uniques complets.
Les usines seront également connectées aux initiatives nationales des États membres en matière d’IA et profiteront des installations d’essai et d’expérimentation européennes, les TEF, et des pôles d’innovation numérique.
L’initiative AI Factories bénéficie d’un financement européen de près de 1 milliard d’euros, provenant du programme Europe numérique et d’Horizon Europe, ainsi que d’un montant égal financé par les États membres de l’UE. Cette contribution financière majeure garantit que les usines d’IA seront équipées pour répondre aux besoins en pleine expansion de l’écosystème IA européen.
Les usines d’IA permettront à l’Europe de rester compétitive dans le paysage mondial de l’IA en évolution rapide, tout en assurant une approche éthique et digne de confiance, au bénéfice de l’ensemble de la communauté scientifique, des industries et des citoyens européens.


Le groupe SNCF, l’École polytechnique et la Fondation de l’École polytechnique, ont inauguré le 5 septembre dernier la “Chaire d’enseignement et de recherche sur l’intelligence artificielle et l’optimisation pour les mobilités”. Ce partenariat stratégique vise à optimiser les transports publics tout en mobilisant les élèves ingénieurs de l’École polytechnique sur les enjeux de la mobilité durable.
Le réseau ferroviaire français est le deuxième plus vaste d’Europe, derrière celui de l’Allemagne. Chaque jour, plus de 14 000 trains transportent environ 5 millions de passagers. Depuis plusieurs années, le Groupe SNCF a intégré le numérique et l’intelligence artificielle pour moderniser son réseau, répondre aux défis posés par l’obsolescence technologique et les exigences des normes européennes, avec pour objectif final d’optimiser l’expérience des voyageurs, des conducteurs de train et des agents en gare.
Ce partenariat s’inscrit donc dans cette dynamique d’innovation du groupe, qui continue d’explorer des solutions innovantes pour anticiper les défis de demain et continuer à améliorer ses services. Selon Christophe Fanichet, Directeur Général adjoint du Numérique groupe SNCF “Pour être le leader des mobilités, il faut être un leader de la Tech”. L’École polytechnique, avec son expertise scientifique et technique, est le partenaire idéal pour atteindre ces objectifs ambitieux.
Sous la direction de Sonia Vanier, professeure au sein du département d’informatique de l’École polytechnique et chercheuse au Laboratoire d’informatique (LIX), cette chaire s’inscrit dans une démarche pionnière alliant la puissance des technologies de l’IA à la rigueur des méthodes de recherche opérationnelle. Elle a pour objectif de développer des solutions concrètes pour améliorer la gestion des réseaux de transport, optimiser le transport de marchandises et encourager une utilisation plus durable des infrastructures.
Les domaines principaux de recherche couvriront l’IA et l’optimisation des réseaux de transport. Ces travaux permettront d’aborder plusieurs problématiques comme :
Le partenariat entre la SNCF et Polytechnique ne se limite pas seulement à des avancées technologiques, mais reflète également un engagement fort en faveur de la réduction de l’empreinte environnementale du secteur ferroviaire. La chaire permettra non seulement d’optimiser les réseaux et les services, mais aussi de préparer les futurs ingénieurs à relever les défis de la transition écologique. En impliquant directement les étudiants dans des projets concrets, elle contribue à leur formation dans un contexte où le changement climatique et la durabilité sont au cœur des préoccupations.
L’École polytechnique et la SNCF entendent ainsi jouer un rôle clé dans la transformation du secteur des transports publics en France. Ce partenariat témoigne d’une vision commune visant à mettre la technologie et la science au service du bien public, tout en contribuant à l’accélération de la transition écologique.
Sonia Vanier précise :
“Ce partenariat entre nos deux institutions permettra de mobiliser les compétences d’une équipe pluridisciplinaire, composée de chercheurs de l’École polytechnique et d’ingénieurs de la SNCF, au service des transports publics. Grâce à cette collaboration, nous pourrons développer des projets innovants alliant la puissance des technologies de l’intelligence artificielle à la robustesse des méthodes de recherche opérationnelle. Nous avons également l’ambition d’intégrer les fruits de nos recherches dans nos programmes de formation, afin de former les talents de demain”.
Jean-Pierre Farandou, Président du groupe SNCF, conclut :
“Nous sommes fiers qu’un centre d’excellence tel que Polytechnique ait choisi la SNCF comme partenaire d’application de ses recherches. Ce partenariat est une véritable opportunité d’accroitre notre positionnement d’acteur incontournable de la « tech » dans le secteur des transports et d’approfondir notre maitrise de l’intelligence artificielle. À la SNCF, nous anticipons les innovations technologiques, qui ont permis de porter les grandes avancées d’offre pour nos clients, parmi lesquelles le lancement du TGV en 1981. La technologie et la science au service de l’utilité publique, de la mobilité durable et de la souveraineté de notre pays, c’est le sens profond de ce partenariat stratégique”.


Microsoft France a lancé ce 4 septembre le 1er appel à candidatures pour son tout nouveau programme d’accélération, le Microsoft GenAI Studio. Destiné aux startups françaises, ce programme vise à soutenir l’adoption et le développement de solutions basées sur l’IA. Les candidatures sont donc d’ores et déjà ouvertes et se poursuivront jusqu’au 30 septembre 2024.
Microsoft, présent en France depuis 41 ans où il emploie plus de 2 100 personnes, s’est engagé, lors du sommet Choose France, en mai dernier, à renforcer les compétences des Français en IA, et à stimuler l’innovation technologique dans l’écosystème des startups.
Il a notamment annoncé son intention de former 1 million de Français d’ici 2027 et d’étendre son initiative “À VOUS L’IA”, lancée en mars dernier visant à démocratiser l’IA générative en développant les compétences des Français, actifs comme étudiants, chefs d’entreprise comme salariés, associations ou encore entrepreneurs sociaux.
Microsoft a également dévoilé une initiative ambitieuse : soutenir 2 500 start-ups dans leur adoption de l’IA d’ici 2027 via le Microsoft GenAI Studio. Ce programme intensif biannuel d’une durée de trois mois, débutera en octobre 2024 à STATION F, partenaire de Microsoft depuis juin 2017.
Corine de Bilbao, Présidente de Microsoft France, souligne :
“Avec le lancement du Microsoft GenAI Studio, nous réaffirmons notre engagement à soutenir l’innovation et à renforcer l’écosystème des startups en France. Ce programme est conçu pour aider les startups à passer de la phase de réflexion à la mise en œuvre concrète de leurs solutions d’IA Générative. Nous sommes déterminés à offrir les ressources et le soutien nécessaires pour transformer leurs idées novatrices en projets tangibles, capables d’être déployés à grande échelle.”
Le programme accueillera 15 startups sélectionnées, offrant un accompagnement de pointe et des ressources spécialisées pour exploiter pleinement le potentiel de l’IA. Les startups bénéficieront de nombreux avantages, notamment de crédits Microsoft Azure, de l’accès à plus de 1500 modèles d’IA via Azure AI Studio, ainsi que de licences pour des outils essentiels tels que LinkedIn Premium, GitHub et Microsoft 365. Elles disposeront également d’un espace de travail dédié à STATION F.
Les startups sélectionnées auront accès à une quinzaine d’ateliers et de sessions de mentorat couvrant des sujets essentiels tels que le design de solutions, les pratiques d’IA responsable, la sécurité des données et l’optimisation des coûts. Ces sessions seront animées par les experts techniques de Microsoft France et des partenaires du programme.
Parmi ces derniers, outre STATION F, on compte le cabinet conseil Cellenza, qui partagera son expertise. De son côté, Mistral AI fournira ses derniers modèles de langage et offrira des conseils stratégiques aux start-ups du programme. NVIDIA, via son programme Inception, les soutiendra en leur donnant accès à des formations avancées en Deep Learning et en leur permettant d’utiliser sa plateforme de calcul accéléré. GitHub, la plateforme de développement collaboratif et de partage de code, mettra à disposition son savoir-faire en matière de développement logiciel, en plus de fournir un soutien technique aux startups.
Jusqu’au 30 septembre, les startups candidates peuvent déposer leur dossier en ligne sur le lien suivant : Microsoft GenAI Studio – GenAI Startup Studio (agorize-platform.com)
En complément du programme central à STATION F, Microsoft étend son initiative GenAI Studio en région dès septembre 2024. Des événements seront organisés dans les Microsoft Experiences Labs de Lyon, Nantes, Bordeaux, Marseille et Toulouse, ainsi que dans divers incubateurs locaux.
Ce déploiement régional vise à démocratiser l’accès aux ressources et à l’expertise en IA de Microsoft à travers tout le territoire français. Durant une journée dans chacune de ces villes, les start-ups pourront participer à des ateliers pratiques et des sessions de networking avec l’écosystème local, ce qui leur permettra de renforcer leur compétitivité tout en créant des synergies avec les acteurs locaux et les partenaires de Microsoft.
Les start-ups participantes à ces événements régionaux auront accès à des avantages similaires à ceux offerts à STATION F, notamment des crédits Azure et des outils de collaboration et de développement. Ces sessions régionales permettront de renforcer la compétitivité des startups locales et de créer des synergies avec les acteurs locaux et les partenaires de Microsoft.
Les startups intéressées peuvent dès maintenant s’inscrire pour participer aux sessions qui se tiendront à :


En marge du lancement de Claude 3.5 Sonnet en juin dernier, Anthropic dévoilait les Artefacts, une nouvelle fonctionnalité qui transforme l’interaction des utilisateurs avec Claude, faisant de son IA conversationnelle un environnement de travail interactif et collaboratif. La start-up annonce que la fonctionnalité, jusque- là en preview, est disponible pour tous les utilisateurs de claude.ai, y compris pour le plan gratuit.
Pour rappel, Claude 3.5 Sonnet est disponible gratuitement sur Claude.ai et via l’application iOS Claude, il est également accessible via l’API Anthropic, Amazon Bedrock, et Google Cloud’s Vertex AI. Les abonnés aux plans Claude Pro et Team bénéficient de limites de débit plus élevées.
Lorsque les utilisateurs de claude.ai sollicitent Claude pour la création de contenus tels que des morceaux de code, des fichiers texte ou des maquettes de sites web, ces éléments sont générés dans un volet spécial, juste à côté de leur dialogue en cours. Cet ajout offre un environnement de travail interactif où les utilisateurs peuvent non seulement visualiser mais aussi éditer et enrichir les productions de Claude en direct, ce qui leur permet d’intégrer de manière fluide le contenu généré par l’IA dans leurs projets.
Les utilisateurs peuvent afficher le code sous-jacent d’un artefact, copier le contenu dans leur presse-papiers ou télécharger un fichier pour le réutiliser facilement en dehors de la conversation. Il est en outre possible d’ouvrir et visualiser plusieurs artefacts lors d’une même conversation.
Selon Anthropic, depuis le lancement de la preview en juin dernier, les utilisateurs ont créé des dizaines de millions d’artefacts. Il est également possible de créer et afficher des artefacts sur ses applications iOS et Android.
Les artefacts facilitent la création rapide de contenu de haute qualité. Par exemple :
Les utilisateurs des plans Free et Pro peuvent publier et remixer des artefacts avec la communauté. Ceux du plan Team bénéficient d’une option leur permettant de partager et collaborer sur des artefacts au sein d’un projet sécurisé, ce qui facilite la collaboration au sein de l’équipe.
Les artefacts font évoluer Claude.ai vers une plateforme de travail collaboratif, offrant aux utilisateurs une flexibilité et une efficacité accrues dans la gestion et la création de contenu.


Huit projets labellisés par Minalogic ont été retenus dans le cadre des programmes R&D Booster Auvergne-Rhône-Alpes et i-Démo régionalisé France 2030 Auvergne-Rhône-Alpes. Ces projets regroupent 28 entreprises et laboratoires de recherche, répartis sur 9 départements, avec un budget total de R&D de 12,7 millions d’euros, dont 7,1 millions sont soutenus par la Région et l’État. Quatre d’entre eux se concentrent sur l’IA, deux sur la microélectronique, et les deux derniers concernent la photonique.
Créé en 2005, Minalogic est le pôle de compétitivité des technologies du numérique en Auvergne-Rhône-Alpes. Implanté sur trois sites à Grenoble, Lyon et Saint-Etienne, il anime un écosystème unique de plus de 500 adhérents, dont des entreprises couvrant l’ensemble de la chaîne de la valeur du numérique, des universités et instituts de recherche, des collectivités locales et des investisseurs.
Il a pour objectif d’accélérer les mises en relations ciblées entre ces acteurs et dynamiser leurs projets d’innovation et de business, en France, en Europe et à l’international. Depuis 2005, 969 projets ont été labellisés et financés à hauteur de 1,2 milliard d’euros de subventions publiques, pour un investissement de R&D de plus de 2,8 milliards d’euros.
Sur les 9 projets labellisés par Minalogic dans le cadre de ces 2 AAP, 8 ont été sélectionnés, soit un taux de réussite de près de 90%. Ce succès démontre l’impact du label délivré par Minalogic, un atout majeur pour sécuriser les financements et structurer les projets sur les plans technique et commercial, et confirme une fois de plus le rôle crucial du pôle dans l’écosystème de l’innovation technologique en Auvergne-Rhône-Alpes.
Philippe Wieczorek, Directeur innovation de Minalogic, souligne :
“Ces résultats illustrent l’apport de l’accompagnement de Minalogic, qui va bien au-delà du label que le pôle décerne. Un grand bravo aux lauréats, car il ne faut pas oublier que c’est bien l’excellence de leurs innovations qui est récompensée. Les financeurs publics, Etat et Région Auvergne-Rhône-Alpes, ne se trompent pas dans la sélection des acteurs qu’ils soutiennent”.
Le projet Amédée.IA vise à accélérer la mise sur le marché du premier système de planification de chirurgie robotisée, accessible directement au bloc opératoire et assisté par une IA, pilotée par des algorithmes géométriques brevetés. Validée avec l’aide des experts cliniciens du CHU Grenoble Alpes, la technologie de MAIA Medical Technologies, une fois intégrée au sein de plateformes de robotique chirurgicale, telle que celle proposée par SPINEM Robotics, permettra d’automatiser plus de 90% de l’effort de planification de procédures complexes pour le chirurgien en démontrant une précision sub-pixel nécessaire pour la chirurgie orthopédique robotisée. L’enjeu global est ainsi de rationaliser la planification chirurgicale et de sécuriser l’exécution d’interventions complexes telles que les arthrodèses vertébrales.
Disposer de données annotées est l’une des clés pour obtenir des modèles d’IA performants. Ces tâches de nettoyages et d’annotation des données sont très chronophages et rébarbatives. Le projet DATAWISE propose de développer un outil pour automatiser ces tâches et ainsi permettre aux Data Scientists de se concentrer sur la valeur ajoutée de leur métier : l’analyse de données. L’outil de Neovision va permettre d’accélérer les cycles de développement des IA et d’améliorer leurs performances.
Cognidis propose une plateforme d’analyses et de prédictions, experte en mobilité, pour aider les collectivités publiques dans l’optimisation de leurs plans de mobilité, notamment au regard de l’impact des mobilités douces sur la santé. Combinant expertise IA et sciences cognitives, Cognidis fournit un outil d’aide à la décision qui met à disposition des collectivités des indicateurs de performances clé en main et un simulateur configuré pour faciliter la projection de variations de l’offre de mobilité et en analyser les impacts.
4.71 développe une solution logicielle permettant de dresser le bilan carbone d’une entreprise à partir de ses données comptables. Le projet IA for Green Books va permettre à 4.71 d’enrichir son moteur d’IA existant, tout en le rendant plus efficace, moins énergivore, et plus rapide dans ses phases d’apprentissage.
Plus de 350 000 sites sont classés potentiellement pollués en France (BASIAS, 2020), dont environ 60 000 en région Auvergne-Rhône-Alpes. 65% des sites concernés sont pollués par des composés organiques non miscibles à l’eau (ou NAPL : Non Aqueous Phase Liquid), tels que les hydrocarbures pétroliers, les dérivés halogénés ou les PCB.
La méthodologie nationale de gestion des sites et sols pollués (DGPR, 2017) demande pour les sites comprenant des pollutions concentrées une estimation du volume de sols pollués et de la masse des polluants. Les méthodes d’investigation utilisées habituellement sont fondées sur des sondages dans les sols couplés à l’échantillonnage de sols et à des mesures en laboratoire des concentrations en polluants. Ces méthodes sont généralement insuffisamment sécurisées, coûteuses et longues à mettre en œuvre. Dans ce contexte, le projet CubicS II a pour objectif de développer une sonde permettant d’estimer in situ les saturations en phase organique (NAPL) et des propriétés pétrophysiques des sols grâce à une caméra embarquée sur une machine de forage couplée à un logiciel de traitement des images.
Le projet SEPO450 a pour ambition le développement et la mise en forme de cristaux de saphir de grandes tailles, c’est-à-dire pour des diamètres allant de 300 à 450 mm, dimensions non disponibles à ce jour. Les travaux consisteront au développement, contrôle, caractérisation et mise en forme de cristaux de saphir dopé et non dopé titane. Les partenaires industriels développeront les nouvelles méthodologies pour les équipements spécifiques nécessaires à l’intégralité du procédé de fabrication de composants en saphir, incluant les fours, la mise en forme de ces cristaux (découpe et polissage), ainsi que la caractérisation.
Le projet AURABALL concerne le développement et la production de composants spécifiques de connexions pour un usage dans le domaine électronique. Plus précisément, il vise à produire des billes multi-matériaux utilisées pour l’assemblage par soudure de boîtiers à matrice de billes (BGA « Ball Grid Array » et CBGA « Ceramic Ball Grid Array ») sur des circuits imprimés. Ces billes de soudures PCSB sont utilisables dans des équipements électroniques à hautes performances pouvant fonctionner dans des conditions sévères d’utilisations, du domaine aéronautique civile et militaire au domaine automobile.
Dans le désert d’Atacama, au Chili, le chantier de l’Extremely Large Telescope (ELT), le plus puissant instrument optique jamais construit, suit son cours. Sa construction, à plus de 3000 mètres d’altitude est financée par l’Observatoire européen austral (ESO) pour 1,3 milliard d’euros et devrait produire des images 15 fois plus nettes que les meilleurs appareils d’aujourd’hui. La puissance collectrice de son miroir ultra géant, de 39 mètres de diamètre (contre 10m actuellement avec le Very Large Telescope – VLT), équivaudra à rassembler les 16 télescopes les plus grands existants au monde. Ce nouvel “œil sur le ciel” permettra de multiplier par 5000 la capacité d’observation actuelle.
Une des motivations scientifiques principales pour la construction de ce projet gigantesque est l’imagerie directe de planètes extrasolaires pouvant abriter la vie.
La détection de CO2, d’eau ou même de molécules complexes dans l’atmosphère d’une exoplanète rocheuse serait sans aucun doute l’une des plus grandes révolutions dans notre vision de l’Univers, et l’un des résultats scientifiques majeurs de la prochaine décennie.


Si l’arrivée de LLMs au nombre de paramètres époustouflants a suscité l’enthousiasme, les entreprises qui désirent intégrer la GenAI dans leurs flux de travail hésitent à le faire en raison des coûts et des ressources nécessaires. Les acteurs de l’IA l’ont bien compris et proposent aujourd’hui des modèles plus légers, adaptés à des tâches spécifiques, à l’instar d’Aleph Alpha, avec sa famille Pharia-1-LLM et ses “seulement” 7 milliards de paramètres.
Basée à Heidelberg en Allemagne, la start-up Aleph Alpha a pour ambition de faire de l’UE un des leaders dans le domaine de l’IA et de consolider sa souveraineté numérique.
Elle se positionne comme un acteur clé de l’IA explicable et digne de confiance, ce qui est essentiel pour les agences gouvernementales et les entreprises qui cherchent à construire et à appliquer l’IA dans un environnement souverain, tout en garantissant la protection et la sécurité des données. Cette approche lui a permis de lever l’an passé près de 467 millions d’euros, un montant record pour une start-up d’IA européenne.
Les deux modèles Pharia-1-LLM-7B-control et Pharia-1-LLM-7B-control-aligned, disponibles au public sous sa licence “Open Aleph”, autorisant la recherche non commerciale et l’utilisation éducative, ont été entraînés sur un vaste corpus multilingue et optimisés pour les langues européennes.
Le modèle Pharia-1-LLM-7B-control a été conçu pour fournir des réponses concises dont la longueur peut être contrôlée, répondant ainsi aux besoins d’une grande variété d’applications. Optimisé pour exceller dans les secteurs de l’automobile et de l’ingénierie, ce modèle se distingue par son efficacité de jeton améliorée et sa capacité à s’aligner sur les préférences des utilisateurs. Il se révèle particulièrement performant dans les applications spécifiques à un domaine, où des réponses précises et directes sont cruciales.
Le développement de Pharia-1-LLM-7B-control s’est appuyé sur un ensemble de données multilingues (anglais, allemand, Français, espagnol, italien, portugais et néerlandais) soigneusement sélectionné, en conformité avec les réglementations européennes et nationales, notamment en matière de droit d’auteur et de confidentialité des données. Le modèle a été entraîné en utilisant des techniques de pointe, notamment la Grouped Query Attention (QGA) pour améliorer les performances en temps d’inférence et une base rotative plus large pour une meilleure capacité de contexte long.
L’entraînement de Pharia-1-LLM-7B s’est déroulé en deux étapes. Dans un premier temps, le modèle a été pré-entraîné sur un ensemble de données de 4,7 billions de jetons avec une longueur de séquence de 8 192 jetons, à l’aide de 256 GPU A100. Il a ensuite entraîné sur un nouveau mélange de données de 3 billions de jetons supplémentaires, en utilisant 256 GPU H100.
La variante Pharia-1-LLM-7B-control-aligned a été développée avec des garde-fous supplémentaires, grâce à des méthodes d’alignement sophistiquées. Ce modèle est parfaitement adapté aux applications conversationnelles, telles que les chatbots et les assistants virtuels, où la sécurité et la clarté des réponses sont primordiales. Les ajustements apportés via un processus d’alignement minutieux garantissent que ce modèle respecte les intentions de l’utilisateur tout en évitant les comportements indésirables.
Les modèles Pharia-1-LLM-7B-control et Pharia-1-LLM-7B-control-aligned ont été rigoureusement évalués par rapport aux modèles multilingues open source de taille similaire Mistral-7B-Instruct-v0.3 de Mistral AI et Llama-3.1-8b-instruct de Meta. Ils ont démontré des performances comparables, voire supérieures, à ces derniers, notamment en matière de traitement multilingue.
Les modèles et les évaluations sont disponibles sur Hugging Face.


La semaine dernière, Midjourney, le laboratoire de recherche indépendant à l’origine du modèle text-to-image du même nom, a annoncé sur X et Discord le lancement officiel de son site web dédié, jusqu’ici accessible à un nombre limité d’utilisateurs, avec, en prime, un crédit de 25 images générées gratuitement. Cette offre d’essai gratuit est toutefois limitée dans le temps.
Midjourney a été créé en 2022 par David Holz qui en est le PDG. La 1ère version de son modèle d’IA générative d’images a été lancée en février de cette même année. La version V6.1, introduite le 30 juillet dernier, produit des images plus cohérentes avec des détails et des textures plus précis, présente des capacités avancées d’invite et de remixage d’images, et génère ces dernières plus rapidement.
Selon la page officielle de Midjourney sur Discord, le serveur compte plus de 20 880 000 membres. C’est d’ailleurs ce succès qui avait amené Midjourney à cesser de proposer de générer gratuitement des images à l’aide de son IA en mars 2023, David Holz déclarant :
“En raison d’une demande extraordinaire et d’un abus des essais, nous désactivons temporairement les essais gratuits jusqu’à ce que nous ayons déployé les prochaines améliorations du système”.
Jusqu’à récemment, les utilisateurs devaient passer par Discord pour créer et retoucher leurs images, un processus parfois fastidieux nécessitant une certaine maîtrise des “prompts” ou invites textuelles. Ce système a été jugé peu convivial par de nombreux utilisateurs, en particulier ceux qui débutent dans l’univers de l’IA.
Pour répondre à cette demande, Midjourney a lancé la version alpha de son site web dédié à la fin de l’année dernière, mais celui-ci était initialement réservé aux utilisateurs ayant généré au moins 1 000 images via Discord, ce qui en excluait beaucoup. Désormais, cette barrière a été levée, permettant à tous les utilisateurs de bénéficier d’une interface plus intuitive et plus fluide.
L’inscription au site web de Midjourney est simple et rapide. Les utilisateurs peuvent se connecter en utilisant un compte Google ou Discord. Ceux qui ont déjà utilisé Discord pour créer des images peuvent récupérer leur historique en fusionnant leur compte Discord avec leur compte Google.
Une fois connectés, les utilisateurs sont accueillis par une interface conviviale dotée d’une barre latérale à gauche, offrant des onglets pour différentes sections et tâches. La section “Explorer” permet de découvrir les créations des autres utilisateurs, tandis que la section “Créer” guide les nouveaux venus à travers une vidéo de démonstration.
Le processus de création est simple : il suffit de taper un prompt dans le champ prévu à cet effet, et Midjourney génère instantanément quatre images différentes. L’utilisateur peut alors sélectionner l’image qu’il préfère pour l’affiner, l’agrandir ou la modifier à l’aide d’outils spécifiques. L’éditeur d’images intégré permet des ajustements précis, tels que la modification du prompt, la retouche de zones spécifiques de l’image, ou encore l’ajout de nouveaux éléments.
Outre la création d’images, le site propose également via l’onglet “chat” des salons de discussion où les utilisateurs peuvent partager leurs créations, échanger des astuces et découvrir de nouvelles idées. Une fois le quota de 25 crédits gratuits atteint, les utilisateurs sont invités à souscrire à l’un des abonnements payants proposés par Midjourney. Les tarifs varient de 10 à 120 dollars par mois, selon le forfait choisi.


Les modèles de langage de petite taille (SLM) sont une alternative intéressante aux LLMs pour les entreprises qui peuvent les exploiter à moindre coût pour des tâches spécifiques. Microsoft après avoir introduit le SLM Phi-1 en juin 2023 et présenté le 23 avril dernier la famille de modèles open source Phi-3, dévoile à présent les modèles Phi-3,5 : Phi-3.5-mini-instruct, Phi-3.5-MoE-instruct, et Phi-3.5-vision-instruct.
Chacun de ces modèles est optimisé pour des tâches spécifiques, tout en partageant une longueur de contexte de 128 000 jetons, permettant une manipulation efficace des données complexes.
Le Phi-3.5-mini-instruct est le plus petit modèle de la série, conçu pour offrir des performances robustes dans des environnements où les ressources informatiques sont limitées. Avec 3,8 milliards de paramètres, ce modèle est parfaitement adapté aux tâches nécessitant un raisonnement logique solide, telles que la génération de code et la résolution de problèmes mathématiques.
Malgré sa taille réduite, ce modèle a été entraîné sur un impressionnant ensemble de 3,4 billions de jetons à l’aide de 512 GPU H100-80G pendant 10 jours. Les performances de Phi-3.5 Mini Instruct dans les tâches conversationnelles multilingues et multi-tours sont remarquables. Le modèle est compétitif avec d’autres modèles ouverts beaucoup plus grands tels que Llama-3.1-8B-instruct, Mistral-7B-instruct-v0.3 et Mistral-Nemo-12B-instruct-2407. Il a notamment surpassé Llama-3.1-8B-instruct et Mistral-7B-instruct-v0.3 dans le benchmark RepoQA (compréhension du code à contexte long).
![]()
Le modèle Phi-3.5-MoE (Mixture of Experts) représente une avancée significative dans l’architecture de l’IA. Ce modèle utilise une approche sophistiquée qui active différents “experts” en fonction de la tâche à accomplir, optimisant ainsi les performances pour des tâches spécifiques. Avec 42 milliards de paramètres, dont 6,6 milliards activés à chaque utilisation, le Phi-3.5 MoE est conçu pour gérer des tâches de raisonnement complexes, la compréhension de code et le traitement multilingue.
Il prend en charge les langues suivantes : Allemand, Anglais, Arabe, Chinois, Coréen, Danois, Espagnol, Finnois, Français, Hébreu, Hongrois, Italien, Japonais, Norvégien, Néerlandais, Polonais, Portugais, Russe, Suédois, Thaï, Turc et Ukrainien.
Entraîné sur 4,9 billions de jetons, dont 10 % multilingues, en utilisant 512 GPU H100-80G pendant 23 jours, le modèle MoE a montré une supériorité notable dans les tests de performance spécifiques. Il a surpassé les modèles plus grands Llama 3.1-8B-instruct, Gemma 2-9B-It et Gemini 1.5-Flash mais s’est incliné face à GPT-4o-mini d’OpenAI, dans la majorité des cas. Cependant, dans le test MMLU (Massive Multitask Language Understanding) à 5 coups, il a réussi à prendre l’avantage sur ce dernier.
![]()
Microsoft commente :
“Il est encore fondamentalement limité par sa taille pour certaines tâches. Le modèle n’a tout simplement pas la capacité de stocker trop de connaissances factuelles, par conséquent, les utilisateurs peuvent rencontrer des inexactitudes factuelles. Cependant, nous pensons qu’une telle faiblesse peut être résolue en augmentant Phi-3.5 avec un moteur de recherche, en particulier lors de l’utilisation du modèle sous les paramètres RAG”.
Le modèle a fait l’objet d’un processus d’amélioration rigoureux, intégrant un réglage fin supervisé, une optimisation des politiques proximales et une optimisation des préférences directes pour garantir une adhésion précise aux instructions et des mesures de sécurité robustes.
Le Phi-3.5-vision-instruct est conçu pour les tâches multimodales, intégrant à la fois des données textuelles et visuelles. Avec 4,15 milliards de paramètres, ce modèle est spécialement adapté pour des applications telles que la reconnaissance optique de caractères (OCR), la compréhension de graphiques et de tableaux, et le résumé vidéo.
Il a été entraîné sur 500 milliards de jetons avec 256 GPU A100-80G sur une période de 6 jours. Son aptitude à traiter et à intégrer des données complexes, combinée à sa capacité à gérer plusieurs images, en fait un outil extrêmement polyvalent pour les tâches nécessitant une analyse détaillée des informations visuelles et textuelles.
Les trois modèles de la série Phi-3.5 sont disponibles sous licence MIT, ce qui permet aux développeurs de les utiliser, de les modifier et de les distribuer sans restriction. Ils sont disponibles sur Hugging Face, Phi-3.5 Vision Instruct est également accessible via Azure AI Studio.


Après avoir annoncé le fine-tuning de GPT-4o mini fin juillet dernier avec une offre de 2 millions de jetons gratuits par jour jusqu’au 23 septembre prochain, OpenAI propose depuis mardi dernier aux développeurs d’affiner son LLM multimodal phare GPT-4o.
GPT-4o, introduit en mai dernier par OpenAI, fusionne le traitement de l’audio, de la vision et du texte en temps réel. Comparé à GPT-4 Turbo, il est deux fois plus rapide, deux fois moins cher et propose des limites de débit cinq fois plus élevées. Les développeurs vont pouvoir l’affiner en utilisant des ensembles de données personnalisés à un coût réduit pour leurs cas d’utilisation spécifiques.
Le fine-tuning, l’une des fonctionnalités les plus demandées par les développeurs, permet d’améliorer la précision, la structure, et le ton des réponses du modèle, ainsi que sa capacité à suivre des instructions complexes propres à certains domaines, même avec de petits ensembles de données. Selon OpenAI, quelques dizaines d’exemples peuvent suffire pour obtenir des améliorations significatives.
La nouvelle fonctionnalité est disponible pour tous les développeurs, quel que soit leur niveau d’utilisation. Le coût de l’entraînement est fixé à 25
par million de jetons d’entrée et 15 $ par million de jetons de sortie.
Comme pour GPT-4o mini, son lancement est assorti d’une offre de fine-tuning gratuit jusqu’au 23 septembre mais plus restreinte : chaque organisation bénéficie d’un million de jetons d’entraînement gratuits par jour.
Depuis deux mois, plusieurs partenaires de confiance d’OpenAI ont pu tester le fine-tuning de GPT-4o avec des résultats impressionnants.
Parmi ceux-ci :
Les modèles affinés via GPT-4o restent entièrement sous le contrôle des développeurs. Les données d’entreprise, y compris les entrées et sorties, sont protégées et ne sont jamais partagées ou utilisées pour entraîner d’autres modèles. De plus, des mesures de sécurité rigoureuses, incluant des évaluations automatisées et une surveillance continue de l’utilisation, sont en place pour prévenir tout usage abusif.
Les développeurs intéressés par cette nouvelle fonctionnalité peuvent suivre ces étapes simples :
OpenAI propose un guide dédié aux étapes du fine-tuning pour les non-initiés ici.
La start-up commente :
“Du codage à l’écriture créative, la mise au point peut avoir un impact important sur les performances du modèle dans divers domaines. Ce n’est qu’un début : nous continuerons d’investir dans l’élargissement de nos options de personnalisation de modèle pour les développeurs”.


Selon Zhuang Rongwen, directeur de l’Administration du cyberespace de Chine (CAC), l’agence chargée de la réglementation de l’IA générative, plus de 190 LLMs ont été enregistrés et mis à la disposition du public jusqu’à présent. Dans une récente interview accordée à l’agence de presse Xinhua, il a indiqué que ces modèles ont déjà attiré plus de 600 millions d’utilisateurs, ce qui démontre le développement rapide de l’IA générative en Chine.
La Chine ne cache pas son ambition de rattraper et dépasser les USA dans le domaine de l’IA pour en devenir le leader mondial, quand bien même elle doive faire face aux pressions américaines, notamment aux restrictions des exportations de puces et des investissements américains dans l’industrie d’IA du pays.
Considérant la GenAI comme un moteur de croissance et un atout concurrentiel clé, elle a annoncé en octobre 2023, un plan pour augmenter sa puissance de calcul globale de plus de 50 % d’ici 2025, visant 300 exaflops. En début d’année 2024, elle approuvait 14 nouveaux LLMs, portant à 46 le nombre total de LLMs validés depuis août 2023, suite à l’introduction de la réglementation exigeant une approbation officielle avant leur lancement.
En six mois, ce nombre est donc passé à plus de 190, soulignant une adoption accélérée de l’IA générative.
En juillet 2023, la Chine a introduit le premier ensemble de règles de gestion pour les services d’IA générative, marquant une étape importante dans la régulation de cette technologie émergente. Ces règles visent à équilibrer l’innovation technologique et la sécurité, tout en soutenant le développement industriel.
La CAC travaille activement à l’amélioration des mécanismes de développement et de gestion des technologies d’IA, notamment en favorisant la recherche indépendante sur les puces informatiques et les cadres algorithmiques, ainsi que la création de corpus en langue chinoise de haute qualité.
La procédure de dépôt pour les LLMs sera simplifiée et les coûts de conformité pour les entreprises réduits. Dans le cadre de ses priorités politiques, la Chine va continuer d’encourager l’application de la GenAI dans des secteurs clés tels que l’industrie manufacturière, l’agriculture, l’éducation et la santé. Ces efforts visent à renforcer l’économie réelle et à moderniser les industries traditionnelles grâce à l’IA.
Cependant, Zhuang Rongwen a également souligné l’importance cruciale de la sécurité dans le développement de l’IA. Les autorités chinoises guideront les prestataires de services pour qu’ils offrent des solutions d’IA de manière sécurisée, fiable, contrôlable et équitable. Ils devront mettre en place des mesures telles que l’auto-évaluation et la gestion quotidienne pour prévenir les violations de données personnelles et de propriété intellectuelle ou la génération de fausses informations, autant de risques potentiels liés à l’usage inapproprié de l’IA.
Depuis 2012, la Chine a réalisé des avancées significatives dans la gouvernance du cyberespace. Le pays s’efforce de construire un écosystème de cyberespace robuste, fondé sur des principes juridiques et une gouvernance systématique. Il dispose désormais, selon le directeur de la CAC, de l’infrastructure d’information la plus vaste et technologiquement avancée au monde, et de plus de 150 textes de loi promulgués dans ce domaine.
En adoptant les lois pertinentes et les améliorant si nécessaire, un cadre juridique complet de la gouvernance du cyberespace en Chine sera mis en place. Les mécanismes de coordination pour l’application de la loi seront affinés, en particulier dans le cadre intersectoriel et interministériel.
Zhuang Rongwen a souligné que l’évaluation de la sécurité des nouvelles technologies et applications Internet est également une priorité. Les autorités chinoises veulent accélérer l’application de ces technologies tout en préservant la sécurité idéologique et en protégeant les droits et intérêts légitimes des utilisateurs d’Internet.
La CAC joue un rôle actif dans la régulation des activités en ligne, notamment en encadrant les leaders d’opinion sur Internet et les institutions MCN (Multi-Channel Networks), tout en réprimant les activités illégales. Zhuang Rongwen a également mis l’accent sur la nécessité d’une coopération internationale dans la gouvernance de l’IA, regroupant régulation gouvernementale, autodiscipline industrielle, autorégulation des entreprises et surveillance du public.


La Commission de protection des données (DPC) irlandaise a annoncé le 8 août dernier avoir obtenu du réseau social X la suspension du traitement des données à caractère personnel contenues dans les publications publiques de ses utilisateurs dans l’UE/EEE, traitées entre le 7 mai 2024 et le 1er août 2024. NOYB, estimant cet engagement insuffisant, a fait savoir ce lundi 12 août qu’elle a porté plainte auprès des organismes compétents dans neuf pays européens contre X afin d’obtenir une enquête complète.
Noyb est une organisation à but non lucratif basée à Vienne, en Autriche, qui vise à faire respecter les droits à la vie privée et à la protection des données personnelles. Elle a notamment porté plainte contre OpenAI auprès de l’autorité autrichienne de protection des données, et plus récemment, déposé 11 plaintes contre Meta qui ont poussé ce dernier à suspendre l’utilisation des données personnelles de ses utilisateurs dans l’UE/EEE.
En mai 2024, X a commencé à utiliser les données personnelles de plus de 60 millions d’utilisateurs européens, notamment pour développer son IA “Grok”. Cependant, cette initiative s’est faite sans aucune communication préalable avec les utilisateurs, et surtout, sans leur consentement explicite, un élément pourtant fondamental du RGPD. Au contraire, il semble que le nouveau paramètre par défaut permettant d’utiliser ces données par X, le réseau social d’Elon Musk, et sa start-up xAI à l’origine de Grok, ait été révélé grâce à une publication virale d’un utilisateur nommé « @EasyBakedOven » le 26 juillet dernier.
Face à ces manquements, la DPC a lancé une procédure judiciaire pour mettre un terme à ce traitement illégal des données et dès la première audience, a conclu un accord avec X pour suspendre l’entraînement de l’algorithme avec les données de l’UE jusqu’en septembre. Toutefois, Noyb critique l’action en justice de la DPC pour son manque de fermeté. Selon Max Schrems, président de l’organisation, la DPC ne remet pas en cause la légalité du traitement des données par Twitter, mais se concentre plutôt sur des questions secondaires, comme les mesures d’atténuation et le manque de coopération de l’entreprise.
Estimant que la réponse de la DPC est insuffisante, Noyb a déposé neuf plaintes auprès des autorités de protection des données (APD) en Autriche, en Belgique, en France, en Grèce, en Irlande, en Italie, aux Pays-Bas, en Pologne et en Espagne. Ces plaintes, qui visent à garantir une enquête complète, soulignent le non-respect par X des principes fondamentaux du RGPD, tels que le consentement préalable, le droit à l’oubli, les règles de transparence et la protection des données sensibles.
Selon Noyb,“Plus d’autres APD de l’UE s’impliquent dans la procédure, plus la pression est forte sur le DPC irlandais pour qu’il donne suite à son affaire et sur Twitter(X) pour qu’il se conforme réellement au droit de l’UE”
Max Schrems, président de Noyb, commente :
“Nous avons constaté d’innombrables cas d’application inefficace et partielle de la part de la DPC au cours des dernières années. Nous voulons nous assurer que Twitter respecte pleinement la législation de l’UE, qui exige – au strict minimum – de demander le consentement des utilisateurs dans ce cas.”
Le RGPD offre une solution claire à cette problématique : demander le consentement explicite des utilisateurs avant de traiter leurs données personnelles. Si X avait suivi cette démarche, même un faible pourcentage de consentements aurait suffi pour constituer un ensemble de données d’entraînement pour ses modèles d’IA. Cependant, l’entreprise a préféré ignorer cette étape cruciale, mettant en avant un “intérêt légitime” pour justifier ses actions, une position déjà rejetée par la Cour de justice de l’Union européenne dans des affaires similaires.
Devant l’ampleur des violations, Noyb a demandé l’application de la procédure d’urgence prévue par l’article 66 du RGPD. Cette disposition permet aux autorités de protection des données d’intervenir rapidement en cas de violation grave, avec la possibilité d’adopter des mesures contraignantes à l’échelle de l’Union européenne.


La génération de données structurées à partir d’entrée non structurée est l’un des principaux cas d’utilisation de l’IA dans les applications. Cependant, garantir que les modèles d’IA génèrent des sorties conformes à des formats stricts, comme les schémas JSON, a toujours été un défi. Pour répondre à cette problématique, OpenAI a récemment introduit “Structured Outputs” dans son API, une nouvelle fonctionnalité conçue pour que les réponses générées par le modèle respectent exactement les schémas JSON fournis par les développeurs.
Les développeurs ont longtemps été confrontés à la difficulté de s’assurer que les LLMs produisent des sorties JSON conformes aux attentes. Bien que des améliorations comme le mode JSON, introduit l’an passé par OpenAI, aient permis de produire des sorties plus fiables, ces modèles ne pouvaient pas toujours garantir une correspondance exacte avec des schémas complexes. Une incertitude qui obligeait les développeurs à recourir à des solutions de contournement, comme l’utilisation d’outils open source ou la répétition de requêtes, pour ajuster manuellement les sorties du modèle.
Les sorties structurées introduites par OpenAI changent la donne en offrant une solution claire à ce problème. L’une de leurs principales forces est leur capacité à améliorer la fiabilité des modèles d’IA dans des cas d’utilisation critiques, tels que l’extraction de données structurées, la saisie de données ou encore la gestion de flux de travail complexes. En éliminant le besoin d’interventions manuelles, les sorties structurées permettent aux développeurs de se concentrer sur la création d’applications plus sophistiquées et plus robustes.
Lors d’évaluations internes de schémas JSON complexes réalisées par OpenAI, le modèle gpt-4o-2024-08-06 utilisant cette nouvelle fonctionnalité a atteint une fiabilité de 100%, surpassant largement les versions précédentes, notamment gpt-4-0613, qui avait obtenu un score inférieur à 40 %.
![]()
OpenAI a introduit les sorties structurées sous deux formes dans son API, offrant ainsi une flexibilité optimale pour les développeurs :
strict: true dans les paramètres de l’outil. Cette méthode est compatible avec tous les modèles prenant en charge les outils, et garantit que les résultats générés par le modèle sont conformes aux spécifications de l’outil défini. Cette approche est idéale pour les scénarios où le modèle doit interagir avec des systèmes complexes via des appels d’API ;Les sorties structurées respectent les politiques de sécurité existantes d’OpenAI : même avec cette nouvelle fonctionnalité, le modèle conserve la capacité de refuser de répondre à une demande qu’il considère comme non sécurisée.
Pour faciliter le travail des développeurs, OpenAI a introduit une nouvelle valeur de chaîne dans les réponses de l’API qui permet de détecter par programmation si le modèle a refusé de répondre à une demande plutôt que de produire une sortie conforme au schéma fourni.
OpenAI a également mis à jour ses SDK Python et Node pour qu’ils prennent en charge nativement les sorties structurées, afin de faciliter l’intégration de cette nouvelle fonctionnalité dans leurs applications.


Ansys, éditeur de logiciel spécialisé dans l’ingénierie assistée par ordinateur et la simulation numérique appliquée à la conception de produit, annonce collaborer avec Supermicro, une société experte dans la conception et la fabrication de serveurs, de systèmes de stockage, de réseaux et de solutions de gestion informatique et NVIDIA, pour offrir une solution matérielle clé en main, optimisée pour les simulations multiphysiques.
L’intégration efficace des solveurs physiques avec le matériel informatique adapté est essentielle pour tirer le meilleur parti des simulations multiphysiques. Bien que le dimensionnement et la configuration du matériel soient des tâches complexes, les solutions matérielles clés en main et personnalisées avec unités centrales de traitement (CPU), unités de traitement graphique (GPU), interconnexions et modules de refroidissement, offrent aux ingénieurs les outils nécessaires pour exécuter des simulations prédictives précises de manière plus efficace, améliorant ainsi les performances, la productivité et réduisant les coûts.
La collaboration d’Ansys avec Supermicro et NVIDIA, permet à ses clients de réaliser des simulations jusqu’à 1 600 fois plus rapides, ouvrant ainsi de nouvelles perspectives pour diverses applications industrielles, notamment les tests de collision automobile et l’aérodynamique externe, les moteurs à turbine à gaz pour l’aérospatiale, les antennes 5G/6G et le développement biopharmaceutique.
Dans son communiqué, Ansys rapporte les gains de performance de ses solutions lorsqu’elles sont exécutées sur la plateforme matérielle optimisée par Supermicro et NVIDIA plutôt que sur des CPU seuls :
L’IA joue un rôle crucial dans l’accélération des simulations Ansys. Par exemple, le cadre d’automatisation et d’optimisation Ansys optiSLang AI permet d’augmenter la vitesse de simulation de 1 600 fois par rapport aux méthodes sans IA.
Vik Malyala, président et directeur général de la région EMEA. Vice-président principal, Technologie et IA, Supermicro, explique :
“L’étendue et la profondeur du portefeuille multiphysique d’Ansys nécessitent une approche réfléchie de l’infrastructure de calcul avec des GPU. Nous travaillons en étroite collaboration avec Ansys et NVIDIA avec la plus large offre de systèmes GPU et CPU (Hyper/CloudDC, systèmes GPU évolutifs : 4U-10U, etc.) pour accélérer les simulations, éliminer les conjectures et améliorer le temps de déploiement des clients dans le monde entier”.
Grâce à la technologie NVIDIA conçue avec Ansys et à la technologie de serveur économe en énergie de Supermicro, les ingénieurs peuvent réduire les frais généraux et la consommation d’énergie en utilisant moins de serveurs pour effectuer le même travail.
Dion Harris, directeur des solutions de produits de centre de données chez NVIDIA, conclut :
“La synergie entre Ansys et NVIDIA nous propulse dans une nouvelle ère d’innovation technologique. Les solutions de simulation Ansys jouent un rôle clé dans le développement de nos superpuces d’IA de pointe, tandis que l’IA accélérée du centre de données et les plateformes de jumeau numérique de NVIDIA permettent à Ansys de repousser les limites des performances de simulation. Ensemble, nous débloquons des informations plus approfondies et ouvrons la voie à des avancées révolutionnaires qui façonneront l’avenir de l’ingénierie et de l’IA”.


Il a fallu 150 jours à Spotify pour atteindre un million d’utilisateurs, 75 jours à Instagram et seulement cinq jours à ChatGPT. Cette accélération vertigineuse pousse les entreprises à accorder une importance croissante à l’innovation qui est en 2024 plus que jamais au cœur de leurs priorités. Cependant, malgré cette prise de conscience, elles peinent à transformer cette priorité en résultats concrets.
Le récent rapport publié par le Boston Consulting Group (BCG), intitulé Innovation Systems Need a Reboot, révèle en effet un paradoxe préoccupant : bien que 83 % des dirigeants considèrent l’innovation comme une priorité absolue (90 % en France), seules 3 % des entreprises sont aujourd’hui véritablement en position d’innover activement. En 2021 et 2022, elles étaient 20 %, chiffre qui avait chuté à 9 % l’an passé et qui continue donc à décroître, en raison de systèmes d’innovation inefficaces.
Cette étude, réalisée auprès de 1 000 dirigeants répartis dans 30 pays et 19 industries, vise à évaluer les capacités d’innovation des entreprises. Parmi les dirigeants interrogés par BCG, moins de la moitié (48 %) estiment que leur organisation fournit des efforts pour lier ses priorités stratégiques et sa capacité d’innovation, et seulement 12 % que les deux avancent de pair.
Selon le rapport, les entreprises qui alignent leurs efforts d’innovation avec leur stratégie globale voient une augmentation de 74 % des revenus provenant de nouveaux produits par rapport à celles dont le lien entre stratégie et innovation est faible, et de 5 points de pourcentage à la moyenne de l’échantillon.
Selon BCG, il est crucial pour les entreprises de réintégrer la stratégie d’entreprise dans leurs efforts d’innovation pour maximiser les résultats et assurer la pertinence et l’efficacité de leurs projets.
Mikaël Le Mouëllic, Directeur associé au BCG, commente :
“Nous observons un manque d’engagement de la part des équipes dirigeantes. Les opportunités d’innovation technique et produit ne sont pas suffisamment analysées au regard des priorités stratégiques. Un certain nombre d’organisations se laissent emporter par des tendances à la mode, sans stratégie claire pour concentrer leurs efforts”.
L’un des principaux obstacles identifiés par les dirigeants est le manque de stratégie claire en matière d’innovation. Bien que ce soit une priorité, 52 % des dirigeants interrogés citent ce manque comme l’un des trois défis principaux de leur organisation (47 % en France). De plus, seulement 30 % des entreprises prévoient une actualisation de leur stratégie d’innovation en 2024, contre 36 % en 2022. Dans un contexte macro-économique et géopolitique tendu, les efforts se concentrent davantage sur l’optimisation des processus liés à l’efficacité et à la rapidité des modèles opérationnels (70 % des entreprises).
Parmi les autres freins, 47 % des dirigeants mentionnent la hausse des coûts du capital (40 % en France) ainsi que les difficultés de recrutement de talents (44 % globalement, 43 % en France). En France, 43 % des dirigeants évoquent également l’absence d’une gouvernance robuste, contre 27 % dans le reste du monde.
L’intelligence artificielle générative est identifiée comme l’une des principales priorités d’investissement technologique pour 2024 par 89 % des dirigeants interrogés dans une précédente étude du BCG. Pourtant, son adoption à grande échelle reste limitée : une grande majorité des leaders attendent encore qu’elle dépasse le battage médiatique pour se l’approprier ou se contentent d’expérimentations limitées.
Ainsi, bien que 86 % des entreprises expérimentent la GenAI dans leurs projets d’innovation (77 % en France), seulement 8 % l’utilisent à grande échelle (3 % en France).
Mikaël Le Mouëllic conclut :
“L’intelligence artificielle générative présente un potentiel considérable pour transformer les processus d’innovation et permettre le développement de nouveaux produits, services et technologies. Toutefois, la plupart des entreprises n’ont pas encore identifié et mis en œuvre les opportunités les plus intéressantes. Sans boussole stratégique, les départements R&D risquent de s’essouffler et sous-performer”.
Retrouver le rapport ici.


Lors de la conférence SIGGRAPH 2024 qui s’est déroulée du 28 au 30 juillet dernier à Denver, au Colorado, NVIDIA a dévoilé des avancées majeures dans le domaine de la description universelle de scène (OpenUSD), un cadre universel d’échange de données 3D. Ces innovations visent à élargir l’adoption de l’OpenUSD dans la robotique, le design industriel et l’ingénierie, tout en accélérant les capacités des développeurs à créer des mondes virtuels extrêmement précis pour la prochaine génération de l’IA.
L’Universal Scene Description (OpenUSD) est un écosystème ouvert et extensible créé par Pixar Animation Studio. Plus qu’un simple format de fichier, l’OpenUSD permet de décrire, composer, simuler et collaborer dans des mondes 3D. Grâce à ses capacités d’extension, de personnalisation et de collaboration non destructives, il accélère les flux de travail et les projets, offrant une interopérabilité inégalée dans la création de contenus 3D. L’Alliance for OpenUSD (AOUSD), cofondée l’an passé par NVIDIA, Pixar, Adobe, Apple et Autodesk, promeut l’interopérabilité et l’innovation dans le contenu 3D via cet écosystème.
DigitalFish, Hunan Mango Innocreative Technology, Microsoft Corp., Shutterstock, Sony Group et Sunvega Information Technology les ont rejoints récemment au sein de l’AOUSD qui vient de lancer OpenUSD v24.08. Cette dernière version, disponible sur GitHub, propose des frameworks d’introspection et d’édition de contenu plus flexibles pour les développeurs, simplifie davantage les dépendances de build et les aligne sur les mises à jour des versions sélectionnées sous la plate-forme de référence VFX pour 2025, continue de moderniser le backend graphique pour le moteur de rendu Storm et ajoute plus de guides d’utilisation à la documentation des concepts clés.
NVIDIA a présenté une nouvelle IA générative basée sur OpenUSD, propulsée par la plateforme NVIDIA Omniverse, qui permettra à diverses industries de visualiser des projets de design et d’ingénierie, de simuler des environnements et de créer la prochaine vague de robots et d’IA physique. Cette technologie offre une opportunité sans précédent de développer des applications plus rapidement et de manière plus efficace.
NVIDIA, qui a développé les premiers modèles d’IA générative pour l’OpenUSD, les rend disponibles sous forme de microservices NVIDIA NIM. Ces modèles permettent aux développeurs d’intégrer des copilotes et des agents d’IA générative dans les flux de travail USD, accélérant ainsi l’adoption de l’USD dans divers secteurs industriels, tels que la fabrication, l’automobile et la robotique.
Les nouveaux microservices NVIDIA NIM disponibles en preview sont les suivants :
D’autres microservices, comme NIM USD Layout, un modèle d’IA génératif permettant d’assembler des scènes basées sur OpenUSD à partir d’une série d’invites de texte, et NIM SmartMaterial, permettant d’appliquer des matériaux réalistes à des objets 3D, seront bientôt disponibles, élargissant encore les capacités de développement et de simulation.
Des microservices NIM seront également bientôt disponibles pour fVDB, un framework de deep learning open source développé par NVIDIA. Il construit des opérateurs d’IA accélérés par NVIDIA sur OpenVDB pour générer des environnements virtuels compatibles avec l’IA qui capturent l’échelle spatiale massive et la haute résolution du monde réel.
Rev Lebaredian, vice-président d’Omniverse et de la technologie de simulation chez NVIDIA, affirme :
“Le boom de l’IA générative pour les industries lourdes est là. Jusqu’à récemment, les mondes numériques étaient principalement utilisés par les industries créatives. Aujourd’hui, grâce aux améliorations et à l’accessibilité que les microservices NVIDIA NIM apportent à OpenUSD, les industries de toutes sortes peuvent créer des mondes virtuels physiques et des jumeaux numériques pour stimuler l’innovation tout en se préparant à la prochaine vague d’IA : la robotique”.
NVIDIA a présenté plusieurs entreprises utilisant déjà ses nouveaux produits :
NVIDIA a également annoncé de nouveaux outils pour faciliter l’interopérabilité et la création avancée dans divers secteurs :
Avec ces avancées, NVIDIA s’affirme comme un leader de l’innovation technologique, transformant la manière dont les industries créent et interagissent avec le contenu 3D. L’OpenUSD et les nouveaux microservices NVIDIA NIM promettent d’accélérer l’adoption de l’IA et de la simulation dans un large éventail de secteurs, ouvrant la voie à des mondes virtuels plus réalistes et à des innovations sans précédent.
Steve May, directeur de la technologie de Pixar et président de l’Alliance for OpenUSD (AOUSD), conclut :
“OpenUSD révolutionne la façon dont nous créons et interagissons avec le contenu 3D. Avec ces nouveaux services et API conçus par NVIDIA, nous nous attendons à une croissance et à une adoption accélérées de l’USD, ouvrant la voie à de nouveaux utilisateurs et secteurs pour s’engager plus facilement dans notre écosystème”.


Le Forum Européen de l’IA (European AI Forum ou EAIF), association internationale sans but lucratif (AISBL) basée à Bruxelles, a ouvert l’appel à candidatures pour les “European AI Awards 2024”. Les entreprises, fonds d’investissement, organisations, chercheurs et experts de l’IA européens intéressés ont jusqu’au 31 octobre prochain pour soumettre leur candidature.
Le Forum européen sur l’IA est une initiative lancée en juin 2020 le dernier jour de la présidence croate du Conseil de l’Union européenne.
Initialement prévu comme une conférence se tenant à la fin de chaque présidence du Conseil, le Forum européen sur l’IA s’est transformé en un réseau indépendant d’associations visant à donner voix au chapitre aux start-ups et aux innovateurs des États membres. Fondée par CroAI, Hub France IA et KI Bundesverband, cette communauté s’est développée pour inclure AI4SI, AI Austria, AI Cluster Bulgaria, NL AI Coalitie et Digital Poland.
A travers ces prix, l’EAIF vise à récompenser ceux qui contribuent de manière significative à l’évolution de l’IA sur le continent européen. Ses objectifs sont les suivants :
Les European AI Awards 2024 comprennent cinq catégories :
La participation aux European AI Awards est ouverte à toute entité ou individu remplissant les conditions suivantes :
Pour soumettre votre candidature :
Les candidatures seront évaluées par un jury d’experts renommés, dont la composition sera annoncée d’ici le 31 octobre prochain. Le jury analysera chaque candidature sur la base de critères stricts d’innovation, d’impact et de contribution à l’écosystème IA. Les lauréats seront annoncés en décembre 2024 lors de la 10ème conférence EAIF.
Les lauréats des European AI Awards recevront entre autres:
Ils bénéficieront en outre d’une visibilité accrue au sein de la communauté IA européenne et internationale.


Lorsqu’ils font une recherche sur Internet, les internautes se tournent majoritairement vers Google. OpenAI, qui permet à Microsoft d’utiliser GPT-4 pour son moteur de recherche Bing dans le cadre de leur partenariat, annonce SearchGPT : un prototype temporaire de nouvelles fonctionnalités de recherche par IA.
En utilisant des modèles conversationnels de pointe et des données web en temps réel, SearchGPT a pour objectif de fournir des réponses rapides, précises et pertinentes aux questions des utilisateurs.
OpenAI écrit sur le blog annonçant SearchGPT :
“Obtenir des réponses sur le Web peut demander beaucoup d’efforts, nécessitant souvent plusieurs tentatives pour obtenir des résultats pertinents. Nous pensons qu’en améliorant les capacités conversationnelles de nos modèles avec des informations en temps réel provenant du Web, trouver ce que vous cherchez peut être plus rapide et plus facile”.
Alimenté par le modèle GPT-4 d’OpenAI, SearchGPT se présente sous la forme d’une interface similaire à ChatGPT. Lorsqu’on lui fournit une requête, il ne se contente pas de d’afficher une liste de liens comme les autres moteurs de recherche, mais fournit des résumés concis avec des liens d’attribution.
Une barre latérale affiche des liens pertinents supplémentaires, complétant les informations fournies. Les utilisateurs peuvent poser des questions supplémentaires ou demander des clarifications sur les réponses fournies, rendant l’interaction plus dynamique et personnalisée.
![]()
OpenAi qui s’est vu reproché d’avoir entraîné ses modèles, notamment GPT-4, sur les publications du New York Times sans autorisation, a préféré nouer des collaborations avec des organismes de presse tels que The Associated Press, The Atlantic et News Corp pour garantir la qualité et la fiabilité des informations fournies par SearchGPT.
Ces partenariats permettent également aux éditeurs de mieux contrôler la présentation de leur contenu dans les résultats de recherche. Ils ont la possibilité de choisir de ne pas voir leur contenu utilisé pour l’entraînement des modèles d’IA d’OpenAI, tout en continuant à figurer en bonne place dans les résultats de recherche.
Robert Thomson, directeur général, News Corp, affirme :
“Sam et l’équipe vraiment talentueuse d’OpenAI comprennent de manière innée que pour que la recherche alimentée par l’IA soit efficace, elle doit être fondée sur les informations les plus fiables et de la plus haute qualité fournies par des sources fiables. Pour que les cieux soient en équilibre, la relation entre la technologie et le contenu doit être symbiotique et la provenance doit être protégée”.
Actuellement, le prototype de SearchGPT est accessible à un groupe restreint d’utilisateurs et d’éditeurs. Leurs commentaires permettront à OpenAI de l’améliorer et d intégrer les meilleures fonctionnalités de SearchGPT à ChatGPT.
Pour essayer SearchGPT, une liste d’attente est ouverte ici.


Créé en 2018, Impact AI est un collectif de réflexion et d’action dont l’ambition est d’éclairer les enjeux éthiques et sociétaux de l’intelligence artificielle et de soutenir des projets innovants et positifs pour le monde de demain. Il a récemment réélu son conseil d’administration pour la période 2024-2026, Christophe Liénard, conserve son poste de président.
Ce think and do tank compte aujourd’hui plus de 80 membres, grandes entreprises, ESN, sociétés de conseils, acteurs de l’IA, start-ups et écoles. Il vise à créer une approche de l’IA responsable et inclusive, qui réponde aux besoins et attentes des citoyens et à se positionner comme un acteur de référence pour l’utilisation responsable de l’IA en Europe.
La nouvelle gouvernance assurera le bon déroulement des travaux menés durant les deux prochaines années. Ces travaux, incluant fiches pratiques, ateliers interactifs, formations spécialisées, observatoire dédié pour mesurer la perception et l’adoption de l’IA en France… seront alignés sur les enjeux cruciaux du prochain Sommet pour l’action sur L’IA.
Après les Sommets de Bletchley Park de novembre 2023 au Royaume-uni et de Séoul de mai 2024 en Corée du Sud, la France sera l’hôte de la 3ème édition les 10 et 11 février 2025. Cinq thèmes essentiels seront abordés : l’IA d’intérêt public, l’avenir du travail, l’innovation et la culture, la sécurité et la sûreté, ainsi que la gouvernance internationale de l’IA.
Président
Christophe Lienard, Directeur central de l’Innovation, Bouygues
Vice-Présidents
Hélène Chinal, Executive Vice-Président, directrice de la transformation Europe du Sud, Capgemini
Albert Meige, Directeur associé, Arthur D. Little
Agnès Van De Walle, GM Industry, MICROSOFT
Trésorier
Nicolas Marescaux, Directeur adjoint Réponses Besoins Sociétaires et Innovation, MACIF
Ainsi que :
Marcin Detyniecki, Group Chief Data Scientist, AXA
Ingrid Dufour Bonami, Medical Digital Lead EMEA, Bayer
Denis Gomez, Directeur de projets Innovation Sociétale, Orange
Albane Liger-Belair, Chief Innovation Officer, KPMG
Guy Mamou-Mani, Co-Fondateur, Open
Thierry Taboy, Référent fédéral IA, CFE CGC
Ariane Thomas, Group Tech Director of sustainability and trustworthy AI Lead, L’Oreal
Christophe Liénard, Président d’Impact AI, affirme
“J’ai toute confiance en notre nouveau Conseil d’Administration pour coordonner les ambitieux travaux qui seront menés en concertation par nos équipes de bénévoles experts sur les grands sujets qui structureront l’AI Summit de février 2025. L’avenir du travail, l’IA de confiance, la gouvernance internationale et l’intérêt général sont autant de thèmes pour lesquels Impact AI apportera sa contribution avec, toujours, l’angle de l’IA responsable”.


Mistral AI ne chôme pas : après avoir dévoilé lundi dernier deux nouveaux LLM open source Codestral Mamba 7B et Mathstral 7B, il a annoncé, le vendredi suivant, Mistral NeMo 12 B, développé avec NVIDIA. Combinant l’expertise de Mistral AI en matière de données d’entraînement avec l’écosystème matériel et logiciel optimisé de NVIDIA, le modèle, également sous licence Apache 2.0, offre des performances élevées pour diverses applications, grâce à sa flexibilité.
Publié le lendemain de GPT-4o mini d’Open AI, Mistral NeMo 12B dispose lui aussi d’une fenêtre contextuelle allant jusqu’à 128 000 jetons et est également adapté pour les entreprises qui cherchent à implémenter des solutions d’IA sans avoir besoin de ressources cloud étendues.
NVIDIA a participé à la dernière levée de fonds de 600 millions d’euros de Mistral AI, ouvrant la voie à cette collaboration pour le développement de ce nouveau modèle.
S’appuyant sur une architecture transformateur standard, Mistral NeMo a été entraîné sur la plateforme d’IA NVIDIA DGX Cloud, qui offre un accès dédié et évolutif à la dernière architecture NVIDIA. NVIDIA NeMo, un framework cloud-native permettant aux développeurs de construire, personnaliser et déployer des modèles d’IA générative a été utilisé pour faire progresser et optimiser le processus ainsi que NVIDIA TensorRT-LLM, un conteneur NVIDIA NIM prédéfini qui permet aux développeurs de réduire les temps de déploiement de plusieurs semaines à quelques minutes.
Le modèle utilise le format de données FP8 pour l’inférence du modèle, ce qui réduit la taille de la mémoire et accélère le déploiement sans aucune dégradation de la précision.
S’il est publié sous licence Apache 2.0, facilitant l’adoption par la communauté de recherche et permettant aux entreprises d’intégrer Mistral NeMo dans des applications commerciales de manière transparente, il est fourni par NVIDIA sous la forme d’un microservice d’inférence NIM de la plateforme NVIDIA AI Enterprise 5.0 introduite en mars dernier lors de la GTC 2024.
Guillaume Lample, cofondateur et scientifique en chef de Mistral AI, commente :
“Nous avons la chance de collaborer avec l’équipe NVIDIA, en tirant parti de leur matériel et de leurs logiciels de premier plan. Ensemble, nous avons développé un modèle offrant une précision, une flexibilité, une efficacité élevées ainsi qu’un support et une sécurité de niveau entreprise sans précédent grâce au déploiement de NVIDIA AI Enterprise”.
Mistral NeMo se distingue par son raisonnement avancé, sa connaissance approfondie du monde et sa précision en codage. Grâce à son architecture standard, il est facile à intégrer et peut remplacer directement les systèmes utilisant le modèle Mistral 7B, assurant ainsi une transition en douceur pour les utilisateurs existants.
Il est conçu pour des applications telles que les chatbots, les tâches multilingues, le codage et la synthèse de document.
Selon les tests comparatifs de Mistral AI, il surpasse les performances de deux modèles open-source récents, Gemma 2 9B et Llama 3 8B.
![]()
Mistral NeMo excelle particulièrement en anglais, français, allemand, espagnol, italien, portugais, chinois, japonais, coréen, arabe et hindi. Il utilise un nouveau tokenizer appelé Tekken, basé sur Tiktoken, qui a été entraîné sur plus de 100 langues. Tekken surpasse le tokenizer SentencePiece utilisé dans les précédents modèles Mistral en compressant le texte en langage naturel et le code source de manière plus efficace. Il est ainsi environ 30 % plus efficace pour compresser le code source et plusieurs langues majeures, et jusqu’à trois fois plus efficace pour le coréen et l’arabe.
Les poids de Mistral-Nemo-Base-2407 et du modèle ajusté pour les instructions Mistral-NeMo-12B-Instruct sont disponibles sur HuggingFace. Les utilisateurs peuvent essayer Mistral NeMo avec mistral-inference et l’adapter avec mistral-finetune. Le modèle est également accessible sur la Plateforme de Mistral AI sous le nom open-mistral-nemo-2407 et est empaqueté dans un conteneur NVIDIA NIM, disponible sur ai.nvidia.com.


Hub France IA a récemment publié le livrable “Opérationnaliser la gestion des risques des systèmes d’intelligence artificielle” élaboré par son groupe de travail Banque et Auditabilité. Regroupant des experts en IA, de la gestion des risques et de l’audit de trois grandes banques françaises : BNP Paribas, La Banque Postale et Société Générale, ce groupe travaille depuis plusieurs années sur la gestion des risques liés à l’IA.
L’entrée en vigueur de l’AI Act, prévue pour 2026, et l’essor rapide de l’IA générative, ont poussé le groupe de travail à répondre à une question essentielle : comment doter la gestion des risques d’outils efficaces pour réduire les coûts de mise en conformité à l’AI Act ?
La mise en conformité exige de prendre en compte l’intégralité du processus de développement d’un système d’IA, allant de la phase d’idéation, de conception, de développement et de mise en production, jusqu’au suivi continu. Les coûts de mise en conformité sont importants : d’après une enquête réalisée par le Hub France IA et ses partenaires européens en décembre 2022, plus de 50% des entreprises interrogées ont estimé ces coûts entre 160 000 et 330 000 euros.
Le groupe de travail fournit dans ce livrable des conseils pour mettre en place les outils nécessaires pour satisfaire à un audit de certification en conformité avec l’AI Act : documents, fichiers Excel, logiciels, outils de gestion de flux de travail… Ces outils pourront également servir de preuves auprès des régulateurs.
En s’appuyant sur un livre blanc qu’il a publié en 2022, le groupe de travail décrit le cycle de développement d’un système d’IA dans son intégralité, associant à chaque étape un outil de conformité spécifique. Suite à l’adoption de l’AI Act par le Conseil de l’Union européenne en mai dernier, une analyse approfondie s’avère nécessaire pour aligner les outils proposés avec les attentes de conformité. Un prochain guide viendra détailler cette correspondance.
Le travail présenté dans le livrable ne vise pas à être exhaustif mais souhaite apporter un
cadre méthodologique et de bonnes pratiques.
Ses principaux enseignements incluent :
Retrouver le livrable ici.


L’adoption de l’IA dans la gestion d’actifs connaît une accélération sans précédent. Une étude récente de Linedata, réalisée en collaboration avec Global Fund Media, offre un aperçu profond de cette transformation technologique. Alors que l’Union européenne s’apprête à mettre en œuvre l’IA Act à partir du 1er août 2024, le secteur financier est à un tournant critique.
Créée en 1998, basée à Neuilly-sur-Seine, Linedata, née du rapprochement de trois sociétés : GSI Division des Banques, Line Data et BDB Participation, est une société éditrice de logiciels, de services et de données à valeur ajoutée dédiés au secteur financier. Pour ce rapport intitulé “Perspectives : Un regard approfondi sur l’IA dans la gestion d’actifs”, elle s’est associée à Global Fund Media, une société londonienne spécialisée dans l’analyse des tendances marché pour les professionnels des hedge funds et du private equity, deux types d’investissements offrant des opportunités de rendements élevés, mais nécessitant une compréhension approfondie des marchés et des risques associés.
Ils ont interrogé près de 100 gestionnaires de fonds et d’actifs, principalement dans les stratégies d’investissement de hedge funds et de private equity. Les données de l’enquête ont été collectées via un questionnaire en ligne et des entretiens approfondis au premier trimestre 2024 auprès de répondants occupant divers postes de direction dans des entreprises de tailles et de géographies variées : 40% Amérique du Nord, 40% Europe, 15% APAC et 5% autres.
Selon l’étude, actuellement, 33% des entreprises de gestion d’actifs sont en phase d’expérimentation de l’IA et 36% l’utilisent activement. Parmi ces dernières, 14% ont plusieurs cas d’utilisation en production et prévoient d’autres implémentations. Au cours de l’année prochaine, 37% prévoient d’étendre son utilisation, 22% augmenteront les expérimentations et 28% surveilleront les progrès. Cette adoption rapide est motivée par la nécessité de rester compétitif dans un marché de plus en plus volatil et réglementé. Cependant, près d’un tiers (32%) des entreprises n’a pas encore commencé son parcours vers l’IA, indiquant une adoption encore inégale.
Les applications de l’IA Générative se multiplient dans la gestion d’actifs. Parmi les utilisations les plus populaires figurent la synthèse de documents et l’extraction de données, chacune représentant 28% des applications. Les bases de connaissances et les systèmes de questions-réponses suivent avec 17%. La GenAI améliore également la productivité des équipes front office et middle/back-office, avec des cas d’utilisation incluant l’optimisation de l’efficacité des transactions et la génération directe de rendements.
Jamil Jiva, Global Head of Asset Management chez Linedata, commente :
“Sur un marché qui subit de multiples pressions, l’adoption de l’IA dans l’asset management s’accélère, avec de plus en plus d’entreprises qui investissent dans cette technologie pour rester compétitives et développer de nouveaux cas d’usage. Mais la mise en oeuvre de solutions d’IA et l’extraction de leur valeur est un projet technologique qui nécessitera du temps pour poser les bonnes fondations, obtenir l’adhésion, conduire le changement culturel et aplanir les facteurs de risque”.
Malgré l’enthousiasme autour de l’adoption de l’IA, sa mise en œuvre dans la gestion d’actifs n’est pas sans obstacles. Les principaux défis identifiés par les entreprises incluent la qualité et la maintenance des données (19%), la compréhension des coûts et la construction d’un business case solide (15%), ainsi que l’accès à l’expertise en IA (13%). Ces défis soulignent la complexité de l’intégration de l’IA dans les systèmes existants et la nécessité d’une stratégie bien définie.
L’étude révèle que 46% des entreprises développent leur expertise d’IA entièrement en interne, 14% dépendent exclusivement de partenaires externes tandis que 40% optent pour une approche hybride combinant ressources internes et partenariats externes. Cette tendance vers l’hybridation montre que, malgré la volonté de contrôler leurs capacités d’IA, les entreprises reconnaissent la valeur des collaborations externes pour combler les lacunes en compétences et accélérer le déploiement des technologies.
En ce qui concerne l’accès aux solutions d’IA, 25% des répondants achètent des produits prêts à l’emploi, tandis que 18% les développent entièrement en interne. À l’autre extrémité, 32% utilisent des solutions indirectes via des courtiers, des administrateurs de fonds ou des prestataires de services d’externalisation des processus.
Jamil Jiva souligne :
“Les entreprises préfèrent garder le contrôle sur leurs capacités d’IA, mais développer une expertise interne reste un défi, ce qui conduit à l’émergence d’approches hybrides combinant ressources internes et partenariats externes. L’enjeu de la qualité des données est également un obstacle majeur. Elles doivent être propres, cohérentes et facilement accessibles pour être utilisées efficacement par les modèles de langage, une tâche colossale à la lumière des systèmes disparates utilisés par les institutions financières. De nombreux gestionnaires d’actifs construisent des lacs de données, une tâche complexe nécessitant des objectifs clairs”.


Emerton Data, filiale du groupe Emerton, société internationale de conseil en stratégie et transformation, a récemment publié, en collaboration avec le Hub Institute, un livre blanc intitulé “L’IA générative en entreprise à l’épreuve du réel”. Basée sur des entretiens avec des décideurs clés de 16 organisations majeures, cette étude offre une vision approfondie de l’intégration de la GenAI dans les entreprises, mettant en lumière les avancées, les défis et les perspectives de l’IA générative dans le tissu économique français.
Ce livre blanc propose de mettre de côté les débats sur le potentiel futur de l’IA pour se concentrer sur les questions concrètes et quotidiennes auxquelles les entreprises, grandes ou petites, sont confrontées. Parmi les 16 organisations interrogées figurent une majorité de grandes entreprises françaises (parmi lesquelles Edenred, Sodexo, TotalEnergies, Crédit Agricole ou encore Crédit Mutuel Arkéa), mais également des institutions clés de l’économie du numérique (Bpifrance, la Direction Générale des Entreprises).
Aimé Lachapelle, fondateur d’Emerton Data, commente:
“Le temps de ce livre blanc, nous proposons de mettre sur pause les discussions sans fin sur le potentiel de valeur, la vitesse de l’innovation, et les fantasmes sur la singularité et le remplacement de l’humain, pour nous intéresser aux questions concrètes qui se posent quotidiennement dans les entreprises, qu’il s’agisse de nos fleurons industriels ou de nos startups, en fournissant une photographie la plus contextualisée possible”.
Née du constat que les nombreuses études concernant l’adoption de l’IA générative par les entreprises sont majoritairement anonymes et offrent de ce fait des conclusions de nature souvent générique, l’ambition de l’enquête “L’IA générative en entreprises à l’épreuve du réel” est d’effectuer un panorama documenté, fondé sur des exemples précis et contextualisés.
Le livre blanc vise à répondre à plusieurs questions fondamentales :
L’IA générative représente déjà un fort vecteur de transformation pour les entreprises. Pour les experts interrogés, bien plus qu’une simple évolution technologique, la GenAI marque une transformation profonde dans la conception même des modèles d’affaires et des processus internes, et représente à ce titre une priorité d’investissement.
L’étude révèle que toutes les entreprises interrogées ont déjà mis en place des cas d’usage industrialisés de l’IA générative. Les modèles de langage de grande taille (LLM), sont désormais intégrés dans divers processus métiers, allant de l’amélioration de l’efficacité opérationnelle interne à des applications plus complexes comme l’interaction client.
Cet intérêt grandissant se manifeste par la création de datalabs dédiés à l’exploration et à l’exploitation de ces technologies. De nombreuses entreprises ont développé leurs propres versions sécurisées de modèles comme ChatGPT, souvent appelées SecureGPT. Ces versions sont adaptées à des exigences spécifiques de confidentialité et de sécurité, intégrant des politiques strictes de contrôle d’accès et de protection des données.
L’un des enseignements les plus significatifs de l’étude est le besoin crucial de formation des collaborateurs. L’adoption efficace de l’IA générative nécessite non seulement une compréhension technique mais aussi une acculturation aux implications stratégiques, éthiques et pratiques.
Renata Alves Santos, Deputy Chief Data Officer de TotalEnergies, explique que le déploiement-pilote de Copilot, l’outil de Microsoft basé sur l’IA générative, a mis en évidence l’importance d’un accompagnement des utilisateurs pour que chaque collaborateur puisse pleinement bénéficier de l’outil.
Les entreprises interrogées ont développé des usages diversifiés de l’IA générative, explorant et exploitant ses capacités dans différents domaines :
Sodexo : Support aux ventes, gestion des contrats et création de Contenus Marketing
Sodexo utilise l’IA générative pour automatiser et améliorer plusieurs aspects critiques de ses opérations. Les chatbots alimentés par l’IA fournissent un support aux équipes de vente en répondant rapidement aux questions fréquentes et en fournissant des informations détaillées sur les produits. De plus, l’IA aide à la gestion des contrats en simplifiant la rédaction et l’examen des documents contractuels. En marketing, l’IA générative crée des contenus personnalisés, rendant les campagnes plus engageantes et efficaces.
Crédit Agricole : Expérimentation et résolution de problèmes métiers
Le Crédit Agricole, à travers son start-up studio la Fabrique by CA, expérimente l’IA générative pour répondre à des problématiques spécifiques. L’IA est utilisée pour analyser des données clients complexes, prévoir les tendances du marché et proposer des solutions financières personnalisées. Ces initiatives visent à accroître la satisfaction client et à optimiser les processus internes.
TotalEnergies : déploiement de copilot pour améliorer la productivité
TotalEnergies a déployé Microsoft Copilot pour aider les employés dans leurs tâches quotidiennes. Copilot, basé sur l’IA générative, assiste les collaborateurs dans la rédaction de documents, la gestion des courriels, et la recherche d’informations internes. L’objectif est de réduire le temps consacré aux tâches administratives répétitives, permettant ainsi aux employés de se concentrer sur des activités à plus forte valeur ajoutée.
Safran Aircraft Engines : Souveraineté et sécurité des données
Safran Aircraft Engines met l’accent sur l’importance de la souveraineté numérique et de la sécurité des données. L’entreprise utilise l’IA générative pour analyser de grandes quantités de données techniques et de maintenance, permettant ainsi de prédire les besoins de maintenance et de prévenir les pannes. Ces analyses nécessitent une infrastructure IT robuste pour garantir la traçabilité et la sécurité des données sensibles.
Giskard : Évaluation de la fiabilité des chatbots
Giskard se spécialise dans l’évaluation de la fiabilité des chatbots, notamment pour prévenir les risques d’hallucination et de désinformation. L’entreprise développe des outils pour tester et valider les réponses des chatbots, assurant ainsi qu’ils fournissent des informations précises et cohérentes. Cette approche est cruciale pour des secteurs sensibles tels que la finance et la santé, où des erreurs pourraient avoir des conséquences graves.
Malgré les opportunités offertes par l’IA générative pour l’interaction clients, certaines entreprises restent prudentes, choisissant de ne pas l’adopter pour maintenir la qualité de la relation client existante, et expriment ainsi des réserves quant à la maturité actuelle de la GenAI dans le cadre d’une interaction directe avec les clients.
Jean-Marie John-Mathews, co-fondateur de Giskard, souligne que les entreprises sont conscientes des risques réputationnels liés aux chatbots, son équipe a d’ailleurs déjà dû arrêter plusieurs projets dont les risques étaient jugés trop élevés.
Ahmed Besbes, Chief Data Officer de Direct Assurance, partage cette prudence :
“Je ne pense pas non plus que l’IA générative soit pour le moment assez mature pour être mise en interaction directe avec les clients, ni que ce soit une direction qu’on envisage aujourd’hui pour notre expérience client”.
L’ensemble des entretiens révèle une forte confiance dans la capacité de la France à tracer son propre chemin dans le domaine de l’IA générative, malgré les défis liés aux ressources et à l’expérience en comparaison avec les géants américains. Les experts s’accordent à dire que l’accent mis sur la souveraineté et l’innovation responsable permet à la France de se positionner comme un leader éthique et innovant à l’échelle mondiale, notamment grâce à une formation de haut niveau en mathématiques et en informatique.
Catherine Duveau, Responsable de Département Data Science & Governance chez Safran Aircraft Engines, insiste sur la nécessité d’une infrastructure IT adaptée et d’outils assurant une traçabilité stricte des traitements et des entraînements de données. Bien que ces exigences puissent sembler freiner l’innovation, elles permettent une meilleure maîtrise et compréhension des modèles d’IA, posant ainsi les bases d’une innovation responsable et sécurisée. Dans le secteur de la défense, ces mêmes exigences s’appliquent, rendant le développement d’un cloud européen crucial pour les entreprises du continent.
Les grandes entreprises américaines dominent grâce à leur accès à des capitaux massifs et à des infrastructures technologiques avancées, telles que les supercalculateurs, essentiels pour le développement de modèles d’IA sophistiqués.
Pour Guillaume Avrin, Coordonnateur national pour l’intelligence artificielle à la Direction Générale des Entreprises, l’intérêt pour les ingénieurs français de travailler temporairement pour les GAMAM afin d’acquérir une expérience précieuse du calcul à grande échelle. La majorité des cofondateurs des entreprises d’IA générative françaises qui lèvent actuellement des fonds importants, comme Mistral AI ou H, ont ainsi travaillé aux États-Unis avant de revenir créer leur entreprise en France. Selon lui, l’un des parcours de formation d’excellence en IA consiste à étudier en France, puis à travailler chez un GAMAM, avant de revenir en France.
Vincent Rapp, Responsable Sectoriel Innovation et Stratégie IA de Bpifrance, estime que permettre aux talents français de partir se former dans la Silicon Valley est bénéfique, à condition de savoir les faire revenir. Il souligne que les salaires en France redeviennent compétitifs et que nombreux sont les cadres français à préférer l’organisation et l’impact de leur travail en France, malgré des salaires potentiellement plus bas qu’aux États-Unis.
Au-delà des considérations économiques, le développement d’une IA générative française est crucial pour la souveraineté nationale. Des initiatives comme celles de Mistral AI et le développement de solutions open source sur des clouds français sont essentielles.
Guillaume Avrin met en avant les efforts pour démocratiser l’accès aux ressources de calcul de haute performance, citant l’extension du supercalculateur Jean Zay du CNRS comme un exemple de ressource publique et gratuite. Cet effort est soutenu par des collaborations avec des acteurs du cloud français comme Scaleway, OVHcloud et OUTSCALE, garantissant ainsi une large disponibilité de la puissance de calcul nécessaire pour l’IA générative.
Aimé Lachapelle conclut :
“Les résultats de l’enquête démontrent qu’un an et demi après l’apparition de ChatGPT, toutes les entreprises interrogées ont industrialisé des cas d’usages utilisant l’IA générative, qui est devenue une priorité en matière d’investissement. Au-delà de l’amélioration de l’efficacité des processus internes, on assiste à une multiplication des cas d’usages, dont certains semblent s’orienter vers l’interaction client, une application à fort potentiel mais complexe à mettre en œuvre. Par ailleurs, une majorité d’entreprises relève que le défi majeur au déploiement de l’IA générative est désormais la formation des collaborateurs à grande échelle. Enfin, nos experts se montrent raisonnablement optimistes quant à la place de la France dans le concert mondial de l’IA générative, malgré des défis incontestables à relever”.
Retrouver le livre blanc ici.


Lancée le 20 février dernier, la start-up Bioptimus a annoncé hier la sortie de H-optimus-0, le plus grand modèle de fondation d’IA open source dédié à la pathologie. Avec ses 1,1 milliard de paramètres, H-optimus-0 promet de transformer radicalement le domaine du diagnostic médical grâce à des performances de pointe, de l’identification des cellules cancéreuses à la détection d’anomalies génétiques dans la tumeur.
Incubée à Paris au sein de la licorne franco-américaine Owkin, Bioptimus a été cofondée par d’anciens chercheurs de Google DeepMind et des experts d’Owkin : Jean-Philippe Vert, Rodolphe Jenatton, Zelda Mariet, Felipe Llinares, David Cahané et Eric Durand. Leur ambition : repousser les frontières actuelles de la biologie en intégrant l’IA générative au centre de leurs recherches.
La pathologie est la pierre angulaire du diagnostic des maladies, nécessitant un examen méticuleux des échantillons de tissus pour identifier les anomalies. Traditionnellement, ce processus repose fortement sur l’expertise et l’expérience des pathologistes. Cependant, la complexité et le volume croissants des cas nécessitent des outils avancés qui peuvent aider les pathologistes à établir des diagnostics plus rapides et plus précis.
H-optimus-0 a été entraîné sur un ensemble de données propriétaire de plusieurs centaines de millions d’images provenant de plus de 500 000 lames d’histopathologie issues de 4 000 cabinets cliniques. Cela permet au modèle d’avoir une capacité de généralisation exceptionnelle et de fournir des diagnostics pathologiques efficaces et précis.
Rodolphe Jenatton, CTO de Bioptimus, souligne :
“Lancés il y a moins de cinq mois, nous sommes ravis de présenter H-optimus-0, un modèle entièrement open source qui représente un bond en avant significatif dans le domaine de la pathologie. Nous nous engageons à faire progresser la recherche médicale et à améliorer les soins aux patients. En encourageant la collaboration et l’adoption de nouvelles pratiques, nous visons à accélérer les innovations en pathologie et au-delà, au profit des patients du monde entier.”
Évolutivité et performances inégalées : Avec ses 1,1 milliard de paramètres, H-optimus-0 est conçu pour offrir une analyse méticuleuse et précise des échantillons pathologiques, surpassant les modèles existants.
Ensemble de données d’entraînement complet : Le modèle a été exposé à une vaste gamme de cas pathologiques, améliorant sa capacité à identifier divers types de tissus et anomalies.
Diagnostics de pointe : H-optimus-0 établit de nouvelles normes en matière de diagnostic, étant capable de détecter efficacement les biomarqueurs et la présence de métastases dans plusieurs types de cancer.
En tant que modèle open source, H-optimus-0 peut être utilisé par les chercheurs pour accélérer le développement de nouveaux modèles de pathologie numérique. Il est possible d’accéder au modèle, ainsi qu’à sa documentation et aux résultats de la recherche via le référentiel GitHub de Bioptimus.
Bioptimus poursuit son objectif de développer un modèle de fondation qui connecte la biologie à ses différentes échelles, des molécules aux cellules, tissus et organismes entiers.
Jean-Philippe Vert, co-fondateur et PDG de Bioptimus, conclut :
“H-optimus-0 n’est que le début. Il s’agit du premier d’une longue série de modèles que nous créerons chez Bioptimus, tous plus avancés et complets les uns que les autres. Les futurs modèles seront non seulement entraînés sur un nombre encore plus important d’images pathologiques provenant d’Europe, d’Asie et d’Afrique, mais intégreront également d’autres modalités, telles que la génomique et la protéomique. Notre objectif ultime est de créer le premier modèle de fondation multi-échelle de la biologie, capable d’intégrer diverses données et échelles biologiques pour permettre des découvertes scientifiques et accélérer les innovations biomédicales.”


Après un cluster innovation Industrie 4.0, la Technopole de l’Aube en Champagne lance un nouveau cluster, dédié au Web3 et à l’IA. Pendant 18 mois, les start-ups lauréates à son AAP adressant ces thématiques seront accueillies au sein de l’incubateur, où elles bénéficieront d’un accompagnement personnalisé, d’un environnement collaboratif et de ressources avancées.
Le projet de “Technopole” est né en 1992 afin de faire face aux délocalisations des entreprises de l’industrie textile dans l’Aube. En 1996, les premières entreprises s’y installaient et en 1998 la pépinière, premier des quatre bâtiments de la Technopole de l’Aube en Champagne, était inaugurée. Elle n’a cessé de se développer depuis et joue un rôle crucial dans le développement économique et la transformation numérique du territoire, accompagnant le développement des startups spécialisées dans l’IT et facilitant l’implantation de plus de 50 jeunes entreprises sur son site.
Alors que la région Grand Est a placé l’IA au cœur de ses priorités stratégiques pour en faire un pilier d’attractivité et de croissance du territoire, la Technopole poursuit sur cette dynamique en accueillant le cluster innovation Web3 et Intelligence Artificielle. Son objectif est non seulement de catalyser la synergie entre la recherche, les entreprises technologiques mais également d’attirer des investissements, de créer des emplois qualifiés et de renforcer la compétitivité régionale sur la scène internationale.
Pour lancer ce cluster, la Technopole s’est associée à des partenaires de renom tels que l’ESTAC et Partouche Multiverse, qui apporteront leur expertise spécifique et offriront des opportunités d’expérimentation en situation réelle. Les organismes de formation spécialisés dans l’IA et le Web3, aivancity et Acadee, fourniront, quant à eux, un soutien technique et académique de haut niveau.
Le cluster se concentrera sur quatre grands thèmes s’adressant à des problématiques identifiées auprès d’entreprises partenaires
L’appel à candidatures est ouvert. Les dossiers seront évalués et les projets les plus prometteurs seront présélectionnés en septembre 2024.
Dès octobre 2024, les start-ups retenues bénéficieront d’un suivi mensuel personnalisé et gratuit par l’équipe Accompagnement de la Technopole de l’Aube en Champagne. Elles auront également accès à l’ensemble des services d’accompagnement du site. Des réunions trimestrielles seront organisées pour assurer un suivi efficace entre tous les partenaires et participants. Durant ces 18 mois, les startups auront l’opportunité d’entrer en relation avec les partenaires du cluster, et, pour les projets les plus aboutis, de débuter des collaborations commerciales.
Si vous désirez candidater, cliquez ici.


Ospi annonce le rachat de la société Alicante, experte du codage médical et de la valorisation de données de santé grâce à l’IA et l’analyse sémantique. Alors qu’il est déjà présent dans plus de 1100 établissements de santé, cette acquisition stratégique lui permet de renforcer son offre pour améliorer l’efficience de ces établissements et accélérer la recherche clinique au bénéfice des patients.
Ospi est né de la fusion en septembre 2023 du Groupe PSIH, pionnier des solutions décisionnelles sur les données de santé médico-économiques de l’hôpital et de la start-up Collective Thinking, spécialiste du codage médical et de la valorisation de données de santé grâce à l’IA. En s’associant, les deux sociétés visaient à améliorer le pilotage et le codage des différentes activités des établissements hospitaliers, la recherche clinique ainsi que le suivi de la qualité des soins.
Le Groupe, qui ambitionne de devenir un acteur majeur des données hospitalières et de l’IA en santé, accompagne aujourd’hui plus de 1000 établissements de santé publics dont 26 CHU, 13 centres de lutte contre le cancer et 110 des 135 GHT (Groupements Hospitaliers de Territoire). Il compte une centaine de salariés basés à Paris, Lille et Lyon, et génère près de 15 millions d’euros de chiffre d’affaires.
L’acquisition d’Alicante répond à trois objectifs principaux :
Fondée en 1999 par d’anciens hospitaliers et universitaires du CHU de Lille et des laboratoires INSERM et CNRS, Alicante est spécialisée dans l’exploitation des données hospitalières, offrant des analyses en temps réel des dossiers médicaux et administratifs. Les solutions de l’entreprise, qui collabore avec des laboratoires de recherche de renommée mondiale, améliorent la prise en charge des patients et l’efficience des hôpitaux, ce qui en fait un partenaire stratégique pour Ospi.
En intégrant l’expertise hospitalière d’Alicante, Ospi renforce ses applications historiques et sa nouvelle solution Icod, dédiée au contrôle qualité et au codage, contribuant ainsi à la valorisation des recettes hospitalières tout en réduisant la charge administrative et financière. Les solutions d’IA développées par Alicante faciliteront également la création de cohortes de patients et la conduite d’études en vie réelle.
Jean-Baptiste Angeloglou, CEO d’Ospi explique :
“Ce rapprochement est une étape décisive pour Ospi. En intégrant les équipes d’Alicante et leur expertise technologique, nous renforçons notre position de leader dans le domaine de la donnée de santé et de l’IA à l’hôpital. Ce rapprochement nous permet d’élargir notre réseau de partenaires hospitaliers, d’assurer toujours plus de proximité avec les établissements de santé du fait de notre position géographique stratégique à Lille, Lyon et Paris et de participer ainsi à l’amélioration de la prise en charge des patients”.
David Delerue, CEO d’Alicante et nouveau Directeur de la business unit Medical Coding chez Ospi ajoute:
“Nos clients respectifs et communs bénéficieront de ce rapprochement par une plus grande proximité opérationnelle en France, une offre plus pertinente et un accompagnement renforcé. Nos complémentarités et notre ADN technique commun faciliteront l’émergence d’une offre unifiée et innovante pour les établissements de santé pour répondre à leurs défis qu’Ospi ainsi renforcé aidera à relever”.


Une nouvelle étude menée par l’Institute for Business Value d’IBM révèle les défis majeurs auxquels les dirigeants sont confrontés dans leur course à l’adoption de l’IA générative. En dépit de l’enthousiasme croissant pour cette technologie, des questions cruciales subsistent concernant les ressources humaines, la culture d’entreprise et la gouvernance.
L’IBM Institute for Business Value, le groupe de réflexion sur le leadership d’IBM, a interrogé en coopération avec Oxford Economics, 120 dirigeants en France et 3 000 dans le monde, issus de plus de 30 pays et de 24 secteurs d’activité, dans le cadre de la 28ème édition de la série IBM C-Suite Study. Ces conversations ont porté sur les points de vue des dirigeants en matière de leadership et de business, sur l’évolution de leurs rôles et responsabilités et sur la prise de décision des dirigeants aujourd’hui, y compris les principaux défis et opportunités auxquels ils sont confrontés, leur utilisation de l’IA générative, des données et des indicateurs, ainsi que leurs visions de l’avenir.
L’étude a révélé que, pour 72 % des dirigeants français, le succès de la GenAI dépendra plus de l’acceptation par les employés que de la technologie elle-même. D’ailleurs, 64 % des répondants pensent favoriser son adoption et l’accompagnement au changement.
Les résultats montrent que près de deux tiers (64 %) des dirigeants estiment que leurs équipes ont les compétences et les connaissances nécessaires pour intégrer l’IA générative. Cependant, peu d’entre eux perçoivent son impact sur les ressources et la culture de leur entreprise. En France, 39 % des répondants n’ont pas encore mesuré l’impact de l’IA générative sur leurs collaborateurs. Malgré cela, 54 % des dirigeants recrutent pour des postes liés à l’IA générative qui n’existaient pas l’année dernière, tandis que 46 % prévoient de réduire ou de redéployer leurs effectifs au cours des 12 prochains mois en raison de l’IA générative.
Alex Bauer, General Manager, IBM Consulting, commente :
“L’IA générative génère un enthousiasme exceptionnel, et les dirigeants souhaitent aller au-delà de cet engouement pour avoir un véritable impact sur l’entreprise. Toutefois, sans les bonnes personnes et une culture d’entreprise appropriée, les progrès risquent d’être lents. En intégrant l’IA générative dans leur stratégie d’entreprise, il est essentiel que les dirigeants instaurent un état d’esprit entrepreneurial qui facilite son adoption et l’accompagnement au changement”.
Pour réussir l’adoption de l’IA générative, 63 % des dirigeants français estiment que la collaboration entre les services financiers et technologiques est cruciale. Cependant, plus de la moitié (54 %) reconnaissent que la concurrence interne entre leurs dirigeants peut parfois entraver cette collaboration. De plus, 80 % des dirigeants pensent qu’inspirer leur équipe avec une vision commune produit de meilleurs résultats, bien que 41 % des collaborateurs ne comprennent pas toujours l’impact des décisions stratégiques sur leur travail.
L’étude met en évidence que 64 % des dirigeants français conviennent que la gouvernance de la GenAI doit être établie dès la conception des solutions et non après leur déploiement. Si 70 % des PDG estiment qu’il est impossible de faire confiance à l’IA sans une gouvernance efficace, seulement 40 % ont mis en place une gouvernance appropriée.
Pour conserver leur avantage compétitif, 73 % des dirigeants sont prêts à prendre plus de risques que leurs concurrents bien que 51 % admettent investir dans des technologies sans toujours en comprendre pleinement la valeur. Mais pour 66 % d’entre eux, les gains de productivité dus à l’automatisation sont si importants qu’ils doivent accepter des risques pour rester compétitifs.
L’innovation en matière de produits et services est désormais la priorité principale des PDG pour les trois prochaines années, alors qu’elle n’était que sixième en 2023. En fait, 56 % des dirigeants français sont prêts à sacrifier la performance opérationnelle pour favoriser une plus grande innovation. Cependant, la majorité des dirigeants reconnaissent que l’accent mis sur les performances à court terme constitue un obstacle majeur à l’innovation à long terme.
Actuellement, les investissements en IA générative sont financés par de nouvelles dépenses informatiques par 33% d’entre eux tandis que les 67 % restants réduisent les autres dépenses technologiques.
Pour consulter l’étude complète : https://ibm.co/c-suite-study-ceo.


Les grands modèles de langage (LLM) jouent un rôle de plus en plus important dans les domaines de la programmation et de la robotique. Cependant, lorsqu’il s’agit de problèmes de raisonnement complexes, ils peinent encore à égaler les performances humaines. Une des raisons principales est leur difficulté à apprendre de nouveaux concepts et à former des abstractions efficaces. Des chercheurs du laboratoire d’informatique et d’intelligence artificielle du MIT (CSAIL) ont développé trois cadres qui soulignent l’importance des mots du quotidien pour améliorer les performances des LLM pour le codage, la planification de l’IA et la robotique.
Les trois cadres présentés par les chercheurs du MIT sont LILO (library induction from language observations), Ada (acquisition de domaine d’action) et LGA (abstraction guidée par langage). Chacun de ces systèmes utilise des méthodes neurosymboliques, qui combinent des réseaux neuronaux et des composants logiques pour construire des abstractions à partir du langage naturel. Ces abstractions facilitent la réalisation de tâches complexes en permettant aux modèles de langage de raisonner plus efficacement.
LILO se concentre sur l’amélioration des capacités de codage des modèles de langage. Bien que les LLM puissent générer rapidement du code pour des tâches simples, ils ont du mal à créer des bibliothèques logicielles entières comme le font les ingénieurs humains. LILO associe un modèle de langage à un algorithme de refactorisation, Stitch, pour synthétiser, compresser et documenter du code en bibliothèques de programmes réutilisables. En utilisant le langage naturel pour nommer et documenter ces abstractions, LILO permet aux modèles de langage de mieux comprendre les invites et de produire un code plus lisible et interprétable.
Dans des tests, LILO a surpassé les LLM autonomes et les algorithmes de refactorisation antérieurs, montrant des performances améliorées dans des tâches comme l’identification et la suppression de voyelles dans une chaîne de code et le dessin de flocons de neige. Ces résultats prometteurs suggèrent que LILO pourrait être utilisé pour des applications variées, telles que la manipulation de documents et la génération de graphiques.
Le cadre Ada utilise le langage naturel pour améliorer la planification des tâches dans des environnements virtuels, comme des simulateurs de cuisine et des jeux vidéo. En entraînant les modèles de langage sur des descriptions de tâches, Ada construit des bibliothèques de plans qui peuvent être utilisées pour guider les agents d’IA. Le système propose des abstractions d’actions basées sur ces descriptions, qui sont ensuite validées par des opérateurs humains.
En intégrant le modèle de langage GPT-4, Ada a montré une performance supérieure dans des simulateurs par rapport à des bases de décision existantes. Par exemple, dans des tâches de cuisine virtuelle et de construction dans Mini Minecraft, Ada a réalisé un plus grand nombre de tâches avec une précision accrue. Ces résultats indiquent que le langage naturel peut fournir un contexte précieux pour la prise de décision séquentielle dans des environnements complexes.
LGA se concentre sur l’amélioration de la compréhension des robots de leur environnement en utilisant des descriptions en langage naturel. Ce cadre permet aux robots de générer des abstractions nécessaires pour effectuer des tâches dans des environnements non structurés. En utilisant un modèle de langage pré-entraîné, LGA traduit des descriptions de tâches en abstractions exploitables, qui sont ensuite mises en œuvre par des politiques d’imitation.
Des tests avec le robot quadrupède Spot de Boston Dynamics ont montré que LGA pouvait guider efficacement les robots pour accomplir des tâches telles que ramasser des fruits et déposer des boissons dans un bac de recyclage. Cette approche permet de réduire le besoin de notes détaillées et coûteuses pour pré-entraîner les robots, rendant les processus d’entraînement plus rapides et moins coûteuses.
En construisant des bibliothèques d’abstractions de haute qualité, les cadres LILO, Ada et LGA permettent aux modèles de langage de raisonner plus efficacement et de s’attaquer à des problèmes plus élaborés. Ces travaux ouvrent la voie à des applications pratiques dans des domaines variés, allant de la programmation avancée à la robotique domestique et industrielle.
Auteurs et crédits
Les auteurs principaux de chaque article sont des membres du MIT CSAIL :
Joshua Tenenbaum, professeur de sciences cérébrales et cognitives, pour LILO et Ada,
Julie Shah, chef du département d’aéronautique et d’astronautique, pour LGA,
Jacob Andreas, professeur agrégé de génie électrique et d’informatique, pour les trois.
Les autres auteurs incluent des doctorants du MIT et des collaborateurs de plusieurs institutions :
Maddy Bowers et Theo X. Olausson pour LILO,
Jiayuan Mao et Pratyusha Sharma pour Ada,
Belinda Z. Li pour LGA,
Muxin Liu du Harvey Mudd College pour LILO,
Zachary Siegel de l’Université de Princeton, Jaihai Feng de l’Université de Californie à Berkeley, et Noa Korneev de Microsoft pour Ada,
Ilia Sucholutsky, Theodore R. Sumers, et Thomas L. Griffiths de l’Université de Princeton pour LGA.
Sources de l’article : MIT News, Alex Shipps.


Les systèmes d’IA, de plus en plus performants, nécessitent d’importantes ressources matérielles et énergétiques, soulevant une prise de conscience sur l’empreinte environnementale de l’IA. Face à cette préoccupation croissante, l’AFNOR a récemment publié l’AFNOR Spec 2314, intitulé “Référentiel général pour l’IA frugale : s’attaquer à l’impact environnemental de l’IA et défendre la diffusion de l’IA frugale”. Cette initiative, soutenue par le ministère de la Transition écologique et de la cohésion des territoires, vise à fournir des méthodologies de calcul et des bonnes pratiques pour mesurer et réduire l’impact environnemental de l’IA ainsi que permettre aux entreprises de communiquer de manière transparente sur leur système d’IA.
Le groupe de travail pour le développement de ce référentiel a été lancé en janvier 2024, dans le cadre de la Stratégie Nationale pour l’IA. Co-piloté par l’AFNOR et l’Ecolab du Commissariat Général au Développement Durable, il est le fruit de six mois de travaux auxquels ont contribué le groupe La Poste, Hub France IA, l’ADEME, et EcoInfo, soutenus par une quarantaine d’organisations.
Le référentiel propose une méthodologie exhaustive basée sur une approche de cycle de vie pour évaluer les impacts environnementaux des systèmes d’IA. Il contient 31 fiches de bonnes pratiques et des recommandations pour communiquer de manière juste sur le caractère frugal des services d’IA.
Pour faciliter l’adoption de ces bonnes pratiques, le référentiel met à disposition une boîte à outils opérationnelle, spécifiquement conçue pour les équipes data/IA et RSE (Responsabilité Sociétale des Entreprises). Cette boîte à outils vise à guider les entreprises dans la mise en œuvre des recommandations et à intégrer des critères environnementaux dans leurs politiques d’achat de services d’IA, en particulier pour les marchés publics.
L’IA frugale se définit par la nécessité de développer des systèmes d’IA qui consomment le moins possible tout en évitant l’effet rebond, où une IA plus efficiente pourrait entraîner une utilisation accrue et donc un impact environnemental plus élevé. Pour le groupe de travail, la notion de frugalité passe par le développement de l’IA, mais aussi par la redéfinition des besoins (qu’est-ce qui est nécessaire ?) et des usages (comment mieux utiliser l’IA ?). Selon lui, un système d’IA frugale est un système pour lequel :
L’annexe 3 du référentiel présente un exemple concret de calcul des coûts environnementaux pour les modèles d’inférence et d’entraînement du service d’IA générative Stable Diffusion. Ce calcul prend en compte divers paramètres tels que :
Cette méthodologie inclut également le coût environnemental de l’inférence, des entraînements, des réentraînements, et autres coûts fixes, permettant ainsi une évaluation globale et précise de l’empreinte écologique des systèmes d’IA.
Pour éviter le greenwashing (écoblanchiment) et assurer une communication transparente, le référentiel recommande une évaluation quantitative des indicateurs environnementaux et une communication claire sur le caractère frugal des services d’IA. Les développeurs ou fournisseurs devront donc apporter ces informations en :
L’ambition du groupe de travail est que ce référentiel devienne un modèle universel pour la gestion de l’impact environnemental de l’IA et, dans ce but, entend le promouvoir aux niveaux européen et international (ISO).
Pour consulter gratuitement le référentiel, cliquer ici.


Si l’arrivée de ChatGPT a soulevé un grand enthousiasme, de nombreux débats autour de l’impact de l’IA générative sur nos vies et le futur de l’humanité font désormais la une des médias. Pour nous apporter un éclairage sur le sujet, l’institut Messine vient de mettre en ligne la note “L’intelligence artificielle et nous”, fruit d’un dialogue croisé de 3hrs30 entre Gaspard Koenig et Cédric Villani.
Créé en 2014 avec le soutien de la Compagnie Nationale des Commissaires aux Comptes, l’Institut Messine est un think tank qui rassemble en son sein des représentants de la société civile et de la profession des commissaires aux comptes dans le but de réfléchir aux grands enjeux économiques et sociétaux. S’attachant plus particulièrement aux questions de transparence et de confiance, il formule puis soumet au débat des idées et des solutions susceptibles de nourrir la réflexion et l’action des décideurs publics.
Pour Michel Léger, président de l’Institut :
“Est-on réellement face à un bouleversement anthropologique ? S’agit-il d’une révolution technologique et industrielle ? Notre rapport à la connaissance va-t-il changer ? Est-ce la fin du travail ? Le sujet nous plonge dans un abyme de questionnements”.
Pour tenter d’y répondre, l’Institut a fait appel à deux personnalités ayant pris le temps de travailler en profondeur sur l’IA. Cédric Villani, mathématicien reconnu (médaille Fields 2010), auteur du rapport “Donner un sens à l’intelligence artificielle” (2018) qui a inspiré la stratégie nationale pour l’intelligence artificielle et Gaspard Kœnig, essayiste et philosophe, qui a rencontré plus de 120 professeurs, entrepreneurs, intellectuels, politiques, économistes, artistes, pour son livre “La Fin de l’individu : Voyage d’un philosophe au pays de l’intelligence artificielle”, éditions de l’Observatoire (2019).
Michel Léger souligne :
“Ce sont ainsi deux esprits, amis par ailleurs, qui ont accepté de se prêter au jeu de cet entretien croisé et qui nous apportent leur regard. Ils abordent la genèse de l’intelligence artificielle et des Large Language Models ; traitent des algorithmes et du nudge ; convoquent Rousseau, Socrate ou encore Hayek ; passent par la philosophie confucéenne, le jeu de go et la géopolitique ; évoquent l’agriculture, l’éducation ou encore l’urbanisme”.
Le 19 juin dernier, l’Institut Messine a organisé une conférence animée par Philippe Audouin, membre du Comité directeur de l’Institut, durant laquelle ils sont revenus sur les points principaux de la note avec Laurence Devillers, spécialiste des interactions homme-machine, professeur d’intelligence artificielle au LIMSI-CNRS et auteur de “Des robots et des Hommes”.
Ils ont ainsi souligné le rôle disproportionné donné à l’IA. Pour Gaspard Koenig, dans 20 ans, la priorité de l’humanité sera l’eau et les terres fertiles. Alors qu’on nous martèle que nous devons rattraper notre retard sur les USA et La Chine, toutes les entreprises n’ont pas besoin d’IA. Cédric Villani est tout à fait d’accord avec lui : bien que l’IA est un sujet passionnant, il n’est en aucun cas fondamental pour l’humanité. Selon lui, les investissements mondiaux dans l’IA sont bien trop importants, la captation carbone, une arnaque. Il y a des problèmes bien plus graves que l’IA ne peut résoudre mais pourrait aggraver : la montée des tensions géopolitiques, la raréfaction des sols, les inégalités entre pays, la solitude dans les pays occidentaux… Le sujet le plus important de l’IA cette année sera l’écologie.
Selon lui, le buzz fait autour de l’IA obscurcit le débat public : Elon Musk n’hésite pas à alerter sur la destruction de l’humanité et à côté est à la recherche de milliards pour sa start-up xAI, Sam Altman et d’autres ont fait de même, et ce, avant tout pour se faire de la publicité.
Pour Gaspard Koenig, une IA générative n’a rien à voir avec la science : “La science est censée nous donner la compréhension des phénomènes ; l’IA fait exactement l’inverse”. ChatGPT va nous donner des réponses plausibles, mais tout vérifier est une perte de temps considérable, et faute de source, on ne peut réfuter ses allégations, contrairement à Wikipédia, où il est toujours possible d’engager un dialogue avec les contributeurs. Nous risquons non seulement de perdre notre libre arbitre, mais également de nous diriger vers une homogénéisation médiocre des connaissances.
Laurence Devillers a souligné le potentiel de l’usage de l’IA pour certains secteurs, mais a soulevé les considérations éthiques que peuvent poser certaines pratiques comme la programmation d’organoïdes vivants.
Les sujets abordés lors de cette conférence font partie des réflexions sur l’IA à retrouver dans la note “L’intelligence artificielle et nous”.


Le groupe Ametra a récemment dévoilé son nouveau plan stratégique de développement : “Ignition”. Ce plan ambitieux, d’une durée de trois ans, vise à renforcer la filière Ametra Engineering à travers de nouveaux partenariats, le développement des compétences internes, et le rééquilibrage des métiers.
Membre du Groupement des industries françaises de défense et de sécurité terrestres et aéroterrestres (GICAT), le groupe Ametra, à travers ses filières Ametra Engineering et Ametra Integration, est reconnu pour son savoir-faire en ingénierie de produits et moyens mécaniques, en ingénierie et intégration de systèmes électriques et électroniques. Créée en 1978, cette ETI qui compte aujourd’hui 750 collaborateurs a pour clients des grands noms des secteurs de l’aéronautique, de la défense et du nucléaire : Dassault, Airbus, Ariane Group, Safran, Thales…
Ce nouveau plan stratégique vise à multiplier par deux l’effectif de la filière Engineering, ce qui fera franchir au groupe Ametra la barre symbolique des 1 000 employés d’ici a trois ans.
Pour y parvenir, le groupe se concentre sur 4 axes principaux :
Anne-Charlotte Fredenucci, Présidente du groupe Ametra, souligne :
“Ce plan de croissance à horizon 2027 doit donner un nouvel élan à notre filière Engineering sur un marché européen à fort potentiel. Dans la défense par exemple, le retour de conflits à grande intensité aux portes de l’Union Européenne nous oblige à penser autrement notre filière. La notion d’économie de guerre pose un certain nombre de défis à la Supply Chain, notamment en termes de recrutement, d’innovation et d’accompagnement du ramp-up des grands maitres d’œuvre. Avec ce plan, nous avons l’ambition de développer de nouvelles expertises de pointe et de proposer une gamme de services plus étendue et spécialisée. L’atteinte de ces objectifs élevés reposera notamment sur notre capacité à attirer les jeunes talents issus des meilleures écoles d’ingénieurs”.
Ametra a également annoncé un partenariat avec l’ECE, école d’ingénieurs multiprogrammes spécialisée dans l’ingénierie numérique du groupe OMNES Education. Ce partenariat s’inscrit dans le cadre de la création de l’Intelligence Lab de l’ECE, une plateforme pédagogique de recherche et d’innovation dédiée à l’IA générative, avec une application spécifique au secteur de la défense, qui sera opérationnelle à la rentrée prochaine et ouverte à tous les étudiants de l’ECE.
Ils seront également associés pour le lancement du cycle ingénieur Majeure Défense & Technologie d’une durée de 2 ans sur le campus parisien de l’ECE.
Les étudiants pourront ainsi travailler sur des projets concrets en collaboration avec Ametra.
François Stephan, Directeur Général de l’ECE, commente :
” L’intelligence Lab est une plateforme inédite en France. Nous avons l’ambition de devenir un centre d’excellence pour la pédagogie, la recherche et l’innovation en IA, offrant à nos partenaires comme Ametra l’opportunité de participer à des projets innovants, de recruter des talents, et de tisser des liens avec d’autres acteurs clés sur le marché. La force de ce projet réside dans notre capacité à faire corréler ces nouvelles technologies pour des cas d’application pragmatiques. Nous sommes fiers de compter Ametra parmi nos partenaires pour contribuer aux formations d’excellence de nos étudiants, en lien avec la réalité du terrain”.


Un nouveau rapport de l’UNESCO met en lumière les dangers potentiels de l’IA générative sur la préservation et la transmission de la mémoire de l’Holocauste. Publié en collaboration avec le Centre juif mondial ce 18 juin à l’occasion de la Journée internationale de la lutte contre les discours de haine, il alerte sur la capacité de l’IA à propager des discours antisémites et sur la menace croissante de désinformation et de manipulation historique qu’elle représente.
Alors que ces derniers mois, nous assistons à une recrudescence des propos et des actes antisémites, Audrey Azoulay, Directrice générale de l’UNESCO, prévient :
“Si nous permettons que les faits terribles de l’Holocauste soient dilués, déformés ou falsifiés par une utilisation irresponsable de l’IA, nous risquons une propagation fulgurante de l’antisémitisme et une diminution de notre compréhension des causes et des conséquences de ces atrocités. Il est urgent de mettre en œuvre la Recommandation de l’UNESCO sur l’éthique de l’IA afin que les jeunes générations se nourrissent de faits avérés et non fabriqués”.
Les modèles d’IA générative, lorsqu’ils manquent de données suffisantes, tendent à “halluciner”, c’est-à-dire, à inventer des événements ou des faits historiques inexacts. Le rapport souligne que des IA comme ChatGPT et Gemini, le modèle que Google avait d désactiver en février dernier après qu’il ait généré des images de Nazis noirs, ont déjà produit de fausses informations sur l’Holocauste. Par exemple, ChatGPT a créé de toutes pièces un récit sur des “campagnes de noyade” perpétrées par les nazis, tandis que Gemini a fabriqué des citations de témoins inexistants.
D’autre part, les IA ont tendance à simplifier à l’extrême les faits complexes, en se concentrant sur un nombre limité de sources et d’événements. Par exemple, dans les moteurs de recherche utilisant l’IA, une majorité des images affichées concernent uniquement Auschwitz-Birkenau, négligeant d’autres aspects et expériences de l’Holocauste.
Le rapport montre que les jeunes, de plus en plus dépendants des outils d’IA pour leurs recherches et leurs devoirs, sont particulièrement vulnérables à cette désinformation. Selon une étude de l’ONU, quatre jeunes sur cinq âgés de 10 à 24 ans utilisent l’IA plusieurs fois par jour. L’absence de supervision rigoureuse et l’entraînement des IA sur des données potentiellement biaisées ou trompeuses augmentent le risque de propagation de contenus négationnistes.
Les deepfakes représentent un outil puissant pour les acteurs malveillants. Ces contenus, souvent convaincants, peuvent falsifier des témoignages ou des archives historiques, trompant ainsi le public. Le rapport mentionne des deepfakes impliquant des figures historiques nazies et même des personnalités contemporaines comme Emma Watson lisant Mein Kampf, ayant été vus des millions de fois sur les réseaux sociaux.
Le rapport met en garde contre une possible érosion de la confiance du public dans les faits historiques, du fait de la difficulté croissante à distinguer les contenus générés par IA des informations véridiques. Cette méfiance pourrait s’étendre aux témoignages des survivants de l’Holocauste et aux preuves historiques réelles.
Pour contrer ces risques, l’UNESCO appelle les entreprises technologiques à assumer leurs responsabilités. Elles doivent s’assurer que leurs outils respectent les principes éthiques tels que l’équité, la transparence et les droits humains. Le rapport recommande également une collaboration étroite avec la communauté juive, les survivants de l’Holocauste, les éducateurs et les historiens pour élaborer des modèles d’IA fiables et respectueux de la mémoire historique.
Elle encourage les gouvernements à suivre la Recommandation sur l’éthique de l’intelligence artificielle, adoptée par ses 193 États membres en 2021 et invite les enseignants à défendre l’histoire de l’Holocauste en sensibilisant les jeunes à un usage responsable des technologies, en développant leur esprit critique, et en leur fournissant une compréhension approfondie de ce génocide.
Pour retrouver le rapport : “AI and the Holocaust: rewriting history? The impact of artificial intelligence on understanding the Holocaust”, cliquer ici
