Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Sécurité des puces H20 : Pékin convoque NVIDIA après des soupçons de fonctions de traçage à distance

L'Administration chinoise du cyberespace a convoqué NVIDIA suite à de possibles vulnérabilités de sécurité dans ses puces H20. Les accusations portent sur des fonctions de traçage et de désactivation à distance intégrées, qui pourraient permettre une localisation ou une désactivation unilatérale des appareils.

Sécurité des puces H20 : Pékin convoque NVIDIA après des soupçons de fonctions de traçage à distance

Alibaba présente ses cockpits intelligents, lunettes IA et partenariats stratégiques au WAIC 2025

À la World Artificial Intelligence Conference 2025, Alibaba Cloud a dévoilé plusieurs applications de ses modèles de langage IA, notamment un cockpit intelligent pour véhicules, une solution pour l'éclairage urbain avec Signify et des lunettes connectées. Il a également souligné la popularité de son modèle open source Qwen, largement adopté dans divers secteurs.

Alibaba présente ses cockpits intelligents, lunettes IA et partenariats stratégiques au WAIC 2025

L’industrie automobile chinoise accélère dans l’intégration d’IA avec DeepSeek R1

Au-delà des débats qu’il a pu susciter, les performances du modèle DeepSeek R1, doté de capacités de raisonnement avancées, ont surpris les experts. Alors qu’il a été présenté fin janvier, l’industrie automobile chinoise s’en est très vite emparée. Du fournisseur de technologies de mobilité ECARX aux constructeurs eux-mêmes à l’image de Geely ou BYD, il a été intégré pour des applications variées allant de l’assistance à la conduite à l’amélioration des interactions entre conducteurs et véhicule.

Geely : une expérience de conduite connectée

Geely, acteur majeur de l’automobile chinoise avec des marques comme Smart, Volvo ou Zeerk, a été le premier à annoncer intégrer DeepSeek-R1 pour perfectionner Xingrui, le LLM au coeur de son système “Full-Domain AI for Smart Vehicles” présenté en janvier dernier au CES 2025.

Cette intégration permet d’améliorer la reconnaissance vocale, l’analyse des images et la gestion des données en temps réel. L’objectif est de fluidifier l’interaction entre les conducteurs et leurs véhicules, tout en optimisant la prise de décisions en temps réel, notamment pour les systèmes d’aide à la conduite.

BYD : l’IA au service de la conduite autonome

BYD(Build Your Dreams), l’un des leaders de l’automobile électrique, a intégré DeepSeek dans son système de conduite autonome de niveau 2 DiPilot (baptisé God’s Eye). Ce système repose sur une IA avancée qui permet une assistance au stationnement et une navigation autonome plus précises. L’objectif est d’améliorer la sécurité et de rendre les véhicules plus intelligents et autonomes, tout en réduisant la dépendance aux infrastructures cloud.

Great Wall Motors : des assistants virtuels améliorés

Great Wall Motors exploite DeepSeek pour entraîner son IA interne avec des données collectées, afin de développer des fonctionnalités proactives pour ses assistants embarqués. Cette approche, qui améliore l’interaction entre les conducteurs et leur véhicule, vise à rendre la conduite plus intuitive et à renforcer l’ergonomie des systèmes d’assistance.

SAIC : une expérience utilisateur plus riche

SAIC a misé sur DeepSeek pour améliorer l’expérience utilisateur de ses véhicules connectés. Son intégration de permet de répondre de manière plus précise et personnalisée aux besoins des conducteurs. Les assistants virtuels de SAIC sont désormais capables d’adapter leurs réponses et recommandations en fonction des habitudes de conduite et des préférences des utilisateurs.

Dongfeng : une conduite plus intuitive

Dongfeng a également adopté DeepSeek pour optimiser ses systèmes d’infodivertissement. Cette intégration permet d’offrir une expérience plus immersive et intuitive, avec une interaction vocale améliorée et des recommandations adaptées aux habitudes des conducteurs. L’objectif est de faciliter l’utilisation des fonctionnalités du véhicule et d’améliorer le confort de conduite.

ECARX : une IA embarquée indépendante du cloud

ECARX, fournisseur de technologies de mobilité, a choisi DeepSeek-R1 pour développer son application d’IA embarquée, ECARX AutoGPT. Cette solution permet d’exécuter des tâches complexes en local, sans dépendance aux ressources cloud. Parmi les bénéfices attendus, on retrouve une meilleure protection des données, une réduction de la latence et une diminution des coûts de transmission et de stockage.

D’autres constructeurs automobiles chinois ont l’intention eux aussi de mettre à jour leur assistant d’IA embarquée avec DeepSeek R1. Le modèle a par ailleurs été rapidement adopté dans d’autres secteurs, notamment par trois des principaux opérateurs de télécommunications : China Mobile, China Telecom et China Unicom.

vehiculeautonome

AMD et le CEA : un partenariat stratégique pour façonner l’avenir du calcul en IA

AMD (Advanced Micro Devices), acteur majeur des semi-conducteurs et concurrent de NVIDIA sur le marché des GPUs et des puces IA, a annoncé hier la signature d’une lettre d’intention avec le Commissariat à l’énergie atomique et aux énergies alternatives (CEA). Ce partenariat avec l’un des principaux organismes de recherche scientifique français vise à repousser les limites du calcul haute performance et à optimiser l’efficacité énergétique des infrastructures IA, répondant ainsi aux besoins croissants de secteurs stratégiques comme l’énergie et la médecine où les besoins en calcul sont particulièrement élevés.

Le CEA se concentre sur quatre principaux domaines : les énergies bas carbone, le numérique, les technologies pour la médecine du futur, ainsi que la défense et la sécurité.

En mettant en synergie l’expertise du CEA en matière de recherche et d’architecture informatique et le savoir-faire d’AMD dans le domaine des semi-conducteurs et du HPC, les deux partenaires travailleront au développement des  technologies avancées, composants et architectures de système de prochaine génération.

L’un des principaux défis que vise à relever ce partenariat est celui de l’efficacité énergétique. L’essor des modèles d’IA toujours plus complexes et gourmands en calcul nécessite des solutions capables de concilier puissance de traitement et sobriété énergétique.

Ralph Witting, Corporate Fellow et responsable de la recherche chez AMD, souligne :

“Le calcul IA continue de stimuler l’innovation dans tous les secteurs de l’industrie, et une collaboration internationale est critique pour repousser les limites du possible. Avec ce partenariat avec le CEA et les ingénieurs français de premier plan, nous visons à rapprocher la recherche de pointe sur l’IA des applications du monde réel en faisant progresser les architectures de systèmes répondant aux exigences des charges de travail de l’IA de demain.”

Vers une dynamique de coopération internationale

Au-delà des avancées technologiques, ce partenariat s’inscrit dans une volonté de renforcer les liens entre les acteurs industriels et académiques américains et européens. En prévoyant l’organisation d’un symposium cette année sur le calcul IA, AMD et le CEA ambitionnent de réunir les parties prenantes européennes du secteur, les fournisseurs mondiaux de technologies, les start-ups, les centres de calcul intensifs, les universités et les responsables politiques.

Julie Galland, Directrice de la recherche technologique du CEA, affirme :

Le CEA est engagé à stimuler l’innovation dans le domaine du calcul IA en faisant progresser les technologies de nouvelle génération ouvrant la voie à des architectures de rupture qui concilient performance et efficacité énergétique. Notre collaboration avec AMD représente une étape importante dans la promotion de la coopération internationale dans l’informatique de haute performance, en réunissant une expertise de classe mondiale pour adresser les besoins grandissant de charge de travail IA.” 

Un datacenter de pointe à Grenoble

AMD a par ailleurs annoncé que ses derniers GPUs Instinct alimenteront l’un des centres de données dédiés à l’IA de la société DataOne. Situé à Grenoble, il devrait être opérationnel dans quelques mois. Il pourrait faire partie des investissements des Emirats arabes unis annoncés par Emmanuel Macron puisque G42, basé à Abu Dhabi, est impliqué dans le projet via l’une des sociétés de son portefeuille, Core42.

Lisa Su, présidente et directrice générale d’AMD, commente :

“Notre collaboration stratégique avec G42 contribuera à dynamiser l’écosystème français de l’IA, en fournissant la capacité de calcul nécessaire pour permettre aux start-ups locales et aux pionniers de l’IA de bénéficier d’une innovation de pointe et de renforcer l’économie française.”

AMD-CEA

Baromètre Impact AI : près de trois quarts des salariés français jugent nécessaire de réguler le développement de l’IA

Le collectif Impact AI, en collaboration avec le cabinet d’audit et de conseil KPMG et BNP Paribas, a publié hier la première édition de son “Observatoire de l’IA responsable”. Ce rapport, réalisé avec l’institut de sondage Viavoice et le centre de prospective GCF, analyse les perceptions des salariés du secteur privé en France quant au déploiement de l’IA dans leur entreprise. 

L’IA : un atout stratégique

Plus de la moitié des salariés français (52 %) considère que l’IA joue un rôle crucial dans le développement et le rayonnement d’un pays, une proportion qui grimpe à 74 % parmi les utilisateurs réguliers de ces technologies. Pour ces derniers, les grands gagnants du développement de l’IA sont les Etats-Unis (53 %), devant la Chine (42 %), la Corée du Sud (33 %), la France (30 %)  l’UE (29 %) et Israël (29 %).

La régulation de l’IA, essentielle pour concilier innovation et éthique

Près de 75 % des salariés jugent nécessaire de réguler le développement de l’IA, 37 % « tout à fait nécessaire », 85 % des utilisateurs de l’IA sont également en faveur d’une régulation.

Les salariés expriment une préférence pour une régulation exercée par une agence internationale (30 %), 25 % penchent pour une régulation de l’état et pour 19 %, elle devrait être assumée par l’Europe. Cependant, l’AI Act suscite un accueil favorable : 57 % des salariés le considèrent comme une avancée positive, un chiffre qui atteint 75 % chez les utilisateurs d’IA.

Concernant les projets IA des entreprises, seule une minorité (10 %) place l’innovation au sommet des priorités, 36% des salariés interrogés, quelle que soit la taille de l’entreprise et le secteur d’activité, prônant un équilibre entre innovation, responsabilité et sécurité et 21 % estimant qu’il faut privilégier le respect des principes éthiques.

L’impact sur l’emploi : une préoccupation persistante

Parmi les risques identifiés, l’impact sur l’emploi arrive en tête (41 %), suivi des inquiétudes relatives à la confidentialité des données (33 %) et à une dépendance excessive à l’IA (31 %). Les salariés citent ensuite la non-conformité aux réglementations (24 %), le manque de transparence quant aux tâches réalisées par l’IA (23 %), l’amplification de stéréotypes liés à la présence de biais dans les algorithmes (17 %), les risques d’uniformisation du travail (17 %) et l’impact environnemental (11 %).

L’IA responsable : un atout éthique et un levier d’efficacité

La définition de l’IA responsable proposée aux salariés interrogés était la suivante : “une intelligence artificielle responsable est conçue pour respecter des principes éthiques, garantir la transparence et minimiser les risques potentiels, y compris les biais dans ses algorithmes. Elle favorise l’inclusion sociale et la protection des données, tout en étant capable de choix explicables. De plus, elle vise à améliorer le bien-être humain sans causer de dommages sociaux, environnementaux ou de santé”.

Pour 63 % des salariés et 83 % des utilisateurs d’IA dans le cadre professionnel, le développement d’une telle IA est essentielle ou indispensable. Pour près de 8 salariés sur 10 une IA responsable doit s’attacher au respect de l’être humain, de sa santé, de son bien-être et de ses droits. Interrogés sur les domaines où la responsabilité de l’IA devait être appliquée en priorité, les sondés citent :

  • la protection des données personnelles et sensibles (36 %) ;
  • le respect des droits fondamentaux (27 %) ;
  • l’amélioration du bien-être humain (25 %) ;
  • le respect de l’humain et de sa singularité (24 %) ;
  • le respect des principes éthiques (22 %) ;
  • la garantie de la transparence (21 %) ;
  • le respect de la santé humaine (20 %) ;
  • l’impact environnemental (17 %) ;
  •  l’explicabilité des choix (13 %) ;
  • la réduction des biais dans les algorithmes (11 %) ;
  • l’inclusion sociale (9 %).

L’IA responsable n’est pas seulement perçue comme une nécessité éthique. Pour 44 % des salariés, elle améliore l’efficacité, favorise une prise de décision optimisée (39 %) et réduit la consommation de ressources (32 %).

Une acculturation encore trop faible

Malgré l’importance accordée à l’IA responsable, 63 % des salariés ignorent les initiatives menées par leurs entreprises dans ce domaine. Seulement 9 % peuvent se référer à une charte éthique ou un interlocuteur spécialisé.

Pour accélérer cette acculturation à l’IA responsable, les salariés suggèrent qu’un certain nombre de freins soient levés, comme le manque de compétences internes, cité par 30 % des salariés, la complexité technique de l’IA (26 %), les coûts élevés de sa mise en œuvre (24 %), la résistance au changement (22 %) ou le manque d’engagement de la direction.

Christophe LIÉNARD, Président d’Impact AI, commente :

“Les conclusions de cette première édition de l’Observatoire de l’IA responsable montrent la grande sensibilité des Français aux notions d’IA responsable et d’IA éthique et vont donc nourrir les grands travaux que le collectif entend mener en 2025, avec l’impulsion de l’AI Action Summit de février : autour du travail, de la santé, de l’environnement et pour toujours plus de formation et d’appropriation de toutes et tous des outils d’IA responsable”. 

Observatoire-de-lIA-responsable-2025

Repenser l’IA pour l’intérêt général : les recommandations du CESE

En amont du Sommet mondial de l’IA de Paris, le Conseil économique, social et environnemental (CESE) a adopté hier à 99 voix pour, 22 abstentions et 10 voix contre, l’avis “Pour une IA au service de l’intérêt général”. Ce document propose un cadre d’acceptabilité inédit pour le déploiement de l’IA dans la société française. Élaboré par une commission temporaire composée de conseillers issus de la société civile organisée et de 10 citoyens tirés au sort, cet avis offre une contribution sur l’impact de l’IA dans des domaines clés tels que le travail, la santé, l’éducation et les services publics.

Troisième assemblée constitutionnelle de la République française, le CESE assure le lien entre les pouvoirs publics et les citoyens. Ses 175 membres, répartis en divers groupes de travail, sont désignés pour 5 ans par des syndicats, des organisations patronales, des associations ou des ONG. Il peut également associer à ses travaux des citoyens tirés au sort et organiser des conventions citoyennes ou des consultations en ligne.

Les travaux adoptés par le Bureau sont ensuite publiés au Journal Officiel et transmises au Gouvernement et au Parlement afin de les éclairer dans l’élaboration des politiques publiques.

Quatre critères pour une IA à l’écoute de la société

Le CESE souligne l’importance de garantir que l’IA soit déployée de manière responsable, éthique et durable. Pour garantir que l’IA serve réellement l’intérêt général, il identifie quatre critères fondamentaux :

  • Compatibilité avec les limites planétaires : Intégrer l’impact environnemental dans la conception et l’usage des technologies d’IA ;
  • Progrès social : Promouvoir une IA qui améliore les conditions de vie et réduit les inégalités ;
  • Enjeux économiques : Soutenir la création de valeur tout en évitant les effets pervers tels que la précarisation de l’emploi ;
  • Respect des droits fondamentaux : Garantir libertés individuelles, transparence et équité.

Des recommandations concrètes et inclusives

Le CESE propose 32 préconisations clés, parmi lesquelles :

  • Prioriser l’utilité sociétale

L’IA doit être d’abord envisagée comme un outil au service de besoins essentiels (santé, éducation, accessibilité). Son impact sur les conditions de travail, qu’il ait des effets positifs (automatisation de tâches répétitives, optimisation de l’efficacité…) ou négatifs (sentiment de perte de compétence, surveillance excessive…), doit être mesuré et régulièrement discuté.

Le CESE préconise donc d’inclure l’IA dans le dialogue social et recommande la mise en place d’un accord national interprofessionnel (ANI) sur les modalités de déploiement de l’IA dans les entreprises. Cet accord, négocié par tous les partenaires sociaux, doit assurer un déploiement maîtrisé de l’IA, au service des travailleurs et en adéquation avec les besoins identifiés.

  • Former et inclure

32% de la population française, soit 16 millions de personnes, se considère éloignée du numérique. Le CESE prône un plan national de formation au numérique et à l’IA, adapté à tous les âges. Les usages et les risques potentiels de l’IA devront par ailleurs être intégrés au plan national de formation du personnel éducatif, des médiateurs numériques, des travailleurs sociaux et des agents publics.

  • Renforcer le choix citoyen

Pour que les citoyens puissent faire des choix éclairés quant au déploiement de l’IA, il est  crucial de les sensibiliser à ses impacts environnementaux, tels que la consommation d’énergie, d’eau et de ressources pour les infrastructures d’IA, et de les former à un usage plus frugal de l’IA. Le CESE souligne la nécessité de prendre en compte les conflits potentiels liés à l’implantation de nouveaux centres de données, appelant à une communication transparente sur les conséquences associées et à une réelle considération des retours citoyens.

L’IA ne doit pas être imposée : les services publics doivent préserver une option humaine, pour garantir l’universalité de l’accès au service public et la liberté de choix de tous.

  • Assurer la transparence et l’explicabilité de l’IA

Selon le CESE, les biais intrinsèques des IA, liés aux jeux de données et aux choix des concepteurs, confèrent à ces technologies une dimension politique. Il appelle à garantir la transparence et l’explicabilité des décisions et des résultats produits par les IA. Il préconise également de renforcer les exigences de la réglementation européenne en matière de transparence des algorithmes et des données d’entraînement, de diversifier ces dernières pour limiter les biais, et de clarifier les règles de protection des données personnelles en conformité avec le RGPD.

Palais_d'Iéna,_hémicycle_(3)

LightOn annonce ModernBERT, un modèle conçu pour les entreprises européennes

LightOn, l’un des fleurons français de l’IA, pionnier de l’IA générative pour les entreprises, annonce le lancement de ModernBERT, une version modernisée et optimisée du célèbre modèle BERT. Fruit d’une collaboration avec le laboratoire de R&D Answer.AI, cette famille de modèles a été conçue pour répondre aux besoins des environnements professionnels français et européens. 

BERT (Bidirectional Encoder Representations from Transformers) largement utilisé dans le domaine du traitement automatique du langage naturel (TALN), développé par des chercheurs de Google AI Language en 2018, est encore largement utilisé aujourd’hui. Les modèles dérivés comme ModernBERT continuent d’améliorer et d’optimiser les performances de BERT pour répondre aux besoins croissants des entreprises et des chercheurs.

Les deux modèles d’encodeur de la famille ModernBERT tirent parti des avancées réalisées pour les LLMs, des modèles principalement à décodeur, qui permettent d’améliorer l’efficacité, la rapidité et la capacité à gérer des tâches complexes comme la classification de texte. ModernBERT-base et ModernBERT-large, qui ont respectivement 149 millions et 395 millions de paramètres, proposent une longueur de séquence maximale de 8192 tokens, un net progrès par rapport à la limite de 512 tokens des versions antérieures de BER

Une performance accrue pour des besoins d’entreprise complexes

ModernBERT se distingue par des améliorations notables en matière de performances et de flexibilité. Parmi ses caractéristiques clés :

  • Efficacité optimisée : Le modèle surpasse les standards actuels dans des benchmarks de recherche d’information et de classification de données. Cela le rend idéal pour analyser des volumes étendus et traiter des documents complexes, y compris des données techniques et du code ;
  • Latence réduite : ModernBERT est conçu pour répondre rapidement, même dans des environnements aux ressources limitées ;
  • Coûts maîtrisés : Contrairement aux grands modèles de langage (LLM) comme GPT, souvent gourmands en ressources et onéreux, ModernBERT propose une alternative à moindre coût. Il diminue le coût total de possession (TCO) tout en maintenant des performances élevées ;
  • Déploiement adapté : Intégré de manière sécurisée aux infrastructures des clients, il  garantit un contrôle total des données dans des environnements conformes aux réglementations européennes.

Une solution pour les secteurs sensibles

ModernBERT est spécifiquement conçu pour répondre aux exigences des entreprises européennes en matière de gestion de données et de conformité réglementaire. Son architecture modulaire permet une intégration rapide aux outils métiers existants, en assurant la confidentialité des données, un aspect crucial pour des secteurs sensibles comme la finance, la santé ou encore la défense.

En intégrant ModernBERT dans les pipelines de « Retrieval Augmented Generation » (RAG), les entreprises peuvent combiner la recherche d’informations pertinentes avec des modèles génératifs, garantissant des réponses contextuelles et précises tout en optimisant les flux de travail internes.

LightOn-ModernBERT-modele-entreprises-europeennes

Extension du Lille Ynov Campus : un pôle d’innovation au cœur du développement numérique de la métropole lilloise

Le jeudi 21 novembre dernier, Ynov, une école privée qui forme aux métiers du numérique, de la création et de l’innovation, a officiellement inauguré à Croix,  l’extension de son campus métropolitain lillois, ouverte à la rentrée 2024.

Ynov est présent dans 13 métropoles avec 13 campus et près de 10 000 étudiants inscrits dans ses 64 diplômes (BTS, Bachelors, Mastères, reconnus par l’État) couvrant des secteurs tels que l’informatique, la cybersécurité, l’IA, le marketing digital, l’architecture d’intérieur, la création et le design digital ainsi que l’audiovisuel.

Le taux d’employabilité des diplômés, particulièrement élevé, atteste de l’efficacité de son modèle pédagogique. En sortie de Mastère, 92% d’entre eux trouvent un emploi dans les six mois, avec une rémunération moyenne de 36K€ par an. L’école propose également Connect Ynov Campus, une offre de formation 100% en ligne.

Lille Ynov Campus

Le campus lillois a ouvert ses portes en 2022. L’inauguration de son extension à Croix, une ville située à une dizaine de kilomètres de Lille, a eu lieu en présence de Lionel Desage, président d’Ynov, et de près de 200 invités, dont des élus et des partenaires clés.

Les nouveaux locaux ont été pensés pour stimuler l’innovation et la créativité des étudiants. Sur le site de l’ancien siège social des 3 Suisses, entièrement rénové, cette extension de 3000 m² compte 12 salles de cours modernes, un studio de création 3D, deux studios de tournage professionnels et une cyberwaroom. Ces équipements soutiennent une pédagogie orientée vers l’agilité, l’entrepreneuriat et l’innovation, des valeurs au cœur de la mission de Ynov.

Le campus peut désormais accueillir plus de 620 étudiants, dont 230 en alternance. Son ambition est d’accueillir 1 000 étudiants d’ici 2027/2028, ce qui lui permettra de consolider son rôle clé dans le paysage éducatif et économique des Hauts-de-France.

En s’implantant dans la commune de Croix, Ynov contribue à la revitalisation du territoire et à la croissance de l’écosystème numérique régional. L’établissement entretient des partenariats solides avec plus de 160 entreprises, offrant ainsi aux étudiants un large éventail d’opportunités professionnelles et de stages.

Matthieu Bouton, Directeur Lille Ynov Campus, conclut :

“Ce campus est bien plus qu’un lieu d’apprentissage, il est un espace d’innovation qui accompagne le développement de l’écosystème numérique local. Notre ambition est de former une génération prête à relever les défis de demain, tout en faisant rayonner le territoire”.

innovation-campus-innov

Etude Owkin : l’IA, une réponse à la surcharge de travail des pathologistes et oncologues

L’IA, peut-elle améliorer le quotidien des médecins ? De nombreuses études attestent que oui. Confrontés à une surcharge de travail, qu’espèrent les pathologistes et oncologistes de l’IA ? Owkin, licorne franco-américaine spécialisée en biotechnologie, répond entre autres à ces questions dans le rapport “State of the Nation : Opportunities and Challenges for Digital Pathology and AI Solutions “.

Owkin a mené cette étude en partenariat avec le cabinet Censuswide auprès de 312 pathologistes et oncologues au Royaume-Uni, aux États-Unis et en France en juillet 2024. Alors que les pressions sur les systèmes de santé ne cessent d’augmenter, elle met en lumière les défis auxquels sont confrontés ces médecins : augmentation de charge de travail, complexité des diagnostics et épuisement professionnel. Elle souligne également le potentiel de l’IA dans le domaine de la santé : rationalisation des flux de travail, amélioration des soins aux patients, aide au diagnostic, traitement personnalisé adapté à chaque patient…

Meriem Sefta, responsable en chef des diagnostics chez Owkin, explique :

“Lorsque les médecins sont surchargés de travail, cela peut entraîner des erreurs de diagnostic, des retards dans les rapports et une réduction générale de la qualité des soins. Cela peut alors avoir un impact négatif sur les résultats des patients. La pathologie numérisée et l’IA sont prêtes à faire une réelle différence dans ce contexte, en allégeant le fardeau des pathologistes et en veillant à ce que les soins aux patients soient toujours aussi efficaces que possible”.

Stress et épuisement professionnel

Selon Owkin, les conclusions de ce rapport mettent en évidence l’urgence d’agir face aux défis croissants auxquels sont confrontés les pathologistes. Il révèle en effet une réalité préoccupante : les pathologistes et oncologues sont confrontés à une charge de travail croissante, au stress et à l’épuisement professionnel, ce qui peut compromettre la qualité des soins.

Ils sont :

  • 55 % à déclarer subir un stress élevé ou un épuisement professionnel ;
  • 52 % à citer la lourdeur de la charge de travail comme un fardeau important ;
  • 40 % à estimer que leur santé mentale est moyenne ou mauvaise en raison de leur travail.

L’augmentation de l’incidence du cancer et la complexité croissante des diagnostics exacerbent ces pressions, alors que de nombreux pathologistes approchent de la retraite et qu’ils sont moins nombreux à entrer sur le marché du travail.

C’est également la santé des patients qui en souffre :

  • 35 % des répondants indiquent que les charges auxquelles ils sont confrontés nuisent aux soins des patients ;
  • Près de 40 % affirment ne pas pouvoir obtenir les résultats des examens pathologiques assez rapidement et ne pas pouvoir voir ou aider autant de patients qu’ils le souhaiteraient.

IA et pathologie numérique : une alliance prometteuse

Selon les résultats de l’étude, 77 % des praticiens voient dans l’IA un moyen de réduire les délais d’attente pour les tests et de pallier les problèmes de personnel, 74 % d’entre eux pensent qu’elle peut accélérer les diagnostics oncologiques. Par ailleurs, la confiance dans les outils d’IA se renforce : 82 % des pathologistes les perçoivent positivement.

L’IA est capable d’automatiser les tâches répétitives, de prioriser les cas urgents et de fournir des analyses prédictives. Elle pourrait ainsi améliorer non seulement les flux de travail, mais aussi les résultats pour les patients. Cependant, les professionnels insistent sur un point crucial : l’IA doit compléter, et non remplacer, leur expertise.

Les défis de l’implémentation

Malgré ces perspectives optimistes, l’adoption de l’IA et des technologies numériques est freinée par plusieurs obstacles : le manque de ressources et d’infrastructures (43 %), les coûts élevés (23 %), et le financement insuffisant (23 %) ralentissent la transition.

Pour une transition réussie

Le rapport identifie des pistes pour accompagner cette transformation : la normalisation des protocoles d’imagerie et des flux de travail pour l’interopérabilité, l’accès élargi via des solutions cloud, et l’éducation des professionnels sur les capacités de l’IA sont essentiels. Mais au-delà des aspects techniques, c’est un changement culturel qui s’impose : les praticiens doivent être soutenus dans l’acceptation de ces nouveaux outils, notamment avec une modification des modes de remboursement. La perception des patients, déjà favorable selon 70 % des répondants, pourrait aussi accélérer cette adoption.

Owkin a organisé un webinaire le 9 décembre dernier afin d’analyser les résultats de l’enquête et de faire le point sur la numérisation et l’intégration des solutions d’IA dans les flux de travail des pathologistes. Si vous êtes intéressé-e, vous pouvez le retrouver ici.

Médcine AI

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd’hui plus de 300 millions d’utilisateurs hebdomadaires, le rapport “Online Search After ChatGPT: The Impact of Generative AI”, réalisé par Semrush et Statista, explore comment l’IA redéfinit la recherche en ligne et le marketing numérique. 

Une transformation profonde du paysage de la recherche

En l’espace de deux ans, la GenAI a bouleversé les habitudes des internautes. Ceux-ci utilisent aujourd’hui des outils d’IA comme ChatGPT ou Gemini de Google pour effectuer leurs recherches en ligne, témoignant d’une adoption rapide et évolutive. Ces deux plateformes dominent le marché, captant à elles seules 78 % du trafic mondial lié à la recherche par IA, selon les données de Semrush. Les troisième et quatrième modèles les plus populaires (Perplexity.et Bing de Microsoft), représentent quant à eux deux 16 % du trafic de recherche par IA.

Cette croissance s’accompagne d’une redéfinition des méthodes de recherche. Les utilisateurs délaissent progressivement les mots-clés au profit de requêtes conversationnelles, attendant des réponses précises et rapides. Cette évolution transforme la manière dont les contenus sont créés et optimisés, forçant les entreprises à réaligner leurs stratégies de référencement (SEO).

L’émergence de nouvelles plateformes face à la domination persistante de Google

Les géants historiques comme Google et YouTube conservent une large domination grâce à leurs bases d’utilisateurs massives, respectivement 6 milliards et 3,5 milliards d’utilisateurs actifs. Cependant, la recherche par IA gagne du terrain tandis que les moteurs de recherche traditionnels, Google, Bing et Yahoo, sont confrontés à une baisse du trafic.

Si ChatGPT et Gemini occupent une place prépondérante, des alternatives émergent, comme Perplexity ou Brave Search. Les moteurs de recherche axés sur l’IA comme Brave Search et TikTok enregistrent des gains significatifs depuis 2022. En 2024, Brave Search, axé sur la confidentialité, a enregistré une croissance de 235 %.

Les Etats-Unis, leader du trafic mondial de ChatGPT

Selon le rapport, 13 millions d’adultes américains ont utilisé l’IA générative comme principal outil de recherche en ligne en 2023, un chiffre qui devrait atteindre plus de 90 millions d’ici 2027, soit près d’un tiers d’entre eux.

Les Etats-Unis sont d’ailleurs les principaux utilisateurs de ChatGPT, représentant 25 % du trafic mondial. Ils sont suivis de l’Inde avec 12,8 %, puis du Brésil et de la Chine avec respectivement 6,9 % et 4,9 %. Les principaux marchés européens comme l’Allemagne, le Royaume-Uni et la France figurent également dans le top 10.

Ces tendances régionales mettent en évidence l’importance d’élaborer des stratégies de contenu adaptées à des contextes culturels et linguistiques variés.

Les défis de la confiance et de la sécurité

Malgré son adoption rapide, la recherche par IA générative suscite encore des interrogations. Plus de 60 % des utilisateurs actuels de la GenAI seraient enclins à le faire d’avantage si les modèles d’IA offraient plus de transparence et de sécurité. Pour répondre à ces attentes, les entreprises doivent garantir l’exactitude de leurs données et s’assurer que leurs contenus respectent les normes éthiques.

Impacts stratégiques pour les spécialistes du marketing

L’essor de la recherche par IA générative représente à la fois une opportunité et un défi pour les spécialistes du marketing numérique. Trois axes majeurs se dessinent :

  1. Optimisation pour les plateformes IA : Les entreprises doivent adapter leurs contenus aux spécificités des algorithmes dominants comme ceux de ChatGPT et Gemini. Cela implique une compréhension approfondie des modèles de traitement et des préférences des utilisateurs.
  2. Adaptation aux nouvelles intentions de recherche : Les requêtes conversationnelles exigent un contenu qui répond précisément et rapidement aux besoins des utilisateurs. Il est essentiel d’adopter une approche basée sur des réponses contextuelles et engageantes.
  3. Diversification des canaux : Avec la montée en puissance de plateformes alternatives et la résurgence de moteurs de recherche axés sur la confidentialité, comme Brave Search, il devient nécessaire d’élargir les stratégies de distribution de contenu.

Pour retrouver le rapport dans son intégralité, cliquer ici.

comment la GenAI transforme la recherche en ligne et le marketing

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l’année prochaine, l’entreprise a dévoilé en fin de semaine dernière son dernier ajout à la famille Llama 3 : Llama 3.3 70B. Ce modèle, qui comme son nom l’indique compte 70 milliards de paramètres, est aussi performant que Llama 3 405B mais nécessite beaucoup moins de ressources.

LLama 3.3 70B a été annoncé par Meta sur X le 6 décembre dernier :

“Alors que nous continuons à explorer de nouvelles techniques de post-formation, nous lançons aujourd’hui Llama 3.3 – un nouveau modèle open source qui offre des performances et une qualité de pointe dans les cas d’utilisation basés sur du texte, tels que la génération de données synthétiques à une fraction du coût d’inférence”.

Il est distribué sous la “Llama 3.3 Community License Agreement”, qui permet l’utilisation, la reproduction, la distribution, la création d’œuvres dérivées et les modifications du modèle. Cependant, cette licence impose certaines conditions, comme l’obligation de fournir une copie de l’accord de licence avec toute distribution du modèle et d’afficher “Built with Llama” sur les produits dérivés. Les organisations comptant plus de 700 millions d’utilisateurs actifs mensuels devront quant à elles demander une licence commerciale.

S’il n’est pas open source au sens strict de l’OSAID, comme les modèles Llama 3.1 8B, 70B et 405 B, Llama 3.3 70B est un modèle “ouvert” exclusivement textuel. A leur instar, il est multilingue (anglais, allemand, français, italien, portugais, hindi, espagnol et thaïlandais), dispose d’une fenêtre contextuelle pouvant aller jusqu’à 128 000 tokens et de capacités de raisonnement renforcées.

Il a été pré-entraîné sur 15 000 milliards de tokens à partir de données accessibles au public avant d’être affiné sur plus de 25 millions d’exemples générés synthétiquement. Ses connaissances s’arrêtent en décembre 2023. Il utilise l’apprentissage par renforcement avec retour humain (RLHF) et le réglage fin supervisé (SFT), ce qui lui permet de générer des réponses sûres et utiles.

Llama 3.3 70B innove en utilisant la technique Grouped Query Attention (GQA) ce qui lui permet de traiter des tâches complexes de manière plus efficace tout en nécessitant moins de ressources informatiques.

Performances du modèle

Meta a évalué les performances du modèle par rapport à celles de ses prédécesseurs Llama 3.1 70B et 405B et celles de ses concurrents Gemini 1.5 Pro de Google, GPT-4o d’OpenAI et Nova Pro d’Amazon.

Les scores obtenus par LLama 3.3 70B  montrent qu’il est particulièrement adapté pour des cas d’utilisation nécessitant un bon suivi des instructions, une prise en charge multilingue efficace et le traitement de données volumineuses ou complexes :

  • Pour le suivi d’instructions (Instruction Following – IFEval), qui évalue la capacité des modèles à comprendre et exécuter des instructions complexes, il a obtenu un score de 92.1, égal à Amazon Nova Pro mais supérieur à GPT-4o (89.6) et Gemini 1.5 Pro (89.4) ;
  • Multilinguisme (MGSM – 0-shot) : avec un score de 91.1, il excelle dans le traitement multilingue. Ce résultat est proche de LLama 3.1 405B (91,6), inférieur à Claude 3.5 Sonnet (92.8) mais meilleur que Gemini 1.5 Pro (90.6) ;
  • Gestion de longs contextes (Long-context – NIH/Multi-needle) : il obtient 97.5, démontrant une très bonne capacité à traiter de grandes quantités d’informations sur des contextes étendus, surpassant Gemini 1.5 Pro (94.7).

Le modèle peut être téléchargé sur MetaHugging FaceGitHub.

Llama 3.3 70B

Afrique du Sud : l’UNESCO apportera son expertise sur l’intelligence artificielle au G20 2025

Ce dimanche 1ᵉʳ décembre 2024, l’Afrique du Sud a officiellement pris la présidence du G20 pour un an, avec comme devise “Solidarité, Égalité et Durabilité”. Les travaux de 2025 porteront sur trois priorités définies par le pays : une croissance inclusive, la sécurité alimentaire et l’IA. L’UNESCO, l’Organisation des Nations Unies pour l’éducation, la science et la culture, apportera son expertise dans ce dernier domaine.

En 2024, sous la présidence du Brésil, l’UNESCO a acquis le statut de partenaire privilégié du G20. L’Organisation a participé à une quinzaine de groupes de travail dans le cadre de son mandat pour l’éducation, la science, la culture, l’information et la communication.

Elle voit son rôle s’élargir sous l’égide de l’Afrique du Sud, premier pays africain à assumer la présidence de ce forum créé en 1999 pour promouvoir la coopération économique mondiale. Son expertise sera en 2025 intégrée non seulement aux discussions des ministres des Affaires étrangères, mais aussi à celles des ministres des Finances, avec un focus sur l’IA.

Audrey Azoulay, Directrice générale de l’UNESCO, indique :

“Après une coopération fructueuse avec le G20 en 2024, à l’initiative du Brésil, l’UNESCO s’enorgueillit de voir son statut de partenaire privilégié s’élargir en 2025 sous la présidence de l’Afrique du Sud. Notre priorité commune sera le développement d’une intelligence artificielle éthique qui soutient les objectifs de développement durable des Nations Unies”.

L’IA, levier de développement pour l’Afrique

En novembre 2021, les États membres de l’UNESCO ont adopté à l’unanimité le premier cadre éthique mondial pour l’IA présenté par Audrey Azoulay lors de la Conférence générale de l’organisation. Celle-ci accompagne actuellement une soixantaine de pays dans la régulation et l’application de l’IA afin de garantir que cette technologie, souvent perçue comme disruptive, soit mise au service du bien commun.

Avec 70 % de sa population âgée de moins de 30 ans, l’Afrique se positionne comme un territoire clé pour exploiter le potentiel de l’IA. Selon l’Union africaine, l’IA pourrait générer entre 110 et 220 milliards de dollars par an pour les économies africaines, tout en stimulant l’innovation et en créant des emplois. Utilisée judicieusement, elle pourrait également optimiser les services publics dans des secteurs comme l’éducation et la santé, tout en aidant les pays africains à mieux s’adapter aux défis du changement climatique. Cependant, cet avenir prometteur reste conditionné par la résolution de défis structurels : aujourd’hui, seuls 40 % des Africains ont accès à Internet haut débit, un taux qui chute à 10 % dans les pays à faible revenu.

Pour répondre à ces enjeux, l’Union africaine a récemment adopté une stratégie continentale dédiée à l’IA que l’UNESCO accompagne à travers des programmes de formation destinés aux décideurs publics et aux administrations.

C’est dans ce contexte que l’organisation soutiendra le groupe spécial sur l’intelligence artificielle et l’innovation pour le développement durable mis en place par la présidence sud-africaine du G20.

L'UNESCO au G20

Elon Musk et xAI : une quête insatiable de puissance de calcul met la pression sur NVIDIA

Plusieurs mois après avoir demandé une pause dans le domaine de l’IA, le PDG de Tesla, SpaceX et X (ex-Twitter), Elon Musk, annonçait l’an passé la création de xAI. Peu de temps après, il dévoilait le premier produit de la start-up : l’IA générative Grok, qu’il souhaite positionner devant ChatGPT. Pour cela, il lui faut encore plus de puissance de calcul, il cherche donc à sécuriser un approvisionnement constant de GPUs, mettant la pression sur les chaînes d’approvisionnement de NVIDIA.

L’engouement des entreprises pour la GenAI a entraîné une demande massive des GPUs H100 de NVIDIA en 2023, qui annonçait alors des délais de livraison pouvant atteindre jusqu’à 52 semaines. Les puces de NVIDIA sont en effet les plus utilisées que ce soit pour les datacenters, les supercalculateurs, l’entraînement ou l’inférence des LLMs. Cette année, la société a considérablement augmenté sa production pour tenter de répondre à la demande du marché mais, selon des informations du Wall Street Journal, les demandes d’Elon Musk imposeraient ou auraient imposé une tension particulière sur ses chaînes d’approvisionnement.

Il faut reconnaître qu’Elon Musk dans son ambition de surpasser ses concurrents dans le domaine de la GenAI, a mis les bouchées doubles avec la construction de son supercalculateur Colossus, une réalisation qualifiée de surhumaine par Jensen Huang, le PDG de NVIDIA, en raison de la rapidité et de l’efficacité avec lesquelles le projet a été mené à bien. Il déclarait alors :

“Pour autant que je sache, il n’y a qu’une seule personne au monde qui puisse faire quelque chose comme ça en si peu de temps. Elon est unique dans sa compréhension de l’ingénierie, des grands systèmes, de la gestion des ressources – c’est tout simplement incroyable”.

Selon Elon Musk, le supercalculateur, construit en 122 jours à Memphis, dans le Tennessee, comptait 100 000 GPU H100 en septembre dernier et devait voir sa capacité de calcul doubler avec 50 000 nouveaux H100 et autant de H200 avant la fin de l’année. Colossus est en fait le plus grand cluster de calcul d’IA au monde.

La start-up en a les moyens puisqu’elle a levé 11 milliards de dollars cette année. En mai, elle a annoncé un tour de financement de 6 milliards de dollars avec la participation d’investisseurs de premier plan, notamment Valor Equity Partners, Andreessen Horowitz, Sequoia Capital, qui ont tous trois répondu présents pour une nouvelle levée de fonds de 5 milliards de dollars.

gpu

Fugatto, l’IA générative audio de NVIDIA

Les modèles text-to-audio ont fait parler d’eux avant que les modèles text-to-image ne leur volent la vedette. Les recherches pour améliorer les premiers se poursuivent, NVIDIA vient ainsi de dévoiler son “couteau suisse du son” : Fugatto (Foundational Generative Audio Transformer Opus 1). Ce modèle d’IA génère ou transforme des combinaisons de musique, de voix et de sons à partir de texte et d’audio.

Entraîné sur des millions d’échantillons audio, Fugatto est un modèle de fondation qui s’appuie sur les travaux antérieurs de ses créateurs dans des domaines tels que la modélisation de la parole, le vocodage audio et la compréhension audio. Il est le fruit d’un an de travail de cette équipe de chercheurs internationaux, ce qui a d’ailleurs permis de renforcer ses capacités multilingues. La version complète utilise 2,5 milliards de paramètres et a été entraînée sur une banque de systèmes NVIDIA DGX contenant 32 GPU NVIDIA H100 Tensor Core.

Fugatto peut non seulement générer des sons à partir de descriptions textuelles, mais aussi transformer des pistes existantes en ajoutant ou supprimant des éléments, ou encore en modifiant des caractéristiques vocales comme l’accent ou l’émotion. Il peut même permettre aux gens de produire des sons jamais entendus auparavant, comme une trompette qui aboie ou un saxophone qui miaule…

En effet, Fugatto ne se limite pas aux usages conventionnels de l’audio. Grâce à des fonctionnalités comme l’interpolation temporelle, le modèle peut générer des paysages sonores évolutifs. Par exemple, il peut créer un orage se transformant en une aube lumineuse, avec des chants d’oiseaux qui prennent progressivement le relais du tonnerre.

Le modèle utilise une technique appelée ComposableART pour combiner plusieurs instructions vues séparément pendant l’entraînement. Un utilisateur pourrait ainsi demander une voix triste avec un accent français, tout en ajustant précisément l’intensité de ces attributs. Cette capacité donne aux créateurs un contrôle artistique sans précédent, selon Rohan Badlani, chercheur en IA chez NVIDIA : ” Les résultats me donnaient l’impression d’être un artiste, même si je suis informaticien”.

Une palette d’applications potentielles

Fugatto se distingue par sa capacité à répondre à des besoins variés, dans des secteurs aussi divers que la musique, le marketing, l’éducation ou encore le jeu vidéo. Les producteurs pourront expérimenter rapidement différents styles, ajouter ou supprimer des instruments, et même générer des effets sonores inédits. Comme le souligne Ido Zmishlany, producteur multi-platine :

“L’histoire de la musique est aussi une histoire de la technologie. La guitare électrique a donné au monde le rock and roll. Quand le sampler est arrivé, le hip-hop est né. Avec l’IA, nous écrivons le prochain chapitre de la musique. Nous avons un nouvel instrument, un nouvel outil pour faire de la musique – et c’est super excitant”.

Les agences de publicité auront la possibilité d’adapter leurs campagnes en appliquant divers accents et émotions aux voix off, les développeurs de jeux vidéo de créer des ressources audio dynamiques qui s’adaptent à l’action en temps réel. Les outils d’apprentissage des langues pourraient, quant à eux, être enrichis par des voix spécifiques, comme celle d’un ami ou d’un parent.

fugatto-nvidia

AIS et IoT : succès du 3ème lancement de nanosatellites de la constellation KINEIS

Kineis, acteur spatial français, annonce que ce lundi 25 novembre, à 4h55 (heure de Paris), le lanceur Electron de Rocket Lab a réussi la mise en orbite de 5 nouveaux satellites de sa constellation dédiée aux marchés mondiaux de l’Internet des Objets (IoT) et au secteur maritime, l’AIS (Automatic Identification System). Avec ce troisième lancement, baptisé « Ice AIS Baby », la start-up toulousaine se rapproche de son objectif : 15 nanosatellites sur les 25 prévus sont désormais déployés en orbite basse (LEO).

Kineis a été fondée en 2018 par le CNES (Centre National d’Etudes Spatiales) et sa filiale CLS (Collecte Localisation Satellites) pour opérer le système Argos. Ce système mondial de localisation et de collecte de données géo-positionnées par satellite a été créé en 1978 à l’initiative du CNES, de la NASA et de l’agence américaine d’observation océanique et atmosphérique (NOAA).

En 2020, Kineis a levé 100 millions d’euros pour financer le développement et le déploiement des 25 nanosatellites et 20 stations terrestres qui vont constituer sa constellation dont l’objectif est de démultiplier les capacités de suivi du système Argos.

Après avoir mis en orbite cinq premiers satellites en juin, puis cinq autres en septembre, depuis la base de lancement néo-zélandaise de Rocket Lab, située dans la péninsule de Māhia, le lanceur Electron vient donc de réaliser avec succès le troisième lancement. Le prochain devrait avoir lieu en décembre et le dernier, début 2025.

Alexandre Tisserant, Président de Kinéis, a salué cette étape :

“Les équipes Kinéis démontrent une fois de plus leurs capacités techniques
d’opérateur satellitaire avec la prise en charge de ces 5 nouveaux satellites
dans une cadence soutenue de lancements. Cet exploit n’aurait pu avoir lieu
sans la précision d’Electron de Rocket Lab pour placer nos satellites sur leurs
positionnements planifiés. Avec 15 satellites désormais en orbite, nous nous
rapprochons du déploiement complet de notre constellation dédiée à l’IoT
pour transmettre de la data en quasi-temps réel, en n’importe quel point du
globe. Félicitations à toutes nos équipes qui réalisent un travail incroyable,
et rappelons-le, une première européenne !”.

Une constellation dédiée à l’IoT mais également à la surveillance maritime

Initialement dédiée à l’IOT, Kinéis s’adresse depuis peu à un second marché tout aussi stratégique, celui de la surveillance du trafic maritime.

L’AIS satellitaire est un système maritime d’identification automatique des navires qui fonctionne par radiofréquences VHF (très haute fréquence). Il permet aux navires équipés de transpondeurs et aux systèmes de surveillance de connaître l’identité, la position, la direction et le statut des navires en mer.

Les données AIS sont utilisées pour la gestion du trafic maritime, la détection des comportements suspects, l’optimisation logistique, le renforcement de la défense et de la sécurité, la protection environnementale et l’analyse des données. Traditionnellement limitée à une portée de 100 km autour des antennes terrestres, l’AIS voit ainsi son efficacité multipliée grâce aux satellites Kinéis.

Innovation technologique et souveraineté européenne

La technologie S-AIS de Kinéis, une antenne multibrins, constitue une avancée majeure. Par rapport aux satellites mono-brin classiques. L’antenne AIS Kinéis assure une qualité supérieure de réception puisque le signal du navire est reçu par chacun des 6 brins métalliques indépendants de l’antenne.

Celle-ci permet ainsi de capter jusqu’à 80 % des signaux dans des zones densément peuplées de navires. Cette performance, couplée à des algorithmes de détection sophistiqués (intégrant l’effet Doppler), garantit la fiabilité des données, même face aux tentatives de falsification de positionnement ou de « spoofing ».

En s’appuyant sur une technologie 100 % française, Kinéis revendique son rôle d’acteur souverain face à une compétition internationale dominée par des entreprises américaines ou asiatiques. La start-up ambitionne de traiter quotidiennement des millions de messages AIS, offrant une vision détaillée et fiable du trafic maritime mondial.

Alexandre Tisserant conclut :

“Nous sommes également enthousiastes concernant notre seconde mission, l’AIS. Dans un marché en pleine consolidation, Kinéis s’impose comme un acteur européen souverain combinant expertise technologique et indépendance stratégique. Grâce à notre nouvelle offre AIS, les acteurs maritimes bénéficient d’une visibilité renforcée sur leurs flottes et d’une fiabilité accrue des données”.

lancement de nanosatellites

Les Rencontres AGIR font la part belle à l’intelligence artificielle pour penser demain

Le 28 novembre 2024, la Gendarmerie Nationale organise au Beffroi de Montrouge, Paris, une nouvelle édition des Rencontres AGIR (Accompagnement pour la Gendarmerie en Innovation et Recherche), un événement incontournable pour explorer les synergies entre innovation technologique, intelligence artificielle et sécurité publique. Cet événement stratégique, inscrit dans le cadre du plan GEND 20-24, vise à renforcer la collaboration entre les acteurs publics, privés et académiques pour répondre aux défis contemporains et futurs de la sécurité.

Les Rencontres AGIR, initiées par la Gendarmerie nationale, visent à partager les besoins opérationnels pour permettre aux industriels de concevoir des solutions adaptées. Bien plus qu’un simple échange, cet événement a déjà généré plus de 2M€ de marchés avec des entreprises rencontrées lors des éditions précédentes. La 4ᵉ édition a pour objectifs de rassembler la communauté de l’innovation des administrations publiques, des entreprises et du monde de la recherche, tout en accélérant la capacité d’action des acteurs d’État. Un hackathon low tech, coorganisé avec l’Agence Innovation Défense et le programme Centurion, impliquera étudiants et futurs ingénieurs pour imaginer les solutions de demain.

Une mobilisation d’envergure

Cette année, les rencontres se dérouleront ce 28 novembre au Beffroi de Montrouge et bénéficie du soutien de partenaires institutionnels comme le ministère de l’Intérieur, ainsi que d’acteurs privés. « Ces rencontres incarnent la vision d’une gendarmerie tournée vers l’avenir, cherchant à conjuguer innovation et éthique pour relever les défis de demain », souligne le Général d’Armée Christian Rodriguez, directeur général de la Gendarmerie Nationale.

L’événement est aussi l’occasion de favoriser des échanges entre start-ups, grandes entreprises et institutions publiques via des rencontres BtoB. Ces rendez-vous personnalisés permettent de renforcer un réseau d’acteurs engagés dans l’innovation au service de la sécurité.

Les temps forts de cette édition incluent notamment :

  • La remise des Prix Innovation et Prévention, valorisant des projets qui réinventent la prévention et la protection grâce à des technologies de pointe.
  • Des tables rondes et workshops réunissant experts publics, industriels et associatifs pour débattre des enjeux d’innovation, d’industrie et de recherche. Ces échanges croisés, enrichis par la diversité des points de vue, seront interactifs et ouverts aux participants pour co-construire des solutions adaptées aux défis actuels.
  • Le hackathon Low Tech, co-organisé avec l’Agence Innovation Défense (AID) du Ministère des Armées se concentrera sur le développement de technologies ou services innovants, à la fois utiles, accessibles et durables, pour répondre aux besoins spécifiques de la défense et de la sécurité. S’éloignant de l’approche « tout technologique », il ambitionne d’explorer des solutions sobres et résilientes qui répondent à des problématiques opérationnelles ou des irritants identifiés par les administrations présentes. Pendant 24 heures, des étudiant(e)s issus d’écoles d’ingénieurs, de design et d’IUT collaboreront intensivement pour développer une vingtaine de projets concrets, offrant ainsi une plateforme créative pour réinventer l’innovation dans une démarche pragmatique et durable.

L’intelligence artificielle parmi les grandes thématiques des Rencontres AGIR 2024

Cette édition 2024 mettra bien évidemment en avant l’impact de l’IA dans le domaine de la sécurité. Qu’il s’agisse de la détection proactive des menaces, de la gestion des données ou de l’aide à la prise de décision, l’IA redéfinit les pratiques opérationnelles. Les participants aux Rencontres pourront donc assister à des tables rondes réunissant des experts de la Gendarmerie et de l’industrie pour aborder les implications éthiques et opérationnelles de l’IA ainsi qu’à des sessions dédiées aux applications concrètes de l’IA, comme la reconnaissance faciale, la cybersécurité et les outils prédictifs dans la prévention des crimes.

Retrouvez le programme complet des Rencontres Agir sur le site Internet de l’événement.

Rencontres AGIR 2024

IA et développement durable : l’action n’est pas à la hauteur de l’ambition au sein des entreprises, selon IBM

Alors que les entreprises tentent de concilier performance économique et responsabilité environnementale, elles voient en l’IA un allié potentiel. Cependant, IBM a récemment publié le rapport “State of Sustainability Readiness Report 2024″, qui révèle un paradoxe dans les stratégies des entreprises : malgré une intention claire de renforcer les investissements dans l’IA et les technologies de l’information pour des pratiques durables, les actions concrètes tardent à suivre.

Le rapport State of Sustainability Readiness 2024 a été réalisé de manière indépendante par Morning Consult, sponsorisé, analysé et publié par IBM. Des entretiens ont été menés entre avril et mai 2024 auprès de 2 790 dirigeants et décideurs dans 15 secteurs d’activité et 9 pays. Le rapport comprend également des études de cas qui mettent en évidence l’intersection du développement durable et de la technologie.

Des intentions fortes, des actions limitées

Plus de la moitié des personnes interrogées considèrent l’investissement dans la technologie pour le développement durable comme une opportunité de croissance, et non seulement comme un moyen de réduire les coûts.

Le rapport indique que 88 % des dirigeants envisagent d’augmenter leurs investissements dans les technologies de l’information en faveur du développement durable d’ici l’année prochaine. Pourtant, un décalage important persiste entre l’ambition et la mise en œuvre. Si 90 % des dirigeants reconnaissent le potentiel de l’IA pour atteindre les objectifs de durabilité, plus de la moitié des entreprises (56 %) ne l’utilisent toujours pas activement dans ce domaine. Un retard dû principalement aux contraintes budgétaires.

Les résultats montrent que seulement 48 % des entreprises financent leurs investissements dans le développement durable via des budgets de fonctionnement réguliers. Ce pourcentage souligne que, dans de nombreux cas, l’engagement envers la durabilité reste sporadique et dépend de projets ponctuels, plutôt que d’une stratégie continue et intégrée.

La pénurie de talents et l’impact environnemental de l’IA : deux défis majeurs

Malgré son potentiel en matière de développement durable, l’IA pose elle aussi un défi environnemental. L’entraînement et l’utilisation de modèles d’IA consomment d’importantes quantités d’énergie, ce qui pousse les entreprises à envisager des solutions pour limiter leur impact, telles que l’optimisation des centres de données, l’investissement dans des processeurs à haut rendement énergétique et la collaboration open source. Ces stratégies peuvent non seulement diminuer l’empreinte écologique de l’IA, mais aussi améliorer leur efficacité opérationnelle et leur rentabilité.

Cependant, les organisations font face à un autre enjeu : trouver les talents adéquats en IA. Selon le rapport, dans le contexte actuel de pénurie de compétences, retenir les travailleurs expérimentés est l’un des trois principaux défis pour les dirigeants en matière de développement durable.

Un écart de perception entre les dirigeants et leurs équipes

Le rapport souligne également un décalage de perception entre les cadres supérieurs et leurs collaborateurs quant aux attentes en matière de développement durable. Tandis que 67 % des cadres supérieurs estiment que leur organisation est proactive en matière de résilience climatique, seulement 56 % des décideurs de niveau inférieur partagent cette vision.

Cette disparité concerne des sujets clés tels que les risques financiers liés au changement climatique, les risques liés aux infrastructures physiques vulnérables aux phénomènes climatiques, les risques liés à la chaîne d’approvisionnement et aux dépendances critiques.

De la difficulté à mesurer le développement durable

Un autre défi majeur identifié est la difficulté à mesurer les progrès en matière de durabilité. Bien que les entreprises surveillent des indicateurs comme la consommation d’énergie renouvelable, la consommation totale d’énergie et le recyclage, il leur est difficile de collecter et de structurer les données nécessaires pour des rapports précis et cohérents. Le rapport souligne que 50 % des dirigeants estiment que leurs données pour les indicateurs clés de performance (KPI) de durabilité ne sont pas suffisamment matures, ce qui rend le reporting et la prise de décision plus complexes.

Les recommandations d’IBM pour relever les défis du développement durable

IBM propose plusieurs pistes pour aider les entreprises à combler l’écart entre ambition et action. Parmi celles-ci, l’utilisation d’outils d’IA pour identifier les opportunités de réduction de carbone et une meilleure collecte des données pour réduire l’écart de perception en interne.

etude-ibm-action-ia-entreprise-developpement-durable

Données synthétiques et optimisation des modèles d’IA : Teledyne FLIR annonce le lancement de Prism AIMMGen

Teledyne FLIR, filiale de Teledyne Technologies Incorporated, acteur majeur du développement de solutions d’imagerie infrarouge, de systèmes intelligents et de détection, annonce l’ajout d’une nouvelle solution à sa famille de logiciels Teledyne FLIR Prism : Prism AIMMGen.

Prism AIMMGen est un service de génération de modèles d’IA exempt d’ITAR (International Traffic in Arms Regulations) qui permet la création automatisée de modèles d’IA et d’apprentissage automatique à l’aide de données générées synthétiquement. Il permet ainsi aux intégrateurs de systèmes qui développent des produits d’IA/ML pour des applications commerciales, de première intervention ou de défense de réaliser d’importantes économies en termes de coûts et de délais.

Une réponse aux défis de la collecte de données réelles

Le développement de modèles IA/ML nécessite traditionnellement une collecte et un étiquetage manuels des données, des tâches chronophages et coûteuses, particulièrement dans des contextes où les objets à détecter sont rares ou difficiles à capturer dans des scénarios réels, comme les cibles militaires. Prism AIMMGen surmonte ces obstacles en générant des millions d’exemples d’objets synthétiques, prêts pour le ML, dans des conditions variées et sur différents spectres, notamment la lumière visible et l’infrarouge. Ce processus réduit de façon drastique les délais et les coûts d’ingénierie, permettant de produire des modèles de haute qualité en quelques jours  plutôt qu’en plusieurs semaines. Son infrastructure interne de MLOps garantit que les données sont sécurisées et que les modèles peuvent être développés, déployés et maintenus efficacement.

Dan Walker, Vice-président de Teledyne FLIR, explique :

“Avec le rythme et la sophistication que connaît le développement de systèmes, il est essentiel d’exploiter des données synthétiques intelligentes pour former les modèles d’IA les meilleurs de leur catégorie. AIMMGen accélère la mise sur le marché des développeurs tout en garantissant à leurs produits d’IA respectifs d’être prêts à faire face à tous les scénarios possibles dans pratiquement toutes les conditions environnementales”.

Caractéristiques clés de Prism AIMMGen

  • Génération illimitée d’images synthétiques : Un accès à un vaste lac de données non soumis aux restrictions ITAR, applicable à de multiples cas d’utilisation en détection d’objets.
  • Ensembles de données spécifiques : Capacité à produire des millions d’images synthétiques annotées automatiquement, adaptées aux besoins spécifiques d’applications diverses, avec un outil interactif de recherche pour un apprentissage optimisé.
  • Optimisation automatisée des modèles : Génération rapide de modèles IA performants avec une infrastructure MLOps sécurisée, permettant de répondre aux besoins des développeurs dans des délais très courts.

Donnees-synthetiques-optimisation-des-modeles-IA

OpenAI dévoile SWARM, un framework d’orchestration multi-agents open source

OpenAI a récemment dévoilé Swarm, un framework expérimental open source conçu pour orchestrer des systèmes multi-agents. Il fournit aux développeurs un schéma pour créer des réseaux d’agents d’IA interconnectés qui peuvent communiquer et collaborer afin de gérer des tâches complexes de manière autonome.

Swarm est une illustration de la façon dont les concepts de “routines”, des séquences d’actions prédéfinies que les agents suivent pour accomplir des tâches spécifiques, et de  transferts, qui permettent à un agent de déléguer une tâche à un autre agent, peuvent être utilisés pour orchestrer plusieurs agents de manière simple et contrôlable.

Le framework repose sur l’idée que plusieurs agents, chacun avec des capacités uniques, peuvent améliorer la qualité et la rapidité des réponses ou actions dans un environnement dynamique. Par exemple, un agent peut se spécialiser dans la compréhension des instructions, tandis qu’un autre pourrait exceller dans l’analyse des données…

Swarm est construit autour de deux abstractions primitives :

  • Agents autonomes : Chaque agent est un module indépendant capable d’exécuter des tâches spécifiques, avec des instructions et des fonctions définies. Un agent peut soit gérer une tâche donnée, soit déléguer ou transférer la responsabilité à un autre agent plus qualifié ;
  • Transferts dynamiques : Ce concept est central dans Swarm. Lorsqu’un agent atteint ses limites, il peut transférer la conversation ou la tâche à un autre agent. Cela permet de maintenir la fluidité des opérations, sans qu’un agent soit surchargé ou dépassé par des requêtes trop complexes.

Les agents dans Swarm peuvent accéder à un contexte partagé, leur permettant de se tenir informés des actions précédentes ou des données disponibles et ainsi collaborer plus efficacement en ayant une vue d’ensemble des opérations en cours.

Exemples d’utilisation

Swarm propose déjà plusieurs exemples pratiques dans sa documentation, comme un scénario de service client, où un premier agent gère la question initiale d’un utilisateur et, si la requête devient plus technique, transfère la conversation à un autre agent spécialisé  dans la vente ou le remboursement.

OpenAI le présente comme une ressource éducative pour les développeurs curieux d’en savoir plus sur l’orchestration multi-agents. Contrairement à l’API Assistants d’OpenAI,  davantage conçue pour des flux de travail entièrement hébergés, Swarm s’exécute principalement sur le client, réduisant ainsi les besoins en infrastructure côté serveur et donnant aux développeurs le contrôle et la visibilité sur les interactions des agents. Son interface est similaire à celle de l’API de complétion de chat d’OpenAI, chaque interaction est exécutée individuellement, sans conserver un historique persistant.

OpenAI l’a rendu public sous la licence MIT, qui offre une grande flexibilité aux développeurs tout en offrant une protection minimale à ses concepteurs, rappelant que :

“Swarm est actuellement un framework d’échantillonnage expérimental destiné à explorer les interfaces ergonomiques pour les systèmes multi-agents. Il n’est pas destiné à être utilisé en production et ne bénéficie donc d’aucun soutien officiel. (Cela signifie également que nous n’examinerons pas les RP ou les problèmes !)

L’objectif principal de Swarm est de présenter les modèles de transfert et de routines explorés dans le livre de recettes Agents d’orchestration : transferts et routines. Il ne s’agit pas d’une bibliothèque autonome, mais principalement à des fins éducatives”.

Perspectives futures

Des développeurs utilisent déjà le framework dans le cadre de leur projet “Hierarchical Autonomous Agent Swarms (HAAS) visant à créer un écosystème d’agents d’IA autonomes et éthiquement gouvernés.

Alors que les applications commerciales potentielles de Swarm sont nombreuses (support client, analyses de marché, stratégies marketing…), le niveau d’automatisation introduit par les systèmes multi-agents soulèvent des préoccupations quant à leur impact sur l’emploi et le rôle de l’humain dans la prise de décision.

Swarm

Advancing AI 2024 : un évènement AMD dédié à l’IA générative et au HPC

Lors de l’événement Advancing AI 2024, le 10 octobre dernier, Lisa SU a dévoilé les dernières solutions d’AMD conçues pour répondre aux besoins de l’IA à grande échelle dans les entreprises, les centres de données et le cloud. Parmi ces innovations, la 5ème génération de processeurs AMD EPYC, les accélérateurs AMD Instinct MI325X, les processeurs AMD Ryzen AI PRO série 300, ainsi que des solutions réseau de nouvelle génération. 

AMD étend les performances de ses accélérateurs

En juin 2023, Lisa Su, PDG d’AMD, dévoilait le GPU Instinct MI300X, conçu pour l’IA générative et le HPC. Selon elle, les AMD Instinct MI325X établissent une nouvelle norme en matière de performances et d’efficacité pour l’entraînement et l’inférence des modèles d’IA générative et les centres de données Gen AI.

Le MI325X utilise la même architecture CDNA 3 que son prédécesseur. Pour la mémoire, AMD opte, comme NVIDIA avant lui avec le H200, pour la HBM3e, une mémoire 50 % plus rapide que la HBM3. Sa capacité étendue à 256 Go de HBM3e supporte un débit de 6,0 To/s, ce qui représente, selon AMD, 1,8 fois plus de capacité et 1,3 fois plus de bande passante que le H200. L’AMD Instinct MI325X offrirait également des performances théoriques en calcul FP16 et FP8 supérieures de 1,3 fois à celles de son concurrent.

Cette mémoire et ce calcul de pointe peuvent fournir, selon la société, jusqu’à 1,3 fois les performances d’inférence sur Mistral 7B à FP16, 1,2 fois les performances d’inférence sur Llama 3.1 70B à FP8, et 1,4 fois les performances d’inférence sur Mixtral 8x7B à FP16, du H200.

Les accélérateurs AMD Instinct MI325X devraient être mis en production ce trimestre et disponibles sur “le système d’un large éventail de fournisseurs de plateformes, notamment Dell Technologies, Eviden, Gigabyte, Hewlett Packard Enterprise, Lenovo, Supermicro et d’autres à partir du 1er trimestre 2025”.

AMD a d’autre part dévoilé en avant-première de nouveaux détails sur la prochaine génération d’accélérateurs AMD Instinct série MI350, qui devraient être disponibles au second trimestre 2025. Basés sur l’architecture AMD CDNA 4 et équipés de jusqu’à 288 Go de mémoire HBM3E, ces accélérateurs offriront une amélioration des performances d’inférence jusqu’à 35 fois supérieure par rapport à leurs prédécesseurs basés sur l’architecture AMD CDNA 3.

AMD a également déclaré avoir fait des progrès significatifs dans le développement des accélérateurs AMD Instinct MI400 Series basés sur l’architecture AMD CDNA Next, dont la disponibilité est prévue en 2026.

Les processeurs EPYC Série 9005

Conçue pour répondre aux exigences croissantes de l’IA et des charges de travail critiques de l’entreprise, la gamme AMD EPYC série 9005 utilise une conception hybride à puces multiples et des cœurs ‘Zen 5’ et ‘Zen 5c’. Elle comprend 29 processeurs différents, variant en termes de nombre de cœurs, de fréquences, de cache et de consommation électrique.

Ils intègrent des fonctionnalités avancées comme la prise en charge de la mémoire DDR5, des canaux PCIe Gen 5, ainsi que des optimisations pour les charges de travail liées à l’IA et au machine learning. Ils offrent également une haute densité de cœurs (jusqu’à 192 cœurs) et une efficacité énergétique améliorée, ce qui les rend idéaux pour les environnements virtualisés et les applications en cloud.

Selon AMD, il est possible de remplacer 100 anciens serveurs à deux sockets équipés de processeurs Intel Xeon 8280 de 28 cœurs par environ 14 nouveaux serveurs à deux sockets équipés de processeurs AMD EPYC 9965 qui comptent 192 cœurs.

La société affirme :

« Avec des chemins de données de 512 bits dans le cœur, des optimisations du pipeline d’instructions et des unités supplémentaires pour les opérations entières et en virgule flottante, le processeur peut exécuter une large gamme de charges de travail IA sur une infrastructure uniquement basée sur CPU, sans nécessiter d’accélération GPU ».

Processeurs AMD Ryzen AI PRO pour les PC d’entreprise

AMD a également présenté les processeurs Ryzen AI PRO série 300, destinés aux PC d’entreprise, intégrant les architectures Zen 5 et  AMD XDNA 2, qui équipent les premiers ordinateurs portables Microsoft Copilot+.

Solutions réseau de nouvelle génération

L’entreprise a également élargi son portefeuille de réseaux haute performance pour répondre à l’évolution des exigences de mise en réseau système pour l’infrastructure d’IA avec le réseau frontal AMD Pensando Salina DPU. L’AMD Pensando Pollara 400, première carte réseau compatible avec l’Ultra Ethernet Consortium, conçue pour optimiser le transfert de données au sein des réseaux d’IA back-end pour la communication GPU à GPU, réduit la complexité du réglage des performances et contribue à améliorer le délai de production.

Optimisation des modèles d’IA avec ROCm

AMD continue également d’améliorer sa pile logicielle ROCm : ROCm 6.2 prend désormais en charge des fonctionnalités d’IA critiques telles que le type de données FP8, Flash Attention 3, Kernel Fusion, doublant les performances d’inférence et d’entraînement des LLM sur les accélérateurs AMD Instinct. Aujourd’hui, plus d’un million de modèles IA fonctionnent sur l’architecture AMD, avec une compatibilité sans faille pour les modèles les plus populaires, dont ChatGPT d’OpenAI et Llama de Meta ou les modèles open source de la plateforme Hugging Face.

Lors de l’événement, AMD s’est entouré de partenaires technologiques de premier plan tels que Dell, Google Cloud, HPE, Lenovo, Meta, Microsoft, Oracle Cloud Infrastructure, ainsi que des leaders de l’IA comme Databricks, OpenAI, Cohere, Essential AI, Fireworks AI, Luma AI, et Reka AI pour présenter ses solutions .

Google Cloud et Oracle Cloud Infrastructure ont quant à eux détaillé comment ils exploitent les processeurs EPYC et les accélérateurs Instinct pour développer des capacités de calcul intensif et d’IA générative, tandis que Microsoft a souligné sa collaboration avec AMD pour améliorer les performances de ses infrastructures Azure et GPT grâce aux futurs accélérateurs Instinct MI350.

Lisa Su, PDG d’AMD, affirme :

« Le centre de données et l’IA représentent des opportunités de croissance importantes pour AMD, et nous construisons une forte dynamique pour nos processeurs EPYC et AMD Instinct auprès d’un nombre croissant de clients.

Avec nos nouveaux processeurs EPYC, nos GPU AMD Instinct et nos DPU Pensendo, nous fournissons un calcul de pointe pour alimenter les charges de travail les plus importantes et les plus exigeantes de nos clients. À l’avenir, nous prévoyons que le marché des accélérateurs d’IA pour centres de données atteindra 500 milliards de dollars d’ici 2028. Nous nous engageons à fournir une innovation ouverte à grande échelle grâce à nos solutions étendues de silicium, de logiciels, de réseau et de cluster ».

AMD-Advancing-AI-2024-Event

IA Eco-Pilot, lauréat de l’AAP «Démonstrateurs d’IA frugale dans les territoires pour la transition écologique»

La création de démonstrateurs faisant usage d’une IA frugale dans des secteurs-clés pour atteindre les objectifs climatiques, tels que les villes durables, les bâtiments intelligents, la mobilité et l’agriculture de précision, est au cœur de la seconde phase de la Stratégie nationale en intelligence artificielle (SNIA) à l’horizon 2025. Le projet IA Eco-Pilot porté par Advizeo, expert en Energy Management, la Métropole du Grand Paris et Tilt, société spécialisée dans la gestion de la flexibilité énergétique, figure parmi les lauréats de la deuxième vague de l’AAP DIAT consacré à ces démonstrateurs.

Piloté par le Secrétariat général pour l’investissement et opéré par la Banque des Territoires, l’AAP DIAT a la particularité de réunir deux stratégies d’accélération : “Ville durable et bâtiments innovants” et “IA”. Son objectif est de soutenir des projets structurants qui démontrent l’efficacité de technologies basées sur l’IA et la science des données, faisant usage d’une IA frugale en énergie et/ou en données, en les validant dans des environnements réels.

IA Eco-Pilot : assister les gestionnaires d’espaces tertiaires

L’AAP DIAT s’adresse aux collectivités territoriales ou à leur regroupement (syndicat, GIP) et aux établissements publics locaux. Ceux-ci avaient la possibilité de former un consortium avec des acteurs publics ou privés, chargés de la conception, de la réalisation, et de la gestion de tout ou partie des composantes du projet.

La Métropole du Grand Paris s’est donc associée à Advizeo et Tilt pour le projet IA Eco-Pilot  dont l’objectif est d’automatiser la gestion et le suivi énergétique des bâtiments à distance. Il permettra ainsi aux collectivités de la Métropole de réduire substantiellement la consommation énergétique des bâtiments, notamment en intégrant des mécanismes de flexibilité électrique.

Le projet sera divisé en deux briques d’IA, l’une conçue pour aider les gestionnaires d’énergie à surveiller et optimiser la consommation énergétique des bâtiments, la seconde pour permettre aux bâtiments de s’autoréguler.

La première s’appliquera à un parc de plus de 7000 bâtiments répartis sur 54 collectivités. L’IA va préconiser des réglages sur les équipements et des actions de rénovation énergétique, adaptés à la typologie des bâtiments et à leur usage, facilitant ainsi la prise de décision des gestionnaires d’énergie ainsi que l’atteinte des objectifs du Dispositif Éco-Énergie Tertiaire (DEET) qui impose une réduction progressive de la consommation d’énergie dans les bâtiments à usage tertiaire afin de lutter contre le changement climatique.

La seconde brique d’IA du projet sera expérimentée sur un groupe plus restreint de douze bâtiments répartis dans six collectivités pilotes. Cette phase se concentrera sur l’autorégulation des équipements CVC (chauffage, ventilation, climatisation), à l’aide d’un contrôle prédictif prenant en compte des variables telles que la météo, l’usage et les caractéristiques des bâtiments. L’intégration de la flexibilité électrique permettra d’ajuster les usages énergétiques en fonction de la demande sur le réseau, offrant ainsi une gestion plus souple et optimisée.

Un projet central pour la transition écologique

Les collectivités territoriales jouent un rôle clé dans la transition énergétique et écologique, car elles sont directement responsables d’environ 15 % des émissions de gaz à effet de serre à travers leurs infrastructures et leurs services (bâtiments publics, gestion des déchets, transports, etc.). En utilisant des solutions telles qu’IA Eco-Pilot, elles pourront non seulement mieux respecter les nouvelles réglementations, mais aussi contribuer activement à la réduction des émissions de CO2 à l’échelle nationale.

Si les tests sont concluants, ce démonstrateur pourrait être déployé à plus grande échelle dans les années à venir, ouvrant la voie à une gestion énergétique optimisée dans les territoires, en ligne avec les objectifs de France 2030.

IA Eco-Pilot, lauréat de l’AAP "Démonstrateurs d’IA frugale dans les territoires pour la transition écologique" »

AlphaChip : comment l’IA de Deepmind redéfinit les normes de la conception des puces

L’évolution rapide de l’IA a ouvert la voie à des avancées impressionnantes dans le domaine de la conception des puces électroniques, l’approche développée par Google DeepMind en est un exemple concret. Lancée en 2020, désormais baptisée AlphaChip, elle utilise l’apprentissage par renforcement pour optimiser la disposition des composants des puces, réduisant le temps de conception de quelques mois à seulement quelques heures. DeepMind a partagé la semaine dernière sur son blog des détails supplémentaires sur ce framework open source.

AlphaChip aborde la conception des puces comme un jeu. À partir d’une grille vide, l’IA place les composants des circuits un par un, tout en respectant les contraintes de conception complexes telles que les connexions entre les composants et l’optimisation de l’espace. À chaque disposition générée, le modèle apprend et s’améliore, ce qui permet de produire des puces de plus en plus performantes. L’utilisation d’un réseau neuronal spécialisé, un graphe basé sur les bords, aide AlphaChip à comprendre les relations entre les différents blocs de puces, améliorant ainsi la qualité et la rapidité des conceptions.

Selon Deepmind, “ses dispositions sont utilisées dans les puces du monde entier, des centres de données aux téléphones mobiles”.

Depuis sa publication en 2020, il a été utilisé pour concevoir plusieurs générations des unités de traitement tensoriel (TPU), introduites en 2016 par Google Cloud pour accélérer les tâches d’IA, qui font fonctionner aujourd’hui les LLM de Google comme Gemini.

AlphaChip a non seulement optimisé la disposition des composants des TPU, rendant chaque génération plus performante que la précédente, mais a également fourni à chacune d’elle, une plus grande partie de l’ensemble de l’étage, accélérant le cycle de conception.

Crédit image : Google. Graphique à barres montrant le nombre de blocs de puces conçus par AlphaChip sur trois générations d’unités de traitement tensoriel (TPU) de Google : v5e, v5p et Trillium.

Des entreprises comme MediaTek utilisent également AlphaChip pour concevoir des puces comme la série Dimensity 5G, utilisée dans les smartphones de pointe, ce qui lui a permis d’améliorer à la fois les performances et l’efficacité énergétique de ses puces.

Vers un futur plus efficace et durable

Aujourd’hui, AlphaChip optimise non seulement la disposition des puces, mais aussi d’autres étapes du cycle de conception, comme la synthèse logique et l’optimisation des timings. Il pourrait dans le futur transformer radicalement la conception des puces pour des appareils aussi variés que les smartphones, les capteurs agricoles ou encore les équipements médicaux, en améliorant chaque étape du cycle.

DeepMind conclut :

“Les futures versions d’AlphaChip sont en cours de développement et nous sommes impatients de travailler avec la communauté pour continuer à révolutionner ce domaine et créer un avenir dans lequel les puces sont encore plus rapides, moins chères et plus économes en énergie”.

AlphaChip : comment l'IA de Deepmind redéfinit les normes de la conception des puces

L’AP-HP et Owkin prolongent leur collaboration afin d’accélérer l’innovation en IA médicale

L’Assistance Publique-Hôpitaux de Paris (AP-HP), premier centre hospitalier universitaire d’Europe, et Owkin, licorne franco-américaine spécialisée en biotechnologie, annoncent une reconduction pour 5 ans de leur partenariat. Ce renouvellement stratégique vise à renforcer l’utilisation de l’IA et des données de santé pour la découverte de nouvelles thérapies, en particulier dans les domaines de l’oncologie, de l’immunologie et de la cardiologie, ainsi qu’à améliorer la prise en charge des patients.

Cofondée en 2016 par Thomas Clozel, chercheur clinicien et ancien professeur adjoint en hématologie clinique, et Gilles Wainrib, docteur en IA appliquée à la biologie, Owkin s’est donnée pour mission d’utiliser l’IA afin de découvrir et de développer de meilleurs traitements pour les besoins médicaux non satisfaits, à commencer par la lutte contre le cancer.

Spécialisée dans l’IA et dans l’apprentissage fédéré appliqué à la recherche médicale, elle collabore avec de nombreux centres hospitaliers, dont l’AP-HP.

Un partenariat fructueux

Depuis le début de leur collaboration en 2019, l’AP-HP et Owkin ont réalisé des avancées majeures dans la recherche médicale, avec plus de vingt projets de recherche, dont plusieurs ont conduit à des publications scientifiques.

L’hôpital Bicêtre de l’AP-HP, pilote en pathologie numérique, a fait figure de pionnier en testant Dx RlapsRisk BC, une solution d’Owkin, développée en collaboration avec l’Institut Gustave Roussy, qui a reçu en 2022 la certification CE-IVD (CE Marking for In Vitro Diagnostic).

RlapsRisk BC est une solution de pronostic basée sur l’IA conçue pour prédire la probabilité pour une personne atteinte d’un cancer du sein précoce de rechuter après le traitement, permettant ainsi aux oncologues de déterminer quelles patientes à haut risque peuvent bénéficier de thérapies ciblées et quelles patientes à faible risque peuvent potentiellement éviter la chimiothérapie. Le projet pilote, mené par la Pr Catherine Guettier, a permis de fournir des retours d’expérience à Owkin pour le développement de sa solution.

Dans le cadre de leur premier partenariat, AP-HP et Owkin ont également développé PACpAInt, un modèle de deep learning permettant de prédire les sous-types génomiques de l’adénocarcinome pancréatique, la tumeur la plus fréquente chez les patients atteints du cancer du pancréas, un cancer dont le taux de survie est l’un des plus faibles, mais évolue positivement ces dernières années grâce à la recherche médicale, un dépistage précoce et des thérapies ciblées.

Cet outil, qui a été développé en utilisant les ressources histologiques et moléculaires uniques de quatre hôpitaux du réseau AP-HP (Amboise Paré, Beaujon, Pitié Salpétrière, Saint Antoine), a fait l’objet d’une publication dans Nature Communications, en juin 2023.

L’AP-HP collabore également avec Owkin et Sorbonne Université dans le cadre du projet RHU AI-Triomph pour optimiser les essais cliniques en oncologie grâce à l’IA et une approche multimodale. Ce projet, dirigé par la Pr Magali Svrcek et le Pr Jean-Baptiste Bachet, se concentre sur les adénocarcinomes canalaires du pancréas et de l’œsophage, ainsi que sur les cancers de la thyroïde réfractaires à l’iode radioactif. L’objectif est de développer un système d’IA pour améliorer les traitements personnalisés, optimiser les essais cliniques et créer un “cancer intelligence hub” associé à l’AP-HP.

Le renouvellement de ce partenariat permettra d’étendre l’utilisation de l’IA à d’autres domaines médicaux, tout en continuant de s’appuyer sur l’entrepôt de données de santé (EDS) de l’AP-HP, qui rassemble les informations de 14 millions de patients. Ces données précieuses, combinées aux capacités d’IA avancées d’Owkin, ouvrent la voie à des innovations de rupture dans la recherche et le développement de nouvelles thérapies.

Nicolas Revel, directeur général de l’AP-HP, commente :

“Le renouvellement du partenariat entre Owkin et l’AP-HP est la reconnaissance partagée du succès du partenariat conclu il y a cinq ans. Il permet aux équipes hospitalières de mener des projets collaboratifs d’excellence dans le domaine de l’IA, en s’appuyant notamment sur l’exploitation de l’entrepôt de données de santé de l’AP-HP. La poursuite de cette collaboration vise à approfondir les avancées technologiques, à étendre les domaines d’application clinique et à augmenter le nombre de projets portés conjointement. La collaboration entre l’AP-HP et Owkin s’inscrit, à ce titre, en cohérence avec la politique de recherche partenariale de l’AP-HP, labellisée Institut Carnot”.

Thomas Clozel, PDG d’Owkin, ajoute :

“Le renouvellement de cette collaboration marque une étape clé dans l’évolution de nos solutions d’IA et témoigne de la confiance que l’AP-HP, institution de référence, accorde à nos innovations. Grâce à l’IA et au potentiel d’innovation de l’AP-HP, nous entendons accroître nos partenariats industriels et développer de nouvelles thérapies et de nouveaux outils diagnostics au service des patients. En partenariat avec l’AP-HP, nous intégrons l’expertise des cliniciens et chercheurs à chaque phase du développement de nos technologies, toujours au service des patients. Cette synergie renforce notre engagement à concevoir des solutions robustes et performantes, enrichies par l’apport inestimable de l’AP-HP, comme les données multimodales des patients”. 

L’AP-HP et Owkin prolongent leur collaboration afin d'accélérer l’innovation en IA médicale

Dassault Systèmes parmi les premiers signataires du Pacte de l’UE sur l’IA

L’éditeur de logiciels Dassault Systems annonce avoir signé le Pacte sur l’IA, une initiative de la Commission européenne visant à encourager les entreprises à utiliser l’IA de manière éthique et responsable. Il rejoint ainsi la centaine d’entreprises qui se sont engagées volontairement à commencer à appliquer les principes de l’AI Act qui est entré en vigueur le 1 août dernier, mais ne sera pas pleinement applicable avant deux ans.

Plus de cent multinationales et PME européennes de divers secteurs, dont l’informatique, les télécommunications, les soins de santé, les banques, l’automobile et l’aéronautique, ont d’ores et déjà signé ce pacte. Parmi les signataires figurent Amazon, IBM, Google, Microsoft, Open AI.

Le pacte sur l’IA n’est pas contraignant, elles se sont engagées volontairement à adopter une stratégie de gouvernance portant sur l’utilisation de l’IA au sein de leur organisation, à créer un registre des systèmes d’IA dignes de confiance qu’elles déploient dans les secteurs à haut risque, et à former leurs employés à l’utilisation responsable de cette technologie.

Plus de la moitié des signataires ont pris des engagements supplémentaires, incluant des mesures telles que la surveillance humaine des systèmes d’IA, la réduction des risques, ainsi que l’étiquetage clair et transparent de certains types de contenus générés par l’IA, comme les vidéos truquées ultra-réalistes.

En signant ce pacte, Dassault Systèmes démontre son engagement à jouer un rôle proactif dans la manière dont l’IA est utilisée pour stimuler l’innovation dans l’industrie au bénéfice des citoyens, des patients et des consommateurs.

Pascal Daloz, son directeur général, affirme :

“Depuis 40 ans, nous travaillons avec nos clients pour créer une représentation scientifique du monde qui combine intelligence artificielle, modélisation et simulation dans le cadre d’expériences de jumeaux virtuels. Cette collaboration a permis des avancées majeures dans le domaine de l’innovation industrielle durable tout en protégeant l’atout concurrentiel le plus puissant dont disposent nos clients : la propriété intellectuelle.”

Ajoutant :

“En rejoignant le Pacte sur l’IA, nous nous engageons à jouer un rôle de catalyseur dans l’utilisation responsable de l’intelligence artificielle dans l’optique d’ouvrir des opportunités d’innovation dans l’économie générative. En tant que partenaire de confiance d’entreprises qui affichent un niveau d’engagement tout aussi élevé, nous serons le fer de lance d’un effort collectif visant à garantir que l’utilisation de l’IA en Europe profitera aux citoyens, aux patients et aux consommateurs.”

Dassault Systèmes parmi les premiers signataires du Pacte de l'UE sur l'IA

Optimisation des investissements en IA : les 4 archétypes de Sopra Steria pour transformer l’IA en levier de performance

Alors que l’IA redéfinit les paradigmes d’entreprise, Sopra Steria Next, le cabinet de conseil du groupe Sopra Steria, présente une nouvelle étude qui restructure les approches du marché de l’IA. Anticipant un doublement de la taille du marché mondial d’ici 2028, cette étude propose une méthode innovante basée sur l’usage, plutôt que sur la technologie seule, pour aider les dirigeants à mieux piloter leur stratégie opérationnelle et leurs investissements.

Redéfinition de l’analyse du marché IA

Traditionnellement, l’analyse du marché de l’IA s’est concentrée sur les aspects technologiques. Cependant, Sopra Steria Next, ayant constaté que cette approche n’était pas toujours pertinente pour la prise de décision des dirigeants d’entreprise, leur propose une grille d’analyse innovante, catégorisant l’IA en 4 grands types d’application concrète, ou “archétypes” : AI for Machine, AI for Process, AI for Human et AI for Software.

Fabrice Asvazadourian, PDG de Sopra Steria Next, explique :

“Autrefois considérée comme un sujet technique, délégué à des data scientists, avec l’avènement de l’IA générative, l’IA a fait son entrée fracassante dans les Comités Exécutifs et les Conseils d’Administration”.

Ajoutant :

“Nos quatre archétypes offrent aux dirigeants une boussole stratégique dans l’univers complexe et multiple de l’IA. Cette structuration du marché permet à nos clients d’optimiser leurs investissements, et de s’assurer qu’ils n’ont pas d’angle mort dans leur exploration des différentes potentialités de l’IA. Nous transformons ainsi l’IA d’une préoccupation technologique en un véritable levier de performance business”. 

Un marché en pleine expansion

L’étude menée par Sopra Steria Next révèle que le marché mondial de l’IA, estimé à 540 milliards de dollars en 2023 (soit 6% du marché mondial de l’informatique), devrait atteindre 1 270 milliards de dollars d’ici 2028, représentant alors 10% du marché mondial de l’IT. Cette croissance spectaculaire de 19 % par an sur les 5 prochaines années, 3 fois supérieur à celle de l’ensemble du marché de l’IT., sera portée par des avancées technologiques majeures dans chacun des 4 archétypes d’IA.

AI for Machine désigne l’application de l’IA dans les systèmes industriels et les infrastructures, notamment grâce aux jumeaux numériques et au métavers industriel. Cette branche devrait croître de 13 % par an pour atteindre 330 milliards de dollars d’ici 2028.

AI for Process se concentre sur l’automatisation des processus dans des secteurs comme la finance et les services publics. Grâce à l’intégration de technologies d’automatisation intelligente, ce segment devrait générer 390 milliards de dollars, représentant 31 % du marché global de l’IA.

AI for Human, qui regroupe des outils d’aide à la décision et des assistants virtuels, bénéficiera de l’avancée de l’IA générative et prédictive. Ce segment devrait passer de 130 milliards à 380 milliards de dollars en cinq ans, soit une croissance explosive.

Enfin, AI for Software concerne les outils facilitant le développement informatique, avec l’émergence des technologies low-code/no-code. Ce domaine devrait croître de 25 % par an pour atteindre 170 milliards de dollars.

Un outil de pilotage stratégique

L’étude met en lumière des stratégies d’investissement différenciées selon les secteurs, couvrant un large éventail d’industries, allant des services financiers à la santé, en passant par les administrations publiques, la défense et la sécurité, l’aéronautique et l’espace, l’industrie manufacturière, l’énergie, les transports et la logistique, le commerce de détail, ainsi que les télécoms et médias. Elle identifie pour chaque secteur la dizaine de cas d’usage IA prioritaires à mettre en œuvre dès aujourd’hui.

Fabrice Asvazadourian met en avant l’importance de cette approche sectorielle pour les entreprises :

“En combinant ces quatre archétypes, nous offrons à nos clients une vision à 360 degrés qui permet d’aligner les investissements IA sur les priorités business, d’identifier les cas d’usage matures pour être déployés et ceux encore en phase d’exploration, et d’accélérer le déploiement de l’IA à grande échelle.” .

Sopra Steria Next recommande par exemple aux décideurs des services financiers de répartir leurs investissements en IA de manière équilibrée entre 3 des 4 archétypes, (Process, Human et Software) et à l’industrie manufacturière, l’énergie et la défense de focaliser l’essentiel de leurs investissements sur l’IA industrielle. Pour l’industrie pharmaceutique et le monde de la santé, le cabinet recommande un profil équilibré d’investissements entre IA industrielle et IA au service des humains.

Les quatre défis du déploiement de l’IA

Si les perspectives de croissance sont enthousiasmantes, l’industrialisation de l’IA reste un défi de taille pour les entreprises.

Selon Fabrice Asvazadourian:

“Aujourd’hui, seulement 1 algorithme sur 7 atteint la phase de production. Au-delà de se focaliser sur le développement des algorithmes IA pour adresser les cas d’usage prioritaires, le vrai enjeu est d’en réussir l’industrialisation”.

Pour industrialiser correctement l’IA au sein de leur organisation, Sopra Steria Next recommande aux entreprises de relever simultanément quatre défis :

  • Concentrer 80% des efforts sur les cas d’usage déjà à maturité dans leur industrie, en évitant les angles morts et en exploitant la complémentarité entre IA Prédictive et IA Générative ;
  • Moderniser les plateformes technologiques Data/IA pour gérer en masse des données non structurées, voire synthétiques, et s’équiper des solutions IA pertinentes ;
  • Intégrer de nouveaux algorithmes d’IA dans les processus industriels de l’IT sans dégrader leurs performances et en garantissant leur traçabilité et évolutivité dans le temps ;
  • Sécuriser le recrutement et la montée en compétence des talents Tech en IA et créer les conditions de prise en main en confiance de ses nouveaux outils par l’ensemble des collaborateurs et collaboratrices.

L’étude complète “Navigating the AI Era : State of Today and Prospects of Tomorrow” de SopraStoria NEXT est accessible sur demande ici.

Optimisation des investissements en IA : les 4 archétypes de Sopra Steria pour transformer l'IA en levier de performance

Simulation multiphysique : Wood Thilsted automatise son processus de conception d’éolienne grâce à COMSOL

Wood Thilsted est une société d’ingénierie de conseil spécialisée dans les projets d’énergie éolienne offshore. Pour développer efficacement des débarcadères plus durables, réduisant ainsi les coûts de matériaux et le temps nécessaire à leur mise en œuvre, elle utilise un logiciel d’analyse par éléments finis (FEA) doté de capacité d’automatisation : COMSOL Multiphysics.

Fondée en 2015, basée au Royaume-Uni et au Danemark, Wood Thilsted fournit des services de conception, d’ingénierie, et de conseils pour des projets de parcs éoliens en mer, qui nécessitent des solutions innovantes et robustes pour des environnements maritimes complexes. La société est impliquée dans plusieurs grands projets de parcs éoliens offshore à travers le monde, collaborant avec des développeurs d’énergie pour fournir des solutions sur mesure adaptées aux besoins spécifiques des différents sites.

Elle s’est tournée vers COMSOL et son logiciel multiphysique pour améliorer la conception des débarcadères utilisés par les navires de maintenance des parcs éoliens en mer. Ces débarcadères sont exposés à des contraintes mécaniques complexes dues aux forces des vagues, aux impacts de navires lourds (pouvant atteindre 200 tonnes) et aux exigences environnementales sévères. Il est crucial de garantir leur robustesse, notamment pour la sécurité des travailleurs.

Qu’est-ce que COMSOL Multiphysics ?

COMSOL Multiphysics a été développé par COMSOL Inc., une société cofondée en 1986 en Suède par un groupe d’ingénieurs et de chercheurs, dont Svante Littmarck et Farhad Saeidi. Elle s’est rapidement imposée comme un acteur majeur dans le domaine des logiciels de simulation multi-physique, offrant des solutions avancées pour modéliser et résoudre des problèmes complexes dans divers domaines scientifiques et industriels, comme l’ingénierie, la physique, la chimie et les sciences des matériaux.

Ce logiciel de simulation numérique basé sur la méthode des éléments finis (FEA – Finite Element Analysis) est particulièrement apprécié pour sa capacité à résoudre des problèmes multi-physiques, c’est-à-dire des situations où plusieurs types de phénomènes physiques interagissent (comme la mécanique des fluides, la thermique, l’électromagnétisme et la mécanique structurelle).

Son interface graphique intuitive facilite la création de modèles et l’application des conditions aux simulations et ne nécessite pas d’avoir des compétences poussées en programmation. En outre, il peut être intégré à MATLAB, un langage de programmation très utilisé pour le calcul scientifique, permettant aux utilisateurs de COMSOL d’automatiser et de personnaliser encore davantage leurs simulations.

Application pratique dans le processus de conception de Wood Thilsted

Les débarcadères sont constitués d’échelles, de garde-corps, d’éléments de fixation et de nombreux autres composants, qui doivent tous être conçus et testés conjointement.

Louise Bendtsen, ingénieure structure senior chez Wood Thilsted, explique :

“La difficulté de la conception réside dans le fait que nous avons un ensemble d’exigences avec différents cas de charge, et que ces exigences sont contradictoires. Je peux passer beaucoup de temps à optimiser un élément de la conception, puis me rendre compte qu’il ne fonctionne pas pour un autre cas de figure. En tant que concepteur, cela signifie qu’il faut avoir une vision plus large de la structure dans son ensemble.” 

COMSOL Multiphysics permet à Wood Thilsted d’adopter une approche plus complète pour son processus de conception. Le logiciel lui permet notamment de modéliser les cas de figure déterminants pour toutes les solutions potentielles : la vague à l’état limite ultime (ULS), représentant les forces maximales qu’un débarcadère est censé supporter durant sa durée de vie prévue, et la vague à l’état limite de fatigue (FLS), représentant l’impact cumulé de 30 ans de houle et de rotations de l’équipage.

Crédit image COMSOL

Les résultats de la simulation permettent de visualiser les champs de contrainte mécanique dans la conception d’un débarcadère (à gauche) et les pièces d’un modèle personnalisé qui peuvent être réutilisées dans différents projets (à droite).

Pour valider davantage les conceptions potentielles, l’équipe de Louise Bendtsen collabore avec l’équipe de conception matériau d’acier primaire de Wood Thilsted afin d’obtenir un retour d’information sur les facteurs de concentration de contraintes (FCS) et les limites des matériaux utilisés.

Elle précise :

“En utilisant COMSOL Multiphysics®, nous obtenons les contraintes automatiquement, puis nous connectons ces données à MATLAB® à l’aide de l’extension COMSOL LiveLink™ for MATLAB®. Cela nous permet d’écrire nos propres scripts qui extraient les contraintes et les déformations et effectuent toutes les évaluations des résultats pour les différents cas de charge, ce qui libère du temps pour améliorer la conception et se concentrer sur les parties les plus complexes”.

Le logiciel permet également la création de bibliothèques de pièces à géométrie complexe, facilitant leur réutilisation dans de futurs projets.

L’approche intégrée et automatisée permet ainsi à Wood Thilsted de concevoir des débarcadères qui répondent aux exigences contradictoires des différents cas de charge tout en garantissant la sécurité et la pérennité des ouvrages. COMSOL réduit non seulement le temps de conception, mais aussi les coûts liés à l’utilisation des matériaux. La capacité à paramétrer et à réutiliser des pièces géométriques complexes offre également une flexibilité supplémentaire, permettant de produire des designs d’acier optimisés en quelques mois.

Simulation multiphysique : Wood Thilsted automatise son processus de conception d'éolienne grâce à COMSOL

Etiquetage du contenu généré par l’IA : les marketeurs s’attendent à un impact positif de l’initiative de Meta

La première partie de l’étude “GenAI for Social Content Survey” de GetApp se consacrait à l’utilisation par les marketeurs de la GenAI sur les réseaux sociaux. La seconde partie se concentre sur l’adaptation des entreprises aux nouvelles réglementations de Meta concernant l’étiquetage des contenus générés par l’IA et est accompagnée des commentaires de Julien Pibourret, expert en social selling, auteur et formateur en médias sociaux et web marketing.

GetApp est une plateforme de recherche et de comparaison d’applications et de logiciels métiers acquise par Gartner en 2015. Son objectif est de permettre aux professionnels, en particulier ceux des petites et moyennes entreprises, de trouver les solutions logicielles qui répondent le mieux à leurs besoins.

Pour cette étude, elle a interrogé en mai dernier 1 680 personnes (135 en France) ayant un rôle dans le marketing, les relations publiques, les ventes ou le service à la clientèle au sein d’entreprises de toutes tailles à travers le monde. Chacune d’entre elles a indiqué utiliser la GenAI pour la gestion des réseaux sociaux de son entreprise au moins une fois par mois.

L’étude révèle une hausse de l’utilisation de la GenAI par les marketeurs : 63 % des marketeurs ont déjà utilisé l’IA générative pour créer du contenu sur les réseaux sociaux.

  • Plus d’un tiers des marketeurs interrogés déclare que 10 % à 25 % du contenu produit sur leurs réseaux sociaux l’a été avec des outils de GenAI ;
  • Un marketeur sur trois anticipe que d’ici à 18 mois, l’IA sera présente dans 25 % à 50 % du contenu publié sur les réseaux sociaux ;
  • Concernant l’efficacité, 45 % des répondants estiment que les contenus assistés par IA surpassent ceux créés exclusivement par des humains, tandis que 61 % ont constaté une hausse (“significative” pour 14 % et “légère” pour 47 %) de l’engagement et des impressions (nombre total de fois où un contenu est affiché) sur leurs réseaux grâce à l’utilisation de la GenAI ;
  • 66 % d’entre eux s’attendent à ce que toutes les tâches de marketing numérique soient assistées par des outils d’IA d’ici les cinq prochaines années.

La transparence, un gage de confiance pour les consommateurs

Selon l’étude, les plateformes de Meta, Instagram et Facebook, sont utilisées respectivement par 81% et 56 % des marketeurs.

47 % des personnes interrogées ont déclaré avoir été “modérément informés” et 31 % “très informées” de l’initiative de Meta visant à étiqueter le contenu généré par l’IA sur Instagram, Facebook et Threads, la majorité d’entre elles s’attendent à ce que cette initiative ait un impact positif.

Selon les données de l’enquête :

  • 16 % des spécialistes du marketing pensent que l’étiquetage de l’IA aura un impact “très positif”, améliorant très probablement la transparence et la confiance avec leur public ;
  • 42 % s’attendent à un impact “plutôt positif”, améliorant potentiellement l’authenticité et l’engagement du contenu.

Cependant, seulement 27 % des entreprises interrogées indiquent systématiquement que leur contenu a été créé ou modifié par l’IA, ce qui souligne un manque de transparence généralisé alors que  44 % l’indiquent parfois et 27 % ne le mentionnent jamais.

Alors que 11 % des répondants anticipent un impact “plutôt négatif” de l’étiquetage de l’IA, probablement en raison des préoccupations liées à la perception du public et à la méfiance envers le contenu généré par l’IA, 40 % ont mis en place une politique formelle et documentée pour encadrer l’utilisation de l’IA générative dans leurs stratégies de création de contenu.

Julien Pibourret insiste sur l’importance de la transparence dans ces nouvelles pratiques :

“En communiquant de manière proactive sur l’utilisation de l’IA, les entreprises peuvent montrer leur engagement envers la transparence et l’éthique de leur stratégie de contenu online.”

Il met également en garde contre les risques d’un manque de transparence :

“Ne pas mentionner que le contenu est généré par l’IA peut compromettre la réputation d’une entreprise, affaiblir l’engagement de sa communauté et même entraîner des conséquences légales.”

La GenAI s’impose progressivement comme un pilier central dans les stratégies de marketing numérique. Mais pour tirer pleinement parti de cette technologie, les entreprises devront non seulement continuer à optimiser son utilisation, mais aussi à s’adapter aux exigences croissantes en matière de transparence et d’éthique. La clé réside dans l’équilibre entre innovation technologique et respect des attentes des consommateurs.

Etiquetage du contenu généré par l'IA : les marketeurs s'attendent à un impact positif de l'initiative de Meta

IA et lutte contre le cancer : Airbus, Accuray et l’IUCT-Oncopole collaborent pour améliorer la radiothérapie

Airbus, Accuray et l’IUCT-Oncopole ont signé récemment un accord visant à améliorer la disponibilité et la maintenance des équipements de radiothérapie à l’Oncopole grâce à l’IA. Ce partenariat, qui repose sur l’expertise d’Airbus en IA et celle des spécialistes de l’Institut universitaire en radiothérapie et physique médicale, exploitera les données d’Accuray, pour prédire les dysfonctionnements des systèmes de radiothérapie, afin de réduire les retards et les interruptions dans la prise en charge des patients.

Si Airbus, géant de l’aérospatial, s’est emparé dès l’an passé de l’IA générative pour améliorer son mode de fonctionnement, cela fait des années qu’il exploite l’IA et les données pour suivre l’état de ses flottes d’avions et extraire des informations.

En 2016, l’application de l’IA dans OneAtlas a permis de traiter des images satellites à haute résolution, fournissant ainsi des informations précieuses aux agriculteurs, assureurs et énergéticiens. Depuis 2017, la plateforme digitale Skywise du constructeur aéronautique , qui utilise des technologies telles que le traitement du langage naturel (NLP), permet d’améliorer la maintenance prédictive et de limiter les pannes d’avions en service.

Un partenariat novateur pour la santé

En 2022, Airbus a signé un premier partenariat de deux ans avec l’IUCT-Oncopole pour accélérer la recherche contre le cancer grâce à l’IA et met aujourd’hui à profit son expertise, développée pour l’industrie aéronautique, pour anticiper et prévenir les dysfonctionnements des systèmes de radiothérapie, optimisant ainsi le parcours des patients.

Ces systèmes, fournis par Accuray, une entreprise américaine, sont essentiels pour le traitement de nombreux patients à l’Oncopole, un centre de référence pour la prise en charge des cancers en France. L’Institut traite chaque année 11 000 nouveaux patients, son département de radiothérapie prend en charge 3 500 patients par an et a assuré l’an passé près de 56 000 séances de radiothérapie.

Klara Wittkowski, directrice du développement de la R&T et des partenariats chez Airbus, souligne :

“Chez Airbus, nous nous efforçons de développer nos connaissances et les technologies d’intelligence artificielle d’une manière responsable qui privilégie avant tout les personnes. Lorsque nous avons commencé notre partenariat avec l’Oncopole il y a deux ans, nous savions que nous pourrions grandement exploiter notre expertise au bénéfice des soins en oncologie, car la nature transverse de l’IA la rend facilement transférable d’un domaine à l’autre”.

Prédire les pannes pour des soins continus

Le projet repose sur l’utilisation de modèles prédictifs qui analysent en temps réel les performances des systèmes de radiothérapie adaptative Accuray Radixact, une technologie non invasive offrant une précision accrue dans le traitement d’un large éventail de  tumeurs. Ces modèles permettront de détecter de manière proactive les signes avant-coureurs de défaillance, assurant ainsi un fonctionnement optimal des machines.

Suzanne Winter, présidente et directrice générale d’Accuray, explique :

“Les patients en radiothérapie reçoivent des soins selon un calendrier déterminé par leur équipe médicale. Notre priorité absolue est de veiller à ce que nos systèmes fonctionnent sans interruption. Nous continuons à rechercher les meilleures pratiques dans d’autres industries, telles que l’aviation, domaine dans lequel la performance opérationnelle constante est primordiale, et la surveillance du bon fonctionnement des composants essentielle”.

Un projet au cœur de l’innovation en oncologie

Pour le Professeur Delord, directeur général de l’Oncopole, ce partenariat s’inscrit dans une stratégie plus large visant à intégrer les nouvelles technologies dans les soins oncologiques. Il affirme :

“Le futur de l’oncologie doit se construire avec tous les acteurs qui peuvent contribuer à faire accélérer la recherche en oncologie. Élargir nos collaborations au-delà de notre écosystème « santé » fait partie de la stratégie data et IA de l’Oncopole. Après des premiers accords signés il y a deux ans avec Airbus et l’IRT Saint Exupéry qui ont déjà fait l’objet de publications, nous nous réjouissons d’avancer concrètement sur un projet qui vise à terme à faciliter la prise en charge des patients à l’Oncopole”.

Woman Receiving Radiation Therapy Treatments for Breast Cancer

OpenAI o1 : une nouvelle génération de modèles d’IA pour résoudre des problèmes complexes

Ce jeudi 12 septembre, OpenAI a lancé OpenAI o1, une nouvelle série de modèles d’IA dotés de capacités de raisonnement avancées pour résoudre des problèmes complexes. OpenAI o1, appelé en interne Strawberry, peut, selon la start-up, résoudre des problèmes plus difficiles que les modèles précédents en sciences, en codage et en mathématiques.

Dans son blog, OpenAI annonce: “Nous avons développé une nouvelle série de modèles d’IA conçus pour passer plus de temps à réfléchir avant de répondre”.

Les capacités de raisonnement avancées d’OpenAI o1 reposent sur la chaîne de pensée (chain of thought) et l’apprentissage par renforcement. La chaîne de pensée est le processus par lequel l’IA décompose un problème complexe en étapes logiques plus simples avant de fournir une réponse. Grâce à l’apprentissage par renforcement, o1 perfectionne cette chaîne de pensée et affine ses stratégies. Il apprend à identifier et corriger ses erreurs, à décomposer les étapes complexes en étapes plus simples, et à essayer une approche différente lorsque l’approche utilisée ne fonctionne pas.

Les modèles précédents, comme GPT-4o, répondent rapidement à des questions en se basant sur des patterns appris à partir de données massives. Toutefois, pour résoudre des tâches complexes, telles que des problèmes scientifiques, mathématiques ou logiques, un simple accès à une grande base de connaissances ne suffit pas toujours.

Cette nouvelle capacité à décomposer un problème en étapes et à tenter d’élaborer un jugement critique sur les réponses fournies afin de simuler une réflexion humaine est particulièrement utile dans les domaines nécessitant un raisonnement long et nuancé :

  • Mathématiques complexes : Résolution de problèmes en plusieurs étapes, où une simple erreur de calcul ou de logique dans une étape peut compromettre le résultat final ;
  • Programmation : Analyse des erreurs dans un code et élaboration d’une solution optimale après avoir envisagé plusieurs options ;
  • Sciences : Compréhension et application de théories scientifiques complexes pour résoudre des questions à plusieurs facettes.

La famille OpenAI o1

La famille o1 se compose pour l’instant de deux modèles : o1-preview et o1-mini, plus rapide, 80 % moins cher, excellant, selon OpenAI dans les STEM, en particulier les mathématiques et le codage, d’ores et déjà disponibles pour ChatGPT Plus et  les développeurs de niveau 5 de l’API.

La start-up a évalué les performances de o1-preview, o1, la prochaine mise à jour du modèle, par rapport à celles de GPT-4o.

Sur le diamant GPQA, qui teste l’expertise en chimie, en physique et en biologie, o1 a surpassé les performances des experts titulaires d’un doctorat qu’elle avait recruté, devenant ainsi le premier modèle à le faire sur ce benchmark. Il s’est classé dans le 89e centile sur les questions de programmation compétitives de Codeforces et figure parmi les 500 meilleurs étudiants américains lors des qualifications pour les Olympiades de Mathématiques des États-Unis (AIME).

Crédit image : OpenAI o1 s’améliore considérablement par rapport à GPT-4o sur les benchmarks de raisonnement difficiles. Les barres pleines montrent la précision pass@1 et la région ombrée montre la performance du vote majoritaire (consensus) avec 64 échantillons.

 

OpenAI o-1 a également surpassé GPT-4o sur 54 des 57 sous-catégories MMLU.

Crédit image : OpenAI. o1 s’améliore par rapport à GPT-4o sur un large éventail de benchmarks, y compris les sous-catégories MMLU 54/57. Sept sont illustrés.

 

OpenAI prévoit des mises à jour et des améliorations régulières. Ces modèles sont en phase préliminaire, les fonctionnalités telles que la navigation sur le web pour obtenir des informations ou le téléchargement de fichiers et d’images ne sont pas encore disponibles.

La start-up conclut sa présentation ainsi :

“Ces capacités de raisonnement améliorées peuvent être particulièrement utiles si vous vous attaquez à des problèmes complexes en sciences, en codage, en mathématiques et dans des domaines similaires. Par exemple, o1 peut être utilisé par les chercheurs du secteur de la santé pour annoter les données de séquençage cellulaire, par les physiciens pour générer des formules mathématiques complexes nécessaires à l’optique quantique et par les développeurs de tous les domaines pour créer et exécuter des flux de travail en plusieurs étapes.”

y3hF1nAU

Arabie Saoudite : premières annonces majeures pour l’avenir de l’IA à la 3ème édition du Global AI Summit (GAIN)

La troisième édition du Global AI Summit (GAIN), organisée par la Saudi Data & Artificial Intelligence Authority (SDAIA), se déroule depuis le 10 septembre au King Abdulaziz International Conference Center à Riyad. Cet événement, qui se clôturera ce soir, a réuni plus de 300 intervenants internationaux, parmi lesquels des leaders technologiques, des universitaires, des chefs d’entreprise, ainsi que des décideurs et régulateurs de près de 100 pays.

Lancé en 2020 par la SDAIA, le sommet a pour vocation d’être une plateforme mondiale dédiée aux discussions sur les avancées, défis et opportunités de l’IA et de promouvoir la collaboration dans ce secteur.

Une première journée marquée par des annonces importantes

NVIDIA, IBM et l’OCDE ont annoncé le jour d’ouverture du sommet des collaborations avec la SDAIA :

  • NVIDIA et la SDAIA ont annoncé un renforcement de leur collaboration visant à tirer parti des dernières avancées technologiques de NVIDIA, notamment NVIDIA NeMo et NeMo Guardrails, pour faciliter la création et le déploiement d’applications d’IA par les développeurs en Arabie Saoudite, en utilisant le LLM arabe ALLaM. Cette initiative établira une nouvelle norme pour les modèles linguistiques pilotés par l’IA au Moyen-Orient. De plus, les deux organisations prévoient d’étendre l’infrastructure existante de supercalculateurs de la SDAIA, en créant l’un des plus grands centres de données haute performance de la région MENA, basé sur l’architecture Blackwell de NVIDIA ;
  • IBM a signé un protocole d’accord avec la SDAIA pour la création d’un Centre de recherche et d’innovation en IA en Arabie Saoudite. Ce centre sera axé sur le développement d’applications destinées aux secteurs gouvernementaux, tout en respectant les normes mondiales de gouvernance et d’éthique en matière d’IA ;
  • L’OCDE a signé un protocole d’accord avec la SDAIA pour renforcer la surveillance des incidents liés à l’IA dans la région du Moyen-Orient et assurer un suivi rigoureux des données en langue arabe. Il s’appuiera sur les ressources de l’OCDE et sur sa base de données de plus de 1 000 politiques d’IA provenant de 70 pays.

D’autre part, l’UNESCO et la SDAIA ont annoncé que le Centre international de recherche et d’éthique en intelligence artificielle de Riyad (ICAIRE) a été classé comme centre de catégorie 2 (C2) placé sous l’égide de l’UNESCO. Cette classification souligne non seulement le rôle central de l’Arabie saoudite dans l’avancement de la coopération internationale et régionale en matière de politiques, d’éthique et de recherche dans le domaine de l’IA mais également l’engagement du Royaume à soutenir les Objectifs de développement durable (ODD) 2030 des Nations unies.

Arabie Saoudite : premières annonces majeures pour l'avenir de l'IA à la 3ème édition du Global AI Summit (GAIN)

Arabie Saoudite : Riyad accueille les premières Olympiades Internationales d’Intelligence Artificielle

En marge du Global AI Summit 2024 qui se déroule du 10 au 12 septembre à Riyad, 25 pays participent à la première Olympiade Internationale d’Intelligence Artificielle, une nouvelle compétition organisée par l’Autorité saoudienne des données et de l’intelligence artificielle (SDAIA) afin de valoriser l’expertise en IA.

Le Sommet mondial de l’intelligence artificielle ou GAIN est organisé par l’Arabie saoudite depuis 2020. Il a été lancé par la SDAIA pour servir de plateforme mondiale de discussion sur les avancées, les enjeux et les opportunités dans le domaine de l’IA et promouvoir la collaboration dans le secteur.

Cette année, plus de 300 intervenants, parmi lesquels des leaders de l’innovation, des universitaires, des chefs d’entreprise, des régulateurs et des décideurs de près de 100 pays, se réunissent pour discuter du thème “L’IA : Aujourd’hui, demain, jamais”. Ces échanges visent à explorer l’impact transformateur de l’IA sur les individus et les communautés, les bénéfices concrets de cette technologie, son avenir, ainsi que les considérations éthiques nécessaires pour garantir un développement responsable de l’IA dans tous les secteurs.

Un concours mondial d’excellence en IA

La SDAIA a organisé cette Olympiade en partenariat avec le Centre international de recherche et d’éthique sur l’IA de Riyad (ICAIRE) et le Centre international de recherche sur l’intelligence artificielle en Slovénie, placé sous l’égide de l’UNESCO.

La compétition a été précédée par une série de conférences intensives de cinq semaines, où les participants ont pu se qualifier et approfondir leurs connaissances. Chacun des 25 pays est représenté par une équipe de quatre experts, tous prêts à s’affronter durant les deux jours du sommet sur des questions techniques et des problématiques à l’aide de l’IA.

Une réponse aux défis contemporains

L’objectif des Olympiades est de fournir un espace aux esprits les plus brillants afin de suivre les évolutions récentes de l’IA, notamment la GenAI, et d’aborder les problématiques actuelles, telles que l’éthique.

Alors que l’IA devient un élément incontournable de la vie quotidienne et du paysage commercial, cette compétition vise à former une nouvelle génération d’experts capables de relever les défis mondiaux. Après cette première édition internationale, les organisateurs ont d’ailleurs l’intention de lancer des versions des Olympiades dans des écoles du monde entier pour encourager les jeunes talents à développer des solutions intelligentes tout en les sensibilisant aux enjeux liés à l’IA.

Les Olympiades s’inscrivent également dans le cadre de la Vision 2030 de l’Arabie saoudite, qui vise à diversifier son économie en misant sur les données et l’IA. Elles contribueront en outre à la réalisation des Objectifs de développement durable (ODD) des Nations unies, notamment en sensibilisant aux technologies de l’IA et en fournissant aux sociétés les connaissances et les compétences nécessaires pour les maîtriser.

Arabie Saoudite Riyad accueille les premières Olympiades Internationales d'Intelligence Artificielle

L’essor de la GenAI en Chine : MiniMax dévoile Video-01, son premier modèle text-to-video

Zhipu AI a annoncé récemment CogVideoX-5B, son dernier modèle text-to-video open source. Une autre start-up chinoise, tout aussi prometteuse, Minimax, a dévoilé sa première IA générative de vidéos lors de sa conférence des développeurs. “Magic Coin”, la vidéo générée par Video-01, la première itération du modèle éponyme de la start-up, a suscité un vif enthousiasme.

La génération de vidéos est une tâche beaucoup plus complexe que la génération d’images, impliquant une dimension temporelle en plus de la dimension spatiale, le modèle doit non seulement générer correctement chaque pixel, mais également prédire comment ce dernier évoluera pour produire une vidéo cohérente et fluide.

Alors que les modèles text-to-video précédents pouvaient générer des vidéos de quelques secondes, OpenAI avait fait sensation en février dernier avec Sora, son IA capable de produire des vidéos très réalistes d’une minute. Cependant, le modèle n’est toujours pas disponible au public.

Depuis, plusieurs entreprises chinoises sont entrées en compétition dans ce domaine avec l’objectif de rattraper, voire surpasser, leurs concurrents américains. En juin dernier, Kuaishou présentait ainsi Kling, capable de générer quant à lui des vidéos allant jusqu’à 2 minutes.

Minimax Video-01

Basée à Shanghai, fondée en 2021 par d’anciens employés de SenseTime, Minimax bénéficie du soutien de géants technologiques tels qu’Alibaba et Tencent. La première démonstration du modèle avec la vidéo “Magic Coin”, met en lumière sa capacité à générer des vidéos cohérentes à partir de simples descriptions textuelles. On peut constater dans la vidéo ci-dessous partagée par AI Movie que le mouvement des mains, une difficulté majeure pour les IA génératives, est ici plutôt naturel.

Cette première version du modèle permet déjà de produire des vidéos de six secondes en seulement deux minutes, à une résolution de 1280 x 720 pixels et une fréquence de 25 images par seconde. Cependant, MiniMax prévoit d’étendre rapidement leur durée à 10 secondes, et travaille à plusieurs mises à jour, notamment la possibilité de générer des vidéos à partir d’images et d’éditer ces vidéos de manière plus complexe dans les futures versions du modèle. Pour l’instant, la start-up n’a pas communiqué sur les paramètres et les détails techniques du modèle.

Les utilisateurs peuvent générer les vidéos à partir d’invites textuelles simples ou plus complexes allant jusqu’à 2000 caractères, ce qui leur permet de détailler le genre de contenu attendu, notamment l’action et le style.

Si vous désirez tester gratuitement le modèle, il suffit de vous rendre sur le site de Minimax, vous pourrez également y découvrir des vidéos générées par le modèle.

L’essor de la GenAI en Chine MiniMax dévoile Video-01, son premier modèle text-to-video

IA et ressources humaines : le Hub France IA ouvre les candidatures pour le Grand Prix IA & RH

Le Hub France IA a ouvert hier les candidatures pour le Grand Prix IA & RH, un événement pionnier en France récompensant les initiatives utilisant l’intelligence artificielle pour résoudre des défis complexes du secteur des ressources humaines. Les candidatures doivent démontrer des impacts mesurables et une véritable innovation dans des domaines tels que le recrutement, la gestion des talents, ou encore la formation. Les soumissions sont acceptées jusqu’au 30 octobre prochain.

Catalyseur de l’écosystème de l’intelligence artificielle en France, association à but non lucratif, le Hub France IA fédère plus de 150 membres et plus de 50 partenaires en France et en Europe afin d’accélérer le développement de propositions et de solutions concrètes aux niveaux national et européen. Il agit pour faire émerger une IA de confiance et souveraine, respectueuse des citoyens, au service des entreprises et du secteur public.

Le Grand Prix IA & RH s’adresse à toute structure, qu’elle soit une entreprise (de la start-up au grand groupe), une association ou une administration. Il se distingue par son approche collaborative, encourageant les candidatures en binôme. Ce format permet à une entreprise porteuse d’une technologie d’IA et à une organisation utilisatrice de présenter ensemble une solution concrète répondant à une problématique RH.

Le champ d’application du projet pourra couvrir tout domaine des ressources humaines : recrutement, gestion des talents, des performances, formation, relations sociales, planification stratégique… Les outils d’IA utilisés pourront s’appuyer sur l’ensemble des approches généralement associées à l’IA, allant des méthodes symboliques à l’IA générative, en incluant les diverses applications de l’apprentissage automatique.

Un seul projet par structure sera accepté. Les projets soumis devront avoir été déployés, ils seront évalués sur leur innovation technologique et leur impact effectif sur la gestion des ressources humaines.

Une adhésion au Hub France IA et une reconnaissance sectorielle

Les lauréats du Grand Prix IA & RH bénéficieront d’une adhésion gratuite d’un an au Hub France IA, offrant un accès privilégié à un réseau d’experts, à des projets collaboratifs et à des actions collectives dédiées à l’adoption responsable de l’intelligence artificielle en France et en Europe. En plus de cette adhésion, les gagnants recevront une couverture médiatique grâce aux partenariats établis avec l’agence marketing dédiée au marché des Ressources Humaines Parlons RH et notre magazine Actu IA, ce qui leur assurera une grande visibilité au sein de l’écosystème RH et technologique.

En outre, Hub France IA organisera un webinaire dédié à la présentation de leur projet, signalé comme lauréat du Prix IA & RH.

Un jury d’experts pour une évaluation rigoureuse

Le jury du Grand Prix IA & RH, composé de spécialistes de l’IA, des ressources humaines et de l’innovation, évaluera les projets en fonction de leur originalité, de leur impact sur les métiers des ressources humaines, et de leur pertinence éthique et sociale. Il sera composé de :

  • Emmanuelle Blons, Co-pilote du GT RH du Hub France IA ;
  • Lobna CALLEJA BEN HASSINE, Chief People Officer, Ogilvy Paris ;
  • Thomas CHARDIN, Dirigeant fondateur de Parlons RH ;
  • Laurence COSSON-PIANTONI, Directrice des Ressources Humaines de la Direction des Systèmes d’Information, France Travail ;
  • Yann FERGUSON, Directeur scientifique du LaborIA, Inria ;
  • Belkacem LAIMOUCHE, Responsable de la Fabrique Digitale, DGAC ;
  • Marie LANCIAUX, Responsable Département Innovation, Atalian ;
  • Barbara MARAZIA, Chief Human Resources Officer, Malt.

Les projets présélectionnés seront annoncés fin novembre 2024, les lauréats, lors d’un évènement, aux alentours du 9 décembre 2024.

Ce prix est une opportunité pour les organisations de valoriser leurs innovations RH, tout en accédant à un réseau influent dans l’IA en France et en Europe. Si vous désirez candidater, vous pouvez soumettre votre dossier via ce formulaire.

Challenge-IA-RH-candidatures-logos-VF2-2048x1024

L’impact croissant de l’IA générative sur la productivité en entreprise selon une étude Zoom

Zoom, plateforme leader des communications unifiées, a dévoilé les résultats d’une étude récente sur l’évolution du lieu de travail, les préférences des employés et l’impact de l’IA générative. Si elle révèle que le modèle de lieu de travail hybride est devenu la norme, elle met également en lumière l’adoption massive de l’IA et son impact positif sur la productivité.

Pour l’étude mondiale “Navigating the Future of Work: Global Perspectives on Hybrid Models and Technology“, plus de 624 leaders IT et cadres supérieurs ainsi que près de 1 870 employés de bureau ont été interrogés par Reworked INSIGHTS pour Zoom.

Concernant l’évolution du lieu de travail, l’enquête démontre que le modèle hybride prédomine avec 64 % des dirigeants affirmant qu’ils l’ont adopté. Malgré les débats sur le retour au bureau ou le télétravail complet, aucune tendance majeure ne se dessine dans ces directions. Cependant, les modèles hybrides varient selon les entreprises, et les préférences de travail diffèrent selon les régions : l’Amérique du Nord préfère le bureau, l’Europe de l’Ouest l’hybride, et l’APAC, le télétravail.

Une adoption massive de la GenAI

Selon l’étude de Zoom, l’adoption de l’IA générative est déjà une réalité pour la grande majorité des entreprises. En effet, 94 % des dirigeants interrogés ont affirmé que leur organisation utilisait cette technologie, principalement pour les chatbots (56 %), la génération de contenu (49 %) et l’aide à la conception (46 %). Cette utilisation croissante de l’IA reflète une tendance claire vers l’automatisation des tâches répétitives et la facilitation de la prise de décision, permettant aux équipes de se concentrer sur des activités à plus forte valeur ajoutée.

Une productivité en hausse grâce à l’IA

Interrogés sur l’impact de la GenAI sur la productivité au sein de leur équipe ou organisation, 84 % des dirigeants déclarent avoir constaté une amélioration de la productivité après son intégration, pour 40 % la productivité a fortement augmenté. Ces chiffres témoignent de la capacité de l’IA à optimiser les processus internes, réduire les délais et améliorer l’efficacité globale des équipes.

Cependant, 9 % des dirigeants ont déclaré n’avoir constaté aucun changement, tandis que 7 % ont même observé une baisse de la productivité, ce qui suggère que l’intégration de l’IA nécessite une approche stratégique et bien pensée pour en maximiser les bénéfices.

Perception des employés : entre optimisme et inquiétude

Du côté des employés, l’accueil de l’IA générative est plus nuancé. Si 64 % des employés sont d’accord pour dire que cette technologie facilite leur travail, une frange importante reste préoccupée par l’impact potentiel sur leur emploi. Cette inquiétude est particulièrement forte chez les jeunes travailleurs : 72 % des 18-24 ans craignent que l’IA ne menace leur poste, contre 42 % chez les 55 ans et plus.

Ces différences générationnelles soulignent la nécessité pour les entreprises de mettre en place des stratégies de communication et de formation adaptées, afin de rassurer les employés et de les préparer aux changements technologiques à venir.

Des environnements de travail à réinventer

L’étude révèle également que la majorité des employés estiment que leur environnement de travail numérique actuel n’est pas optimal. 75 % des employés sondés ont reconnu l’existence de failles dans les outils et technologies actuels de leur organisation pour le travail à distance. De plus, 72 % pensent que leur entreprise a besoin de nouveaux outils ou technologies pour soutenir efficacement le travail à distance.

Cette reconnaissance des limitations actuelles met en lumière l’importance pour les entreprises de continuer à investir dans des technologies innovantes et de s’adapter rapidement aux nouvelles exigences du travail hybride et à distance.

Conclusion

L’étude de Zoom offre un aperçu précieux des tendances actuelles en matière d’IA générative et de son impact sur le lieu de travail. Alors que l’IA continue de se déployer dans les entreprises, il est clair que cette technologie a le potentiel de transformer la productivité et les modes de travail, à condition qu’elle soit mise en œuvre de manière réfléchie et inclusive. Zoom déclare :

“En fin de compte, nous nous attendons à ce que l’IA générative ait un grand impact sur l’avenir du travail, malgré les préoccupations que certains employeurs ou employés peuvent avoir. Au fur et à mesure que les organisations expérimentent davantage cette technologie et consacrent du temps et des ressources à traiter les risques impliqués, l’IA générative façonnera l’avenir du travail, la manière dont les modèles de lieu de travail changent et quels modèles finiront par être les plus réussis”.

Retrouver l’intégralité de l’étude ici.

L'impact croissant de l'IA générative sur la productivité en entreprise selon une étude Zoom

Evolution de l’IA d’entreprise : IBM et Intel s’associent pour déployer Gaudi 3 sur IBM Cloud

Intel et IBM ont annoncé une collaboration stratégique visant à intégrer les accélérateurs d’IA Intel Gaudi 3 dans IBM Cloud. Ce déploiement, prévu pour début 2025, a pour objectif de rendre l’IA d’entreprise plus abordable, performante, et sécurisée, en s’appuyant sur les capacités des processeurs Xeon de 5e génération d’Intel et les services cloud hybrides d’IBM.

L’un des points clés de cette collaboration est l’amélioration du rapport coût/performance pour les charges de travail d’IA, en particulier dans les environnements de cloud hybride. Grâce à Gaudi 3, IBM Cloud proposera des solutions flexibles et évolutives, permettant aux entreprises d’ajuster leurs ressources en fonction de leurs besoins, ce qui leur permettra réduire les coûts tout en augmentant l’efficacité opérationnelle.

Justin Hotard, vice-président exécutif et directeur général d’Intel Data Center et de l’IA, explique :

“Pour libérer tout le potentiel de l’IA, il faut un écosystème ouvert et collaboratif qui offre aux clients un choix et des solutions accessibles. En intégrant les accélérateurs d’IA Gaudi 3 et les processeurs Xeon à IBM Cloud, nous créons de nouvelles capacités d’IA et répondons à la demande de solutions informatiques d’IA abordables, sécurisées et innovantes.”

L’accélérateur d’IA Gaudi 3

IBM Cloud deviendra ainsi le premier fournisseur de services cloud à intégrer les accélérateurs Gaudi 3, conçus pour le calcul GenAI, présentés en avril dernier par Intel.

Fabriqué selon un processus de 5 nm, doté de vingt-quatre ports Ethernet 200 gigabits intégrés, Intel Gaudi 3 est conçu pour permettre à chaque composant fonctionnel, comme le moteur de multiplication matricielle (MME), les cœurs de processeur Tensor (TPC) et les cartes d’interface réseau (NIC), de travailler simultanément, permettant ainsi d’accélérer le calcul et la mise à l’échelle des opérations de deep learning, lesquelles nécessitent la réalisation simultanée de nombreuses opérations sur de grandes quantités de données.

La mémoire, avec 128 Go de capacité HBMe2 et 3,7 To de bande passante mémoire, répond aux exigences croissantes des LLMs, améliorant ainsi les performances et la rentabilité des charges de travail d’IA.

La combinaison de cette technologie avec les capacités éprouvées des processeurs Xeon de 5e génération offre une infrastructure robuste et performante, adaptée aux besoins variés des entreprises, que ce soit pour le développement, le test ou le déploiement de solutions d’IA.

Elle prend en charge les charges de travail d’IA d’entreprise dans le cloud et dans les centres de données, offrant aux clients une visibilité et un contrôle accrus sur leur pile logicielle, simplifiant ainsi la gestion des charges de travail et des applications.

IBM prévoit également d’intégrer Gaudi 3 à sa plateforme Watsonx, fournissant ainsi aux clients des ressources supplémentaires pour faire évoluer leurs charges de travail d’IA dans des environnements de cloud hybride. Cette intégration permettra d’optimiser le rapport prix/performances pour l’inférence des modèles, contribuant ainsi à une adoption plus large de l’IA dans les entreprises.

Sécurité et résilience au cœur de l’initiative

IBM et Intel s’engagent à fournir des solutions d’IA accessibles à tous les secteurs, y compris ceux soumis à des réglementations strictes. IBM Cloud, connu pour ses capacités de sécurité et de conformité, exploitera Gaudi 3 pour offrir un service d’IA robuste et sécurisé, adapté aux besoins spécifiques des entreprises modernes.

L’intégration de Gaudi 3 dans IBM Cloud Virtual Servers for VPC permettra en outre aux entreprises basées sur x86 d’exécuter des applications plus rapidement et de manière plus sécurisée, améliorant ainsi l’expérience utilisateur.

Les premières offres IBM Cloud avec Gaudi 3 seront disponibles au début de l’année 2025. Les entreprises qui cherchent à rester compétitives dans un paysage technologique en constante évolution pourront ainsi accéder à une infrastructure d’IA puissante, flexible et sécurisée, qui leur permettra de maximiser leur potentiel d’innovation.

Evolution de l'IA d'entreprise IBM et Intel s'associent pour déployer Gaudi 3 sur IBM Cloud

OpenAI envisagerait une levée de fonds qui la valoriserait à plus de 100 milliards de dollars

Le Wall Street Journal a annoncé hier qu’OpenAI, la start-up derrière ChatGPT, avait entamé des pourparlers en vue d’une nouvelle levée de fonds qui pourrait lui permettre d’être valorisée à plus de 100 milliards de dollars.

Selon le quotidien, le tour de table devrait être mené par la société de capital-risque Thrive Capital, qui investirait elle-même environ 1 milliard de dollars. Microsoft qui, avec les 10 milliards investis dans la start-up l’an passé, en est le principal investisseur, devrait lui apporter également son soutien.

OpenAI, Microsoft et Thrive Capital n’ont pas répondu aux demandes de commentaires de différents médias, notamment Reuters. Cette annonce est donc à prendre avec prudence quand bien même cette information avait déjà été rapportée en décembre dernier par Bloomberg.

Selon ce dernier, la levée de fonds qui allait valoriser OpenAI à 100 milliards de dollars, voire plus, allait apporter à OpenAI les fonds nécessaires pour entraîner ses modèles d’IA mais Sam Altman, son PDG, avait également approché plusieurs investisseurs, dont les Émirats arabes unis, dans l’objectif de développer un réseau mondial d’usines de fabrication de semi-conducteurs.

OpenAI n’a pas les moyens de Microsoft qui s’est lancé en novembre 2023 dans le développement de ses propres puces d’IA pour Azure. Entreprendre cela serait pour la start-up une entreprise complexe, coûteuse et très risquée qui nécessiterait plusieurs années pour être mise en œuvre. La société aurait donc opté pour une collaboration avec d’importants acteurs du secteur des semi-conducteurs, Intel, Taiwan Semiconductor Manufacturing Company (TSMC), le principal fournisseur de puces de NVIDIA, et Samsung seraient, entre autres, de potentiels partenaires.

Ce projet, auquel s’intéresserait Microsoft, permettrait à OpenAI de s’assurer d’un approvisionnement certain pour le développement de ses IA génératives, mais également d’étendre ses capacités technologiques et de forger des partenariats stratégiques. Pour le concrétiser, Sam Altman se serait lancé dans une quête active de financement et serait en discussions avec des investisseurs majeurs, dont G42 auprès duquel il espérait lever entre 8 et 10 milliards de dollars, selon Bloomberg.

OpenAI envisagerait une levée de fonds qui la valoriserait à plus de 100 milliards de dollars

Centrale Lille : nouveaux électifs et modules dédiés à l’IA à la rentrée 2024

En 2012, Centrale Lille, établissement public d’enseignement supérieur, était l’une des premières écoles d’ingénieurs à s’emparer des sujets IA et data science et depuis n’a cessé d’intégrer davantage d’IA dans ses formations. Ce 27 août, elle a annoncé que de nouveaux modules et électifs seraient proposés aux élèves de l’École Centrale de Lille et de l’ENSCL dès la prochaine rentrée universitaire.

Créé en 1854, Centrale Lille forme des ingénieurs et des chercheurs de haut niveau. Ses quatre écoles d’ingénieurs, l’École Centrale de Lille (ingénieur généraliste), l’ITEEM (ingénieur manager entrepreneur), l’IG2I (ingénieur pour les systèmes d’informations et les systèmes industriels innovants), et l’ENSCL (ingénieur chimiste) regroupent plus de 2000 étudiants et sont aujourd’hui une référence dans le monde de l’enseignement supérieur.

À l’École Centrale de Lille

Dès la rentrée, deux nouveaux électifs (cours optionnels) seront disponibles pour les élèves de 1ère et 2ème année :

  • Deep Learning : Encadré par Benoit Trouillet, cet électif permettra aux étudiants de comprendre les fondements des réseaux de neurones profonds, essentiels dans les modèles d’IA contemporains.
  • Représentation des signaux et problèmes inverses : Dirigé par Pierre-Antoine Thouvenin, ce cours se concentrera sur la reconstruction d’informations à partir de données incomplètes, avec des applications allant de l’astrophysique à la physique des matériaux.

Pour les étudiants de 3ème année, le parcours “Sciences des données et intelligence artificielle” s’enrichit de nouveaux cours sur l’apprentissage profond. De plus, les élèves ont la possibilité de suivre un Master Data Science en double-diplôme, en collaboration avec l’Université de Lille et l’IMT Nord Europe.

L’IA est en outre abordée dans les 5 autres parcours de 3ème année en vue d’applications à l’ingénierie :

  • dans le parcours “Industrie 4.0” du thème “industrie du futur” ;
  • dans les parcours ” Systèmes Intelligents et réseaux avancés de communication” et “Réseaux du futur et intelligence ambiante “du thème «”Smart system et smart  environments” ;
  • dans les parcours “Construction & matériaux durables” et “Energie, mobilité électrique et réseaux intelligents” du thème “Construction durable et énergie”.

Parallèlement, des conférences mensuelles, animées par des entreprises de divers secteurs, sont organisées pour les étudiants. Ces sessions offrent une interaction directe avec les professionnels, couvrant des sujets variés allant des applications pratiques de l’IA à ses implications éthiques.

Un Data Challenge est organisé chaque année à l’attention des élèves centraliens et du master Data Science. Sur une semaine, les étudiants travaillent sur des projets ayant trait aux LLMs, à la vision par ordinateur ou encore à la reconnaissance automatique des émotions.

À l’ENSCL

Les élèves ingénieurs de l’ENSCL bénéficieront de nouveaux contenus pédagogiques, incluant un MOOC de dix heures qu’ils devront suivre au semestre 7 et une mineure de 20 heures dédiée à la programmation et à la mise en œuvre d’algorithmes d’IA. Ces formations visent à renforcer leurs compétences dans l’application de l’IA à la chimie, notamment dans des domaines émergents comme la chemoinformatique, domaine de la science qui consiste en l’application de l’informatique aux problèmes relatifs à la chimie.

L’IA joue un rôle croissant en chimie, facilitant des avancées significatives dans la prédiction des propriétés chimiques, la simulation des réactions complexes, et la conception de processus plus respectueux de l’environnement.

Avec ces nouvelles initiatives, Centrale Lille continue de former des ingénieurs et des experts en IA capables de répondre aux défis technologiques de demain, tout en contribuant à l’innovation dans des secteurs variés.

Centrale Lille nouveaux électifs et modules dédiés à l'IA à la rentrée 2024
❌