Révélée le 11 décembre 2025, la « Person of the Year » du célèbre TIME Magazine distingue « les architectes de l’IA ». Parmi les huit personnalités en image de Une, figurent deux femmes : Lisa Su et Fei-Fei Li.
Révélée le 11 décembre 2025, la « Person of the Year » du célèbre TIME Magazine distingue « les architectes de l’IA ». Parmi les huit personnalités en image de Une, figurent deux femmes : Lisa Su et Fei-Fei Li.
Google aussi rêve d'espace. Littéralement. L'entreprise américaine a dévoilé début novembre 2025 le projet Suncatcher. L'idée ? Lancer des data centers dédiés à l'IA en orbite autour de la Terre. Malgré les défis, la société américaine y croit et ne voit pas d'obstacle absolu.
Google aussi rêve d'espace. Littéralement. L'entreprise américaine a dévoilé début novembre 2025 le projet Suncatcher. L'idée ? Lancer des data centers dédiés à l'IA en orbite autour de la Terre. Malgré les défis, la société américaine y croit et ne voit pas d'obstacle absolu.
Le débat autour d'une conscience potentielle qui finirait par émerger dans un système d'intelligence artificielle a repris de la vigueur avec les récents développements du secteur. Mais pour le patron de l'IA chez Microsoft, c'est une question mal posée. Il assure qu'il y a une limite fondamentale qui empêchera l'IA d'être consciente.
Le débat autour d'une conscience potentielle qui finirait par émerger dans un système d'intelligence artificielle a repris de la vigueur avec les récents développements du secteur. Mais pour le patron de l'IA chez Microsoft, c'est une question mal posée. Il assure qu'il y a une limite fondamentale qui empêchera l'IA d'être consciente.
On connait Google pour ses produits et services grand public, mais l'entreprise est aussi très active dans la recherche fondamentale. Au point, d'ailleurs, que certains employés actuels ou passés ont fini par avoir un prix Nobel. En l'espace de deux ans, la firme de Mountain View est passée de zéro à cinq Nobel. Signe de son implication dans la tech de pointe.
On connait Google pour ses produits et services grand public, mais l'entreprise est aussi très active dans la recherche fondamentale. Au point, d'ailleurs, que certains employés actuels ou passés ont fini par avoir un prix Nobel. En l'espace de deux ans, la firme de Mountain View est passée de zéro à cinq Nobel. Signe de son implication dans la tech de pointe.
Que faire quand il n'existe pas un « YouTube pour les robots » sur lequel s'appuyer pour entraîner des robots ? Il faut en construire un. C'est l'approche suivie par la société de robotique Figure, qui va utiliser des caméras en vue subjective (POV).
Que faire quand il n'existe pas un « YouTube pour les robots » sur lequel s'appuyer pour entraîner des robots ? Il faut en construire un. C'est l'approche suivie par la société de robotique Figure, qui va utiliser des caméras en vue subjective (POV).
Emmanuel Macron a présenté l'Inde comme un partenaire central de la France dans l'intelligence artificielle. Une alliance entre Paris et New Delhi nécessaire pour échapper à la rivalité et à la domination de la Chine et des États-Unis. Mais ce rapprochement s'inscrit aussi dans une perspective géostratégique entre la France et l'Inde.
Emmanuel Macron a présenté l'Inde comme un partenaire central de la France dans l'intelligence artificielle. Une alliance entre Paris et New Delhi nécessaire pour échapper à la rivalité et à la domination de la Chine et des États-Unis. Mais ce rapprochement s'inscrit aussi dans une perspective géostratégique entre la France et l'Inde.
Les États-Unis vivent-ils un moment Spoutnik avec le modèle de langage chinois DeepSeek, qui s'est montré redoutable dans l'IA ? Peut-être. En tout cas, la Chine a vécu un évènement semblable il y a dix ans. Un « moment AlphaGo ». Et cela pourrait expliquer en partie l'existence de DeepSeek.
Les États-Unis vivent-ils un moment Spoutnik avec le modèle de langage chinois DeepSeek, qui s'est montré redoutable dans l'IA ? Peut-être. En tout cas, la Chine a vécu un évènement semblable il y a dix ans. Un « moment AlphaGo ». Et cela pourrait expliquer en partie l'existence de DeepSeek.
OpenAI se prépare à lancer un agent d'intelligence artificielle autonome capable de contrôler des ordinateurs et d'effectuer des tâches de manière indépendante
OpenAI se prépare à lancer un agent d'intelligence artificielle autonome capable de contrôler des ordinateurs et d'effectuer des tâches de manière indépendante
Une conférencière a fait une découverte particulière : la photo qu'elle a partagée en prévision d'un futur évènement dans lequel elle doit intervenir a été retravaillée par une intelligence artificielle. Il apparaît qu'elle a été légèrement sexualisée au passage. Une anecdote qui pose indirectement la question de la manière dont les IA génératives sont entraînées.
Une conférencière a fait une découverte particulière : la photo qu'elle a partagée en prévision d'un futur évènement dans lequel elle doit intervenir a été retravaillée par une intelligence artificielle. Il apparaît qu'elle a été légèrement sexualisée au passage. Une anecdote qui pose indirectement la question de la manière dont les IA génératives sont entraînées.
Le prix Nobel de physique 2024 a été décerné à John Hopfield et Geoffrey Hinton pour leurs travaux fondateurs sur les réseaux de neurones artificiels. Aujourd'hui, les chercheurs poursuivent dans cette voie en explorant les défis actuels, notamment en combinant des briques logicielles et matérielles pour émuler le cerveau.
Le prix Nobel de physique 2024 a été décerné à John Hopfield et Geoffrey Hinton pour leurs travaux fondateurs sur les réseaux de neurones artificiels. Aujourd'hui, les chercheurs poursuivent dans cette voie en explorant les défis actuels, notamment en combinant des briques logicielles et matérielles pour émuler le cerveau.
Un modèle d’apprentissage profond a démontré une performance équivalente à celle d’un radiologue abdominal dans la détection du cancer de la prostate cliniquement significatif à l’IRM, selon une étude récemment publiée dans Radiology, une revue de la Radiological Society of North America (RSNA). Ce modèle pourrait être utilisé, selon les chercheurs de la Mayo Clinic, en complément des radiologues pour améliorer la détection du cancer de la prostate.
Le cancer de la prostate est le deuxième cance
Un modèle d’apprentissage profond a démontré une performance équivalente à celle d’un radiologue abdominal dans la détection du cancer de la prostate cliniquement significatif à l’IRM, selon une étude récemment publiée dans Radiology, une revue de la Radiological Society of North America (RSNA). Ce modèle pourrait être utilisé, selon les chercheurs de la Mayo Clinic, en complément des radiologues pour améliorer la détection du cancer de la prostate.
Le cancer de la prostate est le deuxième cancer le plus fréquent chez les hommes dans le monde. En France, avec environ 53 000 nouveaux cas par an, il est non seulement le cancer le plus fréquent chez l’homme mais aussi dans l’ensemble de la population française.
L’IRM multiparamétrique, qui fait appel à des méthodes complémentaires d’imagerie, est aujourd’hui l’outil principal utilisé par les radiologues pour diagnostiquer le cancer de la prostate, les résultats étant exprimés via le système PI-RADS (Prostate Imaging-Reporting and Data System) version 2.1. Toutefois, ce système présente certaines limites dans la classification des lésions.
Selon le Dr Naoki Takahashi, principal auteur de l’étude et membre du département de radiologie de la Mayo Clinic à Rochester, au Minnesota :
“L’interprétation de l’IRM de la prostate est complexe. Les radiologues les plus expérimentés obtiennent généralement de meilleures performances diagnostiques”.
Les algorithmes d’IA appliqués à l’IRM de la prostate ont montré un potentiel prometteur pour améliorer la détection du cancer tout en réduisant la variabilité entre les observateurs. Cependant, les approches actuelles d’IA nécessitent souvent que les lésions soient annotées par un radiologue ou un pathologiste, ce qui alourdit le processus de développement et de mise en œuvre clinique.
Pour le Dr Takahashi, ce processus est non seulement chronophage mais aussi difficile à corréler avec les résultats pathologiques. Il explique :
“Les radiologues annotent les lésions suspectes au moment de l’interprétation, mais ces annotations ne sont pas systématiquement disponibles, donc lorsque les chercheurs développent un modèle d’apprentissage profond, ils doivent en redessiner les contours. De plus, les chercheurs doivent corréler les résultats de l’imagerie avec le rapport de pathologie lors de la préparation de l’ensemble de données. Si plusieurs lésions sont présentes, il n’est pas toujours possible de corréler les lésions à l’IRM avec les résultats pathologiques correspondants”.
Pour surmonter ces défis, le Dr Takahashi et son équipe ont développé un nouveau modèle de deep learning capable de prédire la présence d’un cancer de la prostate cliniquement significatif sans nécessiter d’information sur l’emplacement précis des lésions. Ce modèle a été comparé aux performances de radiologues abdominaux sur un grand groupe de patients sans cancer de la prostate cliniquement significatif connu, ayant subi une IRM sur plusieurs sites d’un seul établissement universitaire.
L’étude a utilisé un réseau neuronal convolutif (CNN) pour analyser les IRM multiparamétriques. Parmi 5 735 examens effectués sur 5 215 patients, 1 514 ont révélé un cancer de la prostate cliniquement significatif. Les résultats montrent que le modèle d’IA atteint une performance similaire à celle des radiologues expérimentés tant sur des ensembles de tests internes qu’externes.
La combinaison des prédictions du modèle de deep learning avec les résultats des radiologues a surpassé les performances des radiologues seuls. Pour localiser les tumeurs, les chercheurs ont utilisé une carte d’activation de classe pondérée par gradient (Grad-CAM). Cette méthode a permis de localiser avec précision les lésions cliniquement significatives lors des examens positifs.
Le Dr Takahashi voit ce modèle comme un outil d’assistance, capable d’améliorer la précision des diagnostics tout en réduisant les faux positifs. Il précise :
“Ce modèle ne peut pas être utilisé comme un outil de diagnostic autonome. Il est plutôt destiné à compléter le processus décisionnel des radiologues”.
L’équipe de recherche a également élargi son ensemble de données, doublant le nombre de cas étudiés. La prochaine étape sera une étude prospective pour observer comment les radiologues interagissent avec ce modèle et évaluer si cette collaboration améliore les performances diagnostiques par rapport à l’interprétation traditionnelle.
Références de l’article :
“Modèle d’apprentissage profond entièrement automatisé pour détecter le cancer de la prostate cliniquement significatif à l’IRM”. Radiology, https://doi.org/10.1148/radiol.232635
Auteurs :
Jason C. Cai, Hirotsugu Nakai, Shiba Kuanar, Adam T. Froemming, Candice W. Bolan, Akira Kawashima, Hiroaki Takahashi, Lance A. Mynderse, Chandler D. Dora, Mitchell R. Humphreys, Panagiotis Korfiatis, Pouria Rouzrokh, Alexander K. Bratt, Gian Marco Conte, MD, Ph.D., Bradley J. Erickson, Naoki Takahashi.
Affiliations :
Départements de radiologie (J.C.C., H.N., S.K., A.T.F., H.T., P.K., P.R., A.K.B., G.M.C., B.J.E., N.T.) et d’urologie (L.A.M.), Mayo Clinic, 200 First St SW, Rochester, MN 55905 ; Département de radiologie, Massachusetts General Hospital, Boston, Massachusetts (J.C.C.) ;
Départements de radiologie (C.W.B.) et d’urologie (C.D.D.), Mayo Clinic, Jacksonville, Floride ;
Départements de radiologie (A.K.) et d’urologie (M.R.H.), Mayo Clinic, Scottsdale, Arizona.
IA et santé un modèle de deep learning pour aider les radiologues à détecter le cancer de la prostate
La Finlande a lancé sa stratégie en matière d’IA en 2017 pour stimuler la recherche et l’éducation dans le domaine. Avec ses 5,5 millions d’habitants, le pays des Mille Lacs vise à devenir un pays leader en matière d’IA. Il se place en deuxième position parmi les pays européens, comptant le plus grand nombre d’experts en IA par habitant (LinkedIn Economic Graph 2019). Focus donc sur la Finlande qui mise sur un niveau élevé de formation et de coopération active entre les acteurs afin de créer un
La Finlande a lancé sa stratégie en matière d’IA en 2017 pour stimuler la recherche et l’éducation dans le domaine. Avec ses 5,5 millions d’habitants, le pays des Mille Lacs vise à devenir un pays leader en matière d’IA. Il se place en deuxième position parmi les pays européens, comptant le plus grand nombre d’experts en IA par habitant (LinkedIn Economic Graph 2019). Focus donc sur la Finlande qui mise sur un niveau élevé de formation et de coopération active entre les acteurs afin de créer un environnement de recherche et d’innovation dynamique et attractif.
Une stratégie avant-gardiste
L’intérêt de la Finlande pour les nouvelles technologies ne date pas d’hier, bien au contraire. Nokia a été durant de nombreuses années l’image de marque du pays, sans compter le dynamique tissu académique et entrepreneurial.
Considérée comme avant-gardiste en matière de révolution numérique et d’innovation, notamment grâce à des initiatives et politiques ambitieuses autour du numérique, la Finlande a su mobiliser sa population, son administration et ses entreprises autour de la diffusion des technologies numériques, via l’accès aux données publiques ou l’attention particulière portée au système éducatif.
La transformation numérique et le développement des technologies d’IA ont permis la mise en place d’initiatives et de programmes comme AuroraAI, lancé par le ministère finlandais des Finances, et qui vise à aider les citoyens et les entreprises en leur proposant des services axés sur leurs besoins. Cet intérêt pour l’IA répond au potentiel économique important du domaine. Plusieurs études indiquaient en effet dès 2017 que l’IA pourrait permettre à la Finlande de doubler son taux de croissance économique d’ici 2035 (Accenture et Frontier Economics 2017).
Le pays serait en effet la deuxième économie mondiale ayant potentiellement le plus à gagner du développement de l’IA, derrière les États-Unis.
Pour que ces analyses deviennent réalité, le gouvernement finlandais a donc mis en place dès 2017 un plan d’action en trois volets :
un groupe d’experts, d’acteurs et de personnalités académiques, scientifiques et économiques, sous l’égide du ministère de l’Économie et de l’Emploi, chargé de proposer des recommandations pour le développement de l’IA en Finlande ;
un programme IA ;
une enveloppe de 200 millions d’euros sur la période 2018-2021, inscrite au budget de Business Finland.
Business Finland est l’organisation gouvernementale finlandaise pour le financement de l’innovation et la promotion du commerce, des voyages et des investissements. Cette agence publique est au cœur de la stratégie de développement finlandais. Cette organisation gouvernementale est chargée notamment du financement de l’innovation et des startups dans le domaine de l’IA. Le programme AI Business dirigé par Outi Keski-Äijö est l’une des initiatives lancées par le programme national d’intelligence artificielle de 2017. Prévu de 2018 à fin 2021, il a à ce jour aidé plus de 300 entreprises d’IA, ce qui représente environ 200 millions d’euros de financement. Ce programme vise à soutenir les startups et à augmenter l’attractivité du pays pour la recherche et le développement de l’IA.
La formation comme priorité
Quand on évoque la recherche en IA en Finlande, on ne peut ignorer Teuvo Kohonen, académicien, chercheur et professeur émérite à l’Académie de Finlande. Spécialiste des réseaux neuronaux artificiels, il a travaillé sur l’algorithme du Learning Vector Quantization basé sur la quantification vectorielle ou encore sur la théorie fondamentale sur la mémoire. Il a également présenté la carte autoadaptative dite « carte de Kohonen » dans les années 1980, qui a marqué l’histoire de la recherche sur les réseaux de neurones et la reconnaissance de formes en Finlande.
Ces dernières années, plus de 6300 étudiants suivaient au moins un cours d’IA dans le cadre de leur formation. Les grandes universités finlandaises proposent près de 250 cours individuels d’IA et plus de 40 formations de niveau master, 19 programmes de niveau licence et 3 programmes de doctorat. Il faut ajouter à celles-ci les 26 formations dispensées par les grandes écoles spécialisées et le Centre de recherche technique VTT de Finlande.
À l’heure actuelle, plusieurs universités finlandaises proposent un enseignement de haut niveau sur l’IA. Elles misent notamment sur des opportunités d’apprentissage accessibles et sur l’attrait des citoyens pour le numérique, grâce notamment à des cours publics gratuits en ligne comme Elements of AI.
Sensibiliser la population aux enjeux de l’intelligence artificielle est l’objectif de la Finlande pour développer la recherche et le développement d’activités et de solutions sur un secteur économique en plein essor et au potentiel élevé.
C’est un sujet sur lequel l’Académie de Finlande s’est positionnée via son programme ICT 2023 pour la R&D et l’innovation et pour renforcer les connaissances et les applications en machine learning, internet industriel, technologies et services de santé innovants centrés sur l’utilisateur. Des centres de recherches comme l’Institut d’informatique d’Helsinki (HIIT), se sont rapidement développés pour accueillir les chercheurs et les entreprises.
Elements of AI
Lancée début 2018 par l’université d’Helsinki, Elements of AI est une série de MOOCs conçue en collaboration avec la société Reaktor. Elle a été classée no 1 mondial par le portail de cours en ligne Class Central et Forbes et a remporté le grand prix Inclusive Innovation Challenge du MIT. Les cours peuvent être suivis au rythme de chacun et combinent théorie et exercices pratiques.
Le premier volet, Introduction to AI, permet de se familiariser avec le machine learning, les réseaux de neurones, la résolution de problèmes grâce à l’IA ou encore la philosophie de l’IA. Plus de 1 % de la population finlandaise a été formée aux bases de l’IA grâce à ce cours en ligne gratuit. À l’occasion de la présidence finlandaise du Conseil de l’Union européenne en 2019, le MOOC a été traduit dans de nombreuses langues pour permettre aux citoyens européens de se former eux aussi aux bases de l’IA. Pour sa version française, le partenaire de cette initiative a été Sorbonne-Université.
L’an dernier, Elements of AI a partagé son nouveau MOOC, Building AI, qui permet de découvrir les algorithmes servant à créer des méthodes d’IA. Certaines compétences de base en programmation Python sont recommandées pour tirer le meilleur parti du cours. Depuis son lancement, Elements of AI a formé près de 620 000 personnes, et diplômé des étudiants de plus de 170 pays. À noter que 40 % des participants aux cours sont des femmes, soit plus du double de la moyenne des cours d’informatique.
Le MOOC Ethics of AI lancé par l’université d’Helsinki fin 2020 s’intéresse quant à lui à l’éthique de l’intelligence artificielle et propose des textes, des exercices et un grand nombre de cas réels illustrant différents points de vue éthiques.
Faciliter l’accès aux supercalculateurs
Le CSC (IT Center for Science), basé à Kajaani, se présente comme l’un des plus grands acteurs mondiaux dans le domaine du calcul haute performance. Cette entreprise publique à but non lucratif abrite le système national de calcul et de gestion des données de la Finlande et a été choisie pour accueillir l’un des trois supercalculateurs pré-exascale de l’initiative EuroHPC.
Un projet de 200 millions d’euros financé à 50 % par la Commission européenne et à 50 % par les dix pays participants. Le supercalculateur LUMI, installé en 2021, disposera d’une puissance de calcul crête de 552 petaflops, soit 552 millions de milliards d’opérations en virgule flottante par seconde.
Le CSC, qui fournit déjà aux startups finlandaises des ressources informatiques gratuites pour leurs projets de recherche grâce à la subvention informatique de Business Finland, réservera 20 % de la capacité de calcul de LUMI aux industriels et PME-PMI.
Le Centre finlandais pour l’intelligence artificielle (FCAI)
Le FCAI est l’un des programmes phare de l’Académie de Finlande. Il rassemble des experts académiques, industriels et venant du secteur public, travaillant notamment sur l’Agile probabilistic AI, la Simulator-based inference, le Next-generation data-efficient deep learning, la Privacy-preserving and secure AI, l’IA interactive, l’IA autonome et l’IA dans la société.
Le centre dispose d’un budget de 250 millions d’euros pour 2019-2026, il est devenu l’un des pôles d’innovation numérique de la Commission européenne (AI DIH) formé par une communauté d’experts de l’université Aalto, de l’université d’Helsinki et de VTT.
Le FCAI, le Tampere AI Hub et l’Académie AI de l’université de Turku, entre autres, ainsi que des initiatives régionales et d’autres accélérateurs ont également pour objectif de transférer efficacement les compétences aux startups et entreprises afin de stimuler la commercialisation de l’IA et accélérer son déploie-ment.
Un écosystème entrepreneurial innovant et dynamique
La Finlande compte plus de 300 startups IA dans différents domaines commerciaux. Les liens avec la recherche acadé-mique, les organismes de recherche et les acteurs publics sont particulièrement renforcés pour que les jeunes pousses puissent accéder à toutes les clés pour s’inscrire dans les marchés et créer de nouveaux secteurs porteurs. La région d’Helsinki a notamment été reconnue comme l’un des plus importants écosystèmes de démarrage d’IA en Europe.
Les entreprises peuvent compter sur de larges bases de données mises à disposition des entreprises afin de susciter une plus grande et plus rapide adoption de l’IA dans le pays.
Les startups finlandaises essaient de capitaliser sur les traditions de recherche, en reconnaissance des formes, en TAL ou en vision industrielle par exemple, et sur les coopérations entre secteurs. La société de radiodiffusion nationale finlandaise (YLE) a lancé l’an dernier une campagne de collecte du finnois parlé dans tout le pays afin que les algorithmes puissent apprendre à comprendre et à reconnaître les spécificités langagières.
En matière de collaboration, les exemples ne manquent pas. La société Bilot a développé un modèle pour YIT, la plus grande entreprise de construction de Finlande, afin d’optimiser les procédures de maintenance sur les routes et les rues grâce au machine learning. Top Data Science a développé une solution d’analyse vidéo pour aider les sites japonais à gérer la distanciation sociale en cette période de pandémie.
De son côté, en collaboration avec la Banque mondiale, Headai a réalisé une analyse du marché du travail et une évaluation des lacunes dans les curriculum vitæ à l’aide de mégadonnées analysées par IA en Afrique, ce qui a permis de trouver des points d’action importants pour faire évoluer les formations universitaires et gagner en pertinence dans la vie professionnelle.
La startup Solita s’est appuyée sur son expertise en orthopédie et en IA pour développer avec Coxa Hospital for Joint Replacement le premier logiciel médical CE évaluant les risques d’une chirurgie articulaire pour un patient spécifique. Parallèlement, Silo AI a collaboré d’une part avec Philips pour le développement d’une solution de vision par ordinateur pour l’analyse des images IRM et d’autre part avec IDS, filiale d’Allianz, pour améliorer les flux de travail financiers, la prévisibilité et l’évaluation des risques.
Dans un secteur totalement différent, la startup Fourkind a créé en coopération avec la distillerie de whisky suédoise Mackmyra le premier whisky au monde entièrement développé par apprentissage automatique.
Focus sur deux start-ups
Awake.AI
La startup Awake.AI, créée en octobre 2018 et co-fondée par Karno Tenovuo, propose des solutions et des plateformes de données collaboratives et ouvertes pour faciliter la création d’écosystèmes pour les ports intelligents et l’évolution de la navigation autonome, augmenter l’efficacité opérationnelle et créer de nouveaux services numériques pour tous les acteurs de l’écosystème portuaire.
Partant du constat que plus de 90 % des exportations finlandaises transitent par les ports, Awake.AI s’est développée pour proposer le port intelligent et la plateforme d’expédition autonome les plus fiables au monde et un orchestrateur d’écosystème mondial d’ici 2025.
Silo AI
Silo AI, présenté comme étant le plus grand laboratoire privé de solutions d’IA des pays nordiques, s’est spécialisé dans la création d’une IA centrée sur l’humain en tant que service et cherchant à accélérer la coopération homme-machine pour l’intelligence collective.
L’origine de Silo AI remonte à la crise financière mondiale de 2009 lorsque Peter Sarlin (P.-D.G.) et son groupe de recherche ont conçu une solution d’IA permettant de préserver la stabilité financière de la Banque centrale européenne. En 2017, Tero Ojanperä, Ville Hulkko, Kaj-Mikael Björk, Juha Hulkko et Johan Kronberg se sont unis à Peter Sarlin pour former Silo AI.
Avec ses quelque 90 experts en IA, 50 doctorants et 100 projets en IA, le laboratoire a déployé ses solutions en Finlande et se développe à l’international en proposant une expertise et des outils de pointe, en particulier de vision par ordinateur, de traitement du langage naturel et d’apprentissage automatique.
Avec son projet Growth Engine, l’entreprise cherche à développer un écosystème rassemblant des experts en IA et des partenaires technologiques pour générer de nouvelles opportunités commerciales et mettre en avant l’expertise finlandaise, notamment sur les marchés internationaux.
Trois questions à Outi Keski-Äijö
Responsable du programme AI Business au sein de Business Finland
Quels secteurs de l’économie finlandaise pourraient bénéficier le plus des technologies basées sur l’IA ?
Notre stratégie étant d’être un leader mondial dans l’application de l’IA, nous visons une large adoption de l’IA à la fois dans les secteurs privé et public. Bien entendu, nos secteurs d’exportation sont les plus importants : les TIC, les machines intelligentes, les technologies propres (cleantech), les technologies de la santé et le transport maritime.
Les TIC et les technologies de la santé sont actuellement les domaines les plus avancés car plus de données sont disponibles. De nouveaux secteurs tels que celui des véhicules autonomes font également leur apparition.
La coopération entre le monde académique et l’entreprise semble particulièrement forte en Finlande, comme se traduit-elle concrètement ?
Nous avons une longue tradition de coopération étroite entre les universitaires et les entreprises en Finlande. Nous promouvons également cette coopération par le biais de nos instruments de financement de Business Finland. En outre, nous avons encouragé les universités à créer des centres d’IA afin de transférer efficacement les connaissances et les résultats de la recherche sur l’IA aux entreprises. Ces centres proposent aux entreprises des formations, des ateliers et des conseils en IA. De plus, de nombreux chercheurs en IA se lancent dans les affaires, en particulier en fondant de nouvelles startups.
Quelle est la dernière entreprise ou projet finlandais d’IA qui vous a personnellement étonné ?
J’en citerai deux : le résultat significatif d’un projet de recherche de la FCAI et une entreprise finlandaise de technologie de la santé qui a réussi à combiner l’IA avec d’autres résultats de recherche. Twinify est l’une des réussites de la FCAI. Les chercheurs ont développé une méthode basée sur l’apprentissage automatique qui crée un jumeau de données synthétiques d’un ensemble de données d’origine en conservant toutes les propriétés statistiques de l’ensemble de données d’origine. Cela permet le partage de données sans compromettre la confidentialité. Ceci est particulièrement important dans la recherche en santé, et il peut être appliqué à tous les secteurs.
Deep Sensing Algorithms est une société finlandaise qui a développé grâce à l’IA un dispositif de poche d’analyse de l’haleine pour participer à la lutte contre le Covid-19. Destiné à sa détection par les professionnels de santé et en particulier aux dépistages rapides pour de grandes foules, il est capable de tester une personne toutes les deux minutes.
Focus pays Finlande le pari de l’éducation et de la coopération
Cet article a été par Ludovic Denoyer. Il est chercheur scientifique au FAIR, se concentrant principalement sur divers problèmes d’apprentissage automatique, en particulier sur l’apprentissage par renforcement et l’interaction homme-machine. Il était auparavant professeur à Sorbonne Universités.
Rendre plus simple la programmation d’algorithmes d’apprentissage par renforcement à l’aide des principes de l’apprentissage supervisé : la librairie « RLStructures ».
Dans le cadre des jeux olympiques
Cet article a été par Ludovic Denoyer. Il est chercheur scientifique au FAIR, se concentrant principalement sur divers problèmes d’apprentissage automatique, en particulier sur l’apprentissage par renforcement et l’interaction homme-machine. Il était auparavant professeur à Sorbonne Universités.
Rendre plus simple la programmation d’algorithmes d’apprentissage par renforcement à l’aide des principes de l’apprentissage supervisé : la librairie « RLStructures ».
Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.
L’un des facteurs-clés du succès de l’apprentissage profond (deep learning) est la facilité avec laquelle ce paradigme permet de mettre en application de nouvelles idées et de les expérimenter concrètement sur de volumineux jeux de données. Nous avons en effet assisté à l’émergence conjointe d’avancées déterminantes du côté hardware, avec la mise à disposition de processeurs graphiques (GPUs) à bas coût particulièrement adaptés aux calculs vectoriels et matriciels, ainsi que du côté software, à travers la création de multiples librairies d’autodifférenciation (Theano, Torch, puis TensorFlow, PyTorch, Jax, etc.), permettant de faciliter grandement la programmation d’algorithmes d’apprentissage statistique.
Ainsi, il est désormais possible d’implémenter en quelques heures ce qui pouvait prendre des semaines quelques années auparavant. L’explosion récente du deep learning est au moins autant liée à ces progrès d’infrastructures hardware et software qu’aux progrès conceptuels ou algorithmiques.
Cependant, le deep learning s’attaque principalement à des problématiques d’apprentissage à partir de jeux de données. D’autres cadres d’apprentissage ne sont pas au même point de maturité et ne disposent pas d’outils équivalents. C’est le cas de l’apprentissage par renforcement dont l’objectif est d’acquérir un comportement à partir d’interactions avec un environnement. Popularisé ces dernières années à travers les résultats obtenus sur des problèmes symboliques de l’intelligence artificielle tel que le jeu de go ou les échecs, son cadre est très prometteur car il permet de modéliser des systèmes en interaction (avec d’autres systèmes, des utilisateurs, etc.).
En effet, de nombreuses applications nécessitent des systèmes permettant non pas de faire une prédiction sur une donnée, mais de produire des séquences cohérentes d’actions qui, ensemble, vont permettre d’aboutir à une solution. Ainsi, les algorithmes d’apprentissage par renforcement sont cruciaux dans des applications telles que la robotique, la recommandation, la conception de chatbots, la voiture autonome, etc. Ce domaine reste néanmoins aujourd’hui difficile à aborder, particulièrement dans ses aspects expérimentaux. Si les infrastructures hardware (multiples CPUs et GPUs) sont aujourd’hui souvent disponibles, les infrastructures logicielles sont quant à elles peu matures : l’appren-tissage par renforcement n’a pas encore fait sa révolution.
L’un des enjeux du domaine actuellement est d’extraire des principes-clés de programmation des algorithmes de renforcement sur lesquels il serait possible de bâtir des librairies aussi simples et efficaces que celles dont nous disposons en deep learning. Cela permettrait de démocratiser ce domaine encore trop confidentiel et donc d’y accélérer massivement la recherche et l’utilisation pratique d’algorithmes, ouvrant le champ des possibles de l’IA à des applications bien plus complexes que celles traitées actuellement.
Les librairies de deep learning
Les algorithmes d’apprentissage à partir de données reposent sur quatre composants principaux : 1. un jeu de données. 2. un modèle de prédiction. 3. une fonction de coût permettant de mesurer la qualité du modèle de prédiction, et 4. un algorithme d’optimisation dont l’objectif est de définir (d’apprendre) le meilleur modèle, c’est-à-dire celui dont le coût de prédiction est le plus faible.
Pendant très longtemps, la difficulté de mise en œuvre expérimentale ou en production de ces modèles venait du fait que chaque nouvelle idée avait une incidence sur plusieurs de ces composants, nécessitant un travail d’adaptation fastidieux et coûteux. Le deep learning a démocratisé l’utilisation d’une famille particulière de modèles très expressive, les réseaux de neurones, associés à un algorithme d’optimisation précis, la descente de gradient, permettant d’automatiser de grandes parties de ce processus.
Figure 1 : Exemple d’implémentation d’algorithmes de deep learning (à la’ PyTorch). Les quatre composants décrits apparaissent explicitement, et le programmeur implémente différentes idées en modifiant l’architecture du modèle (fonction ‘build_my_neural_ network’) ou la fonction de coût (fonction ‘my_loss_function’). La librairie de deep learning automatise i) le calcul du gradient (compute_gradient) et ii) la lecture des données (DataLoader).
Construites autour de composants logiciels permettant de faire de la différenciation automatique, les librairies actuelles de deep learning permettent de simplifier grandement les composants 2., 3. et 4. décrits précédemment. Concrètement, le programmeur n’a plus qu’à définir une architecture de modèle, une fonction de coût appropriée à son application, la librairie prendra en charge le reste, permettant l’apprentissage aussi bien sur CPU que sur GPU, voire sur plusieurs GPUs simultanément. Enfin, les librairies proposent aussi des composants logiciels souvent peu mis en avant mais essentiels : les data-loaders.
Ces composants permettent l’ingestion par les algorithmes d’apprentissage de volumineux jeux de données à haute vitesse grâce à la parallélisation de la lecture des données et leur agrégation (batching) automatique, et ce de façon complètement transparente pour le programmeur. Cet exemple de code permettant l’apprentissage d’un modèle en figure 1 nous montre que quelques lignes suffisent pour être en mesure d’implémenter un modèle et de l’apprendre sur de grandes quantités de données.
Les difficultés de l’apprentissage par renforcement
En comparaison de l’apprentissage supervisé classique, l’apprentissage par renforcement revêt de nombreuses difficultés.
1) La première d’entre elles est celle dite du credit assignment, c’est-à-dire la détection (et le renforcement) des actions déterminantes pour l’obtention d’une grande récompense. En effet, l’agent doit effectuer de multiples actions, et réussir à ‘comprendre’ parmi elles quelles sont les bonnes et quelles sont les mauvaises, alors même que les conséquences de ces actions ne pourront être observées que bien plus tard dans la vie de l’agent.
2) La seconde difficulté est celle dite du dilemme exploration/exploitation : afin de pouvoir trouver des comportement efficaces, un agent doit explorer l’environnement dans lequel il s’exécute. Mais, afin d’éviter une exploration inefficace ou trop coûteuse en termes de temps, il est aussi important pour l’agent d’exploiter l’information collectée afin de se focaliser sur des comportements ‘prometteurs’.
3) Enfin un troisième problème fréquemment rencontré est celui de l’observation partielle de l’environnement : l’agent observe à l’instant t une information uniquement partielle qui ne lui permet pas de se ‘localiser’ facilement dans l’environnement (prenons l’exemple d’un robot face à un mur blanc, qui n’observe donc qu’une image blanche et ignore de ce fait où il se trouve précisément).
Ces trois problèmes fondamentaux qui différencient l’apprentissage par renforcement de l’apprentissage supervisé classique font actuellement l’objet de multiples directions de recherche.
Figure 2 : Apprentissage supervisé (PyTorch) et apprentissage par renforcement en RLStructures
L’apprentissage par renforcement
L’apprentissage par renforcement est un cadre d’apprentissage différent de l’apprentissage à partir de données, modélisant l’interaction d’un agent avec un environnement (figure 2). À chaque itération, l’agent observe l’environnement et doit choisir quelle action effectuer. Après la mise en œuvre de son action, il reçoit une récompense immédiate. L’objectif de l’apprentissage est de trouver le meilleur agent, c’est-à-dire celui qui va recevoir le plus grand nombre de récompenses cumulées durant un épisode d’interaction. Contrairement à l’apprentissage supervisé classique, la complexité du problème vient du fait que les prédictions (les actions) faites par le modèle peuvent avoir des conséquences plus tard dans la ‘vie’ de l’agent, rendant la compréhension d’une action à entreprendre, et à quel moment, très difficile.
Ainsi décrit, ce cadre semble très différent du cadre de deep learning présenté précédemment. Les abstractions proposées dans les librairies de deep learning classiques ne sont pas appropriées et ne peuvent être utilisées facilement pour implémenter des algorithmes d’apprentissage par renforcement. Si nous observons les librairies d’apprentissage par renforcement disponibles actuellement, nous constatons que la plupart d’entre elles visent naturellement à abstraire les concepts spécifiques du domaine (environnement, politique, agent), leur utilisation nécessite donc un prix d’entrée important. Par exemple, l’algorithme d’apprentissage est souvent inclus dans l’agent lui-même, rendant l’apprentissage et l’acquisition de données interdépendants, ou bien les structures de données sont spécifiques à certains types de problèmes et ne peuvent être utilisées dans des cadres plus hétérogènes d’apprentissage par renforcement.
Cependant, à y regarder de plus près, le cadre de l’apprentissage par renforcement présente de multiples similitudes avec l’apprentissage à partir de données. Tout comme en deep learning, un algorithme d’apprentissage par renforcement nécessité :
a) des données, traces d’interaction entre des agents et des environnements et produites ici aussi à grande vitesse ;
b) un modèle de prédiction correspondant à un agent décideur d’actions à effectuer en fonction des observations.
Enfin, la grande majorité des algorithmes existants peuvent être exprimés à travers une fonction de coût (composant c) calculé sur des traces d’interactions, et optimisé par descente de gradient (composant d). Peut-on alors programmer les algorithmes d’apprentissage par renforcement de manière similaire à ceux du deep learning, facilitant par là même leur compréhension ? Quelles en sont les différences ?
La première différence provient de la nature des données traitées. Là où le deep learning représente les données considérées comme indépendantes les unes des autres, l’apprentissage par renforcement traite des trajectoires, c’est-à-dire des séquences temporelles de données complexes (observations, actions, récompenses, etc.). Il est donc nécessaire de pouvoir décrire ce type de données facilement.
La deuxième différence se situe dans la nature du modèle de prédiction : là ou le deep learning produit une prédiction à partir d’une donnée unique, un agent produit une action à partir d’un historique d’interactions, c’est-à-dire à partir des observations et actions rencontrées tout au long d’un épisode. Un modèle doit donc avoir accès à son histoire, aux observations et actions produites précédemment.
Enfin, la troisième différence provient du processus d’acquisition des données : là où les librairies de deep learning classiques proposent des data loaders permettant le chargement rapide de grands jeux de données, il est nécessaire en apprentissage par renforcement de pouvoir échantillonner rapidement des traces d’interactions entre plusieurs politiques et plusieurs environnements à grande vitesse.
Ce processus d’échantillonnage est certainement la partie la plus coûteuse en termes de développement pour un programmeur qui initie un nouveau projet en apprentissage par renforcement, car il implique de pouvoir simuler les interactions entre des agents et des environnements, tout en capturant les informations nécessaires à la mise à jour des agents par apprentissage.
La librairie RLStructures
La librairie RLStructures vise à faciliter le passage de l’idée à l’expérimentation le plus efficacement possible. Elle propose une solution aux trois problèmes identifiés précédemment, et permet d’implémenter des algorithmes aussi facilement qu’en deep learning, reprenant les principes des librairies classiques (PyTorch dans notre cas) en les étendant au cas de l’apprentissage par renforcement.
Figure 3 : Exemple d’implémentation d’algorithme d’apprentissage par renforcement (‘à la’ RLStructures). Les 4 composants apparaissent explicitement, la librairie de deep learning prenant en charge le calcul du gradient, et RLStructures (Batcher) prenant en charge l’acquisition de données par des agents sur des environnements.
Le schéma reste très similaire à la boucle d’apprentissage de la figure 1, permettant une familiarisation aisée.
Conformément à cette description, elle est fondée sur trois composants génériques :
a) elle étend les tenseurs et fournit une structure de données simple et flexible permettant de modéliser des informations complexes (e.g. actions structurées, observations complexes, etc.) ;
b) elle propose une abstraction permettant d’implémenter des agents, notamment à l’aide de réseaux de neurones ;
c) elle fournit un unique composant d’échantillonnage permettant l’acquisition de traces d’interactions entre de multiples agents et environnements à haute vitesse (plusieurs CPUs et GPUs simultanément), à travers la parallélisation sur plusieurs processus.
Assemblés, ces composants simples permettent l’écriture d’algorithmes d’apprentissage par renforcement de manière très similaire à la méthode utilisée en deep learning classique (cf. figure 3).
Se familiariser avec cette librairie et l’utiliser pour implémenter de nouvelles idées devient facile, y compris dans des cadres moins conventionnels tels que l’apprentissage par renforcement non supervisé, les politiques hiérarchiques, l’apprentissage de populations de politiques, etc.
La librairie propose par ailleurs des exemples concrets d’implémentation d’algorithmes du domaine, permettant à un utilisateur de les modifier facilement à son gré, ainsi que des exemples d’utilisation de la librairie dans des cadres moins conventionnels.
Pour de plus amples informations, nous fournissons des tutoriaux et de multiples exemples d’algorithmes. Ludovic Denoyer est professeur à Sorbonne Université où il a longtemps dirigé le master DAC (Données, Apprentissage, Connaissances) axé sur le deep learning. Aujourd’hui détaché de l’université, il est research scientist au sein de Facebook artificial intelligence research (FAIR) et concentre sa recherche sur l’apprentissage par renforcement.
Les fonctionnalités de RLStructures
RLStructures est une librairie dont la principale caractéristique est de permettre à un programmeur d’implémenter des agents facilement, d’exécuter de multiples agents sur de multiples environnements en parallèle, et de récupérer les traces d’interactions facilitant la mise en place de nouveaux algorithmes.
Plus particulièrement, RLStructures permet :
• d’exécuter les agents et environnements sur plusieurs CPUs ou GPUs ;
• d’exécuter les agents de manière synchrone ou asynchrone, l’acquisition étant alors effectuée en tâche de fond, sans bloquer l’exécution du programme principal ;
• d’accéder à l’ensemble de l’épisode à chaque instant, afin par exemple de permettre l’implémentation de politiques basées sur des architectures de type transformers.
Par ailleurs, RLStructures fournit des fonctions de replay permettant de re-exécuter un agent sur des trajectoires précédemment acquises dans l’objectif de faciliter l’implémentation d’algorithmes dits off-policy.
Conclusion
Le deep learning et l’apprentissage par renforcement, souvent identifiés comme deux domaines distincts, partagent plus de similitudes qu’il n’y paraît. L’apprentissage par renforcement, plus complexe que l’apprentissage ‘classique’, est un domaine aujourd’hui suffisamment mature pour que nous puissions en extraire des principes-clés permettant de faciliter l’implémentation effective d’algorithmes nouveaux. RLStructures est une première tentative dans cette direction.
Elle permet dès à présent un gain de temps non négligeable durant le développement et peut être utilisée comme accélérateur de recherche. Elle peut aussi être envisagée comme cadre d’enseignement de l’apprentissage par renforcement.
Nous sommes impatients de voir comment elle évoluera dans les mois à venir, avec l’aide de la communauté.
Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :
Les différentes philosophies d’implémentation en RL
Frédéric Bardolle, à la tête de l’incubateur numérique du ministère des Armées, considère que « la qualité des intervenants est incroyable, et les sujets évoqués sont très variés et toujours passionnants. »
Mehdi Benhabri, haut fonctionnaire spécialiste des questions scientifiques et technologiques, résume sa participation en ces termes : « Le Paris Machine Learning est rapidement devenu l’un des plus grands rassemblements de France sur les thématiques de l’intelligence artificielle en général e
Frédéric Bardolle, à la tête de l’incubateur numérique du ministère des Armées, considère que « la qualité des intervenants est incroyable, et les sujets évoqués sont très variés et toujours passionnants. »
Mehdi Benhabri, haut fonctionnaire spécialiste des questions scientifiques et technologiques, résume sa participation en ces termes : « Le Paris Machine Learning est rapidement devenu l’un des plus grands rassemblements de France sur les thématiques de l’intelligence artificielle en général et du machine learning en particulier. Le dynamisme de ses animateurs a permis de mobiliser des compétences de haut niveau dans un cadre original et peu formel afin d’échanger de manière libre et approfondie, sans les rigidités et les contraintes du monde académique. »
Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.
Une identité et une charte
Au cours des réunions suivantes, nous peaufinons les valeurs de notre groupe et esquissons notre charte. À savoir une structure plate, sans cooptation. Son but est de donner aux membres le point de vue des chercheurs les plus prometteurs du domaine, d’éviter les discours de vendeurs de solutions techniques, de couper les pitchs et les présentations éclair à la mode dans les startups numériques. Mais également de filtrer et de rejeter sans ambiguïté les tentatives d’exploitation douteuses des algorithmes, parmi lesquelles : les algorithmes de détection d’orientation sexuelle, la recherche des traits du visage caractéristiques des criminels, ou encore la façon de dessiner un visage à partir de la voix.
L’Eurovision du machine learning chez Google
Un an plus tard, forts de nos mille premiers membres, Google nous ouvre les portes de son immense salle de conférence parisienne et met toute son infrastructure à disposition pour une soirée. Le défi ? Retransmettre les interventions des spécialistes IA en direct à Paris, Londres, Berlin et Zurich.
Le point d’orgue de la soirée est Andrew Ng, cofondateur de Google Brain, professeur à Stanford et star mondial de l’IA. Son credo ? « L’IA est une nouvelle électricité. Elle s’immisce dans tous les objets comme l’électricité l’a fait au début du siècle. »
Après cette première saison, le ton est donné. S’enchaînent au fil des sept saisons différents formats et déclinaisons, présentations à distance avec des chercheurs à l’autre bout du monde, hackathons, concours de code et hors-série thématiques : data journalism par le responsable data du New York Times, attaques adverses, finance algorithmique, automatic machine learning, robotique et IA, calcul haute performance.
Andrew Ng, professeur à Stanford, cofondateur de Google Brain (division de recherche fondamentale IA de Google) a très largement contribué à populariser les méthodes et les techniques de l’intelligence artificielle, particulièrement à travers son célèbre cours en ligne Coursera, passage obligé pour tous les codeurs d’IA.
Partage d’expertise
Cas d’usage d’entreprises et algorithmes data
En France et dans le monde, des communautés d’experts data et IA se constituent. Toulouse, Marseille, Nantes. Amsterdam, Stockholm, New York, Boston, San Francisco. Aucune ville n’est en reste. Pour quelle raison ? Parce que l’accélération prodigieuse du rythme d’apparition de technologies déstabilisantes provoque un besoin de formation et une soif de compréhension immédiate, peu en adéquation avec le rythme des formations longues.
En effet, ce que désirent les ingénieurs, les programmeurs et les entrepreneurs est de comprendre immédiatement ce qui est en train de se jouer et qui chamboule l’économie. Comment appliquer les algorithmes à leur métier ?
Quant à l’offre d’expertise, elle est tout aussi abondante.
Facteur H, l’humain dans la boucle
Au-delà d’une soif de connaissances techniques, le plaisir des rencontres informelles et du réseautage est un élément important. Gautier Marti, un Français spécialiste des algorithmes machine learning travaillant à Abou Dabi pour un fonds souverain nous confiait que « les rencontres du Paris Machine Learning sont une source de veille technologique. Elles permettent de découvrir de nouveaux outils et de confronter ses idées à la réalité ou à l’expérience d’autres experts. »
Lors de ces rencontres, des fondateurs d’entreprise se sont rencontrés et ont créé leur entreprise. Nicolas Gaude, cofondateur de la startup Prevision.io, fait part de son expérience en ces termes : « Ce fut pour moi un vrai déclic. Avec l’aide de Franck Bardol, d’Igor Carron et les conseils des experts présents, j’ai pu vraiment progresser techniquement et donner corps à mon projet. »
Jacques-Henri Gagnon, directeur adjoint des services culturels et chef des relations universitaires à l’ambassade du Canada à Paris, ajoute : « Le Paris Machine Learning m’a donné accès à ce large réseau et a aussi été le point de départ d’échanges franco-canadiens ce qui, dans mon sec-teur d’activité, est le cœur de métier. » Le groupe a fait office de facilitateur pour nombre de ses membres, des ingénieurs y ont été recrutés, des sociétés ont initié des partenariats et des rachats.
Pour conclure, cette phrase de Théodore Levitt, le père fondateur du marketing s’adressant à ses étudiants, résume bien l’esprit de cette communauté : « Le client ne veut pas une mèche de perceuse. Il veut un trou dans le mur. »
Jürgen Schmidhuber, découvreur des LSTM au début des années 2000, a rendu cet apprentissage possible grâce à des données temporelles, ordonnées et horodatées. Ses réseaux récurrents temporels LSTM analysent désormais les données de capteurs des chaînes de production d’usines et permettent de prédire les valeurs futures. On lui doit le traitement efficace des motifs temporels à l’aide de réseaux de neurones spécialisés. Il était revenu sur la genèse de sa découverte dans une réunion et avait partagé les voies d’amélioration de ses méthodes. L’avenir lui a donné raison. Depuis lors, les architectures transformers ont révolutionné la traduction automatique et tout le traitement du langage par des algorithmes.
Gaël Varoquaux, Alexandre Gramfort et Olivier Grisel : ce trio d’ingénieurs et scientifiques français est la tête pensante de la librairie machine learning la plus utilisée au monde, dont les statistiques sont impressionnantes.
C’est la seconde librairie la plus téléchargée au monde derrière la célèbre TensorFlow de Google, avec 700 000 utilisateurs et 42 millions de visites sur le site internet. Son nom ? Scikit-learn. Tous les codeurs du machine learning ne jurent que par elle. Son mérite est de mettre à disposition de n’importe quel programmeur des millions de lignes de code optimisées, pensées et calibrées par les plus grands spécialistes de l’ingénierie. Son prix ? Inestimable. Elle est gratuite et en open source. Elle représente la plus grande réussite de démocratisation du machine learning.
De nombreuses années en arrière, ces trois chercheurs étaient venus initier les membres du Paris Machine Learning au fonctionnement de leur outil Scikit-learn dès la première réunion.
Alexandre Gramfort nous confiait que « cela a été pour moi une belle opportunité de présenter ma recherche. » Depuis, Alexandre, Gaël et Olivier ont été récompensés par le prix Inria – Académie des sciences.
François Chollet, malgré son jeune âge, est une star de l’IA. Et pour cause, ce Français, chercheur chez Google Brain, a écrit la librairie de deep learning nommée Keras. L’avantage de cette librairie est de simplifier et masquer la complexité du deep learning. Le même esprit que Scikit-learn en somme. La reconnaissance ne s’est pas fait attendre. Désormais, Keras est livrée par Google en même temps que les autres programmes deep learning de cette société. Nous l’avions reçu dans une réunion hors-série qui lui était consacrée. François Chollet est également l’auteur d’un ouvrage de référence sur le deep learning. Jacqueline Forien a traduit cet ouvrage en français¹ et poursuit ainsi la démocratisation des algorithmes IA.
Yoshua Bengio, un des co-découvreurs du deep learning, avait évoqué dans une réunion les difficultés d’apprentissage ainsi que les solutions envisagées.
À cette période, le deep learning était encore balbutiant. Ce n’est désormais plus le cas et nous le devons en grande partie à ses travaux.
Les algorithmes de ces découvreurs fonctionnent au quotidien et inspirent les logiciels IA d’entreprises. Leur passage par le Paris Machine Learning a été une source profonde d’inspiration.
Les algorithmes d’apprentissage ont révolutionné des pans entiers de l’ingénierie et rendu possible ce qui tenait jusqu’alors du domaine du rêve des ingénieurs.
La robotique dans tous ses états
La robotique figure en bonne position dans ce chamboulement. Pierre Sermanet, jeune chercheur français dans le groupe robotique de Google² y avait consacré plusieurs conférences. « Mes recherches explorent l’intersection du langage³ et du jeu et mobilisent de multiples mécanismes pour l’apprentissage robotique ». Interrogé sur l’avenir de sa discipline, il répond : « Les avancées récentes autour de l’apprentissage sur des données massives de langage non labellisées (notamment les modèles GPT d’OpenAI) sont impressionnantes et prometteuses, le même type d’approche appliquée à la vidéo et à la robotique me paraît très prometteur ».
Le coup de force du deep learning
S’il est un domaine qui a connu une véritable révolution, c’est bien l’analyse d’images.
Impossible de ne pas évoquer l’apport du machine learning dans l’analyse et la compréhension des images. Le point de bascule a lieu au moment de la fondation du Paris Machine Learning. Grâce à sa nouvelle méthode de réseaux de convolution, Geoffrey Hinton réalise un tour de force dans la compétition ImageNet. Il écrase les méthodes traditionnelles d’analyse d’images et y impose les techniques de deep learning comme nouveau standard.
Dominique Cardon, directeur du Médialab de Sciences Po et auteur d’un des ouvrages de référence⁴ sur le sujet, était venu nous en faire un récit épique au cours de la centième réunion du groupe tenue dans les locaux inspirants de la startup Scaleway. Voici quelques morceaux choisis de son récit publié depuis dans un article intitulé La revanche des neurones⁵.
« L’épisode est en passe de devenir légendaire dans l’histoire de l’informatique ». Un chercheur interrogé par Dominique Cardon se souvient : « En 2012, Hinton débarque dans la compétition ImageNet et crée un véritable séisme !
Il ne connaît rien au domaine de la vision par ordinateur et il embauche deux petits gars pour tout faire sauter !
À l’époque, les ingénieurs de computer vision s’excitent sur ImageNet depuis deux ou trois ans. Le meilleur d’entre eux était à 27 % d’erreurs. Hinton, lui, marque dix points à tout le monde ! Ce jeune geek arrive et annonce le résultat devant une salle bondée. Un ado qui ne comprend rien à ce domaine, enfermé dans ses algorithmes !
Tous les grands manitous du computer vision essaient de réagir : En fait c’est pas possible, ça va pas marcher… Au final, les mecs étaient tous abasourdis parce que grosso modo cela foutait en l’air dix ans d’intelligence, de tuning et de sophistication. »
Ce récit savoureux nous fait vivre de l’intérieur la révolution initiée par les algorithmes d’apprentissage. Les méthodes d’expertise manuelle fine sont balayées par la science “à la Google” qui allie big data et algorithmes IA.
Du laboratoire à la startup
Depuis, les ingénieurs et docteurs en IA ont transformé ces algorithmes encore balbutiants en produits finis redoutables d’efficacité. Des exemples ? LightOn, startup technologique cofondée par Igor Carron, révolutionne l’informatique grâce à sa puce optique. Le résultat ? Des calculs à la vitesse de la lumière et une empreinte énergétique minime grâce à sa technologie de rupture. Le meilleur des mondes en somme.
Meero, une autre pépite technologique, automatise la retouche photo grâce à ses algorithmes AI entraînés sur des millions de photographies. Jean-François Goudou, son directeur R&D nous avait décrit l’algorithme machine learning de restauration et d’amélioration automatique d’images lors d’une réunion au siège de Samsung. « Les premiers retours clients sont très très positifs. » nous confia-t-il.
Tony Pinville, fondateur, aux côtés de Charles Ollion, de Heuritech, une startup spécialiste de ces mêmes algorithmes IA d’analyse d’images, avait ouvert pour nous le capot de ses algorithmes. Il nous confie : « Le meetup Paris Machine Learning a été un mouvement précurseur de l’IA que Heuritech a eu la chance de rejoindre au tout début. », et ajoute : « Pour notre part, nous utilisons une technologie de reconnaissance visuelle qui analyse chaque jour plusieurs millions d’images de consommateurs et d’influenceurs sur les réseaux sociaux et les traduit en informations riches et pertinentes pour les marques de mode et de luxe.
Pour mieux créer leurs collections, ces marques ont besoin d’informations sur la prévision de tendances et de ventes. Heuritech souhaite combiner ces deux types de prédictions pour mieux les accompagner. » Depuis, la récompense est venue naturellement. Heuritech a reçu le prix LVMH de l’innovation des mains de Bernard Arnault.
Déplacement de l’expertise
Malgré ces succès et avancées spectaculaires, la fabrication des programmes de machine learning demeure artisanale et reste une affaire de spécialistes et d’experts. Les data scientists procèdent le plus souvent par tâtonnements et essais-erreurs lorsqu’ils élaborent un algorithme de machine learning.
C’est à ce déplacement de l’expertise auquel nous assistons depuis dix ans. Auparavant, le cœur de la création de valeur dans les entreprises était la production de règles métiers par les experts. Désormais, ces règles émergent des données grâce aux algorithmes auto-apprenants.
L’expertise des ingénieurs IA qui les conçoivent consiste à choisir l’algorithme le plus approprié pour un jeu de données particulier, puis à l’étalonner et à le dimensionner à la bonne puissance. Pour les entreprises qui mobilisent des technologies IA, la sélection d’algorithmes et d’architectures matérielles et logicielles s’est substituée à la conception des règles métiers traditionnelles.
Les programmes d’IA proposent une mécanisation de l’intuition et de la connaissance métier de l’expert humain. Nous en sommes au premier stade. Un courant de recherche visant à automatiser tout ou partie de la chaîne de fabrication des programmes d’IA s’est mis en place. Il s’agit du second stade, celui qui consiste à « automatiser l’automatisation ». En effet, en induisant la production automatique des règles par un programme d’ordinateur, le machine learning représente une automatisation de la pensée d’experts. Cette voie se nomme AutoML, pour Automatic Machine Learning.
L’AutoML, futur du machine learning ?
Le Paris Machine Learning a participé à l’organisation de concours et de hackathons AutoML. Ce fut le cas du concours RAMP du Paris-Saclay Center for Data dirigé par Balázs Kégl, intervenant lors d’une rencontre consacrée à l’apport du machine learning pour la physique théorique au laboratoire européen du Cern, la data au service des particules atomiques. Ou encore du concours ChaLearn organisé par Isabelle Guyon et du défi européen See.4C assorti d’un prix de deux millions d’euros pour les gagnants. Le laboratoire d’innovation ouverte La Paillasse hébergeait ces rencontres grâce au soutien énergique d’un de ces dirigeants, Sébastien Treguer.
Isabelle Guyon confie que le Paris Machine Learning « a facilité l’organisation de hackathons et la diffusion des challenges en machine learning. »
L’histoire ne s’arrête pas là. « La série de challenges AutoML a permis la création d’Auto-Sklearn⁶ ». En ce qui concerne le deep learning, « la série de challenges AutoDL a abouti à un self-service de deep learning automatisé. »
Pour nous, l’AutoML constitue un axe de développement majeur pour les années à venir. Tous les acteurs importants sont désormais entrés dans la course. Parmi les avancées récentes, citons les méthodes Neural Architecture Search (NAS), en particulier Neural Network Intelligence (NNI) de Microsoft, ou encore Evolved Transformer de Google.
Dans un futur proche, l’expertise technique du data scientist ne sera donc plus nécessaire pour construire des programmes auto-apprenants. Le programme de recherche intitulé Automatic statistician et conduit par Zoubin Ghahramani de l’université de Cambridge, en collaboration avec le MIT, illustre parfaitement cette vision. Ghahramani nous en avait partagé les méthodes et les enjeux.
À terme, seule sera nécessaire une équipe restreinte de data scientists chargés d’améliorer les procédés automatiques de découvertes de règles. Tous les autres redeviendront des programmeurs traditionnels. Ils fourniront des données d’entraînement et obtiendront en retour, sans aucune expertise en la matière, le meilleur programme IA imaginable.
Parmi ceux qui mettent au point ce type de service automatisé de haut niveau, Nicolas Gaude, précédemment cité, nous décrit son activité en ces termes : « Mon métier consiste avant tout à démocratiser l’usage de l’A en apportant aux entreprises à la fois les innovations techniques et la capacité de les mettre en production. Ce qui nous préoccupe, et de loin, est de rendre accessible et opérable le machine learning sur le long terme. »
Quand les algorithmes deviennent un sujet de société
Les algorithmes de machine learning interprètent le monde avec un filtre statistique afin de nous guider dans nos choix.
Ce faisant, ils agissent sur la société et en transforment les pratiques et les usages. Ainsi, lorsqu’un algorithme de GPS suggère aux automobilistes pressés un itinéraire secondaire moins encombré, il peut créer simultanément un problème d’aménagement du territoire, l’itinéraire secondaire n’étant pas dimensionné, par nature, à subir cette augmentation de trafic. De plus, les nuisances sonores et la pollution engendrées par ce dernier touchent les riverains. L’algorithme crée donc également un problème de santé publique.
Dominique Cardon résumait ces points en 2017 lors d’une conférence consacrée aux biais des algorithmes à l’institut Henri Poincaré. Selon lui, « les algorithmes deviennent un sujet de société. » Ajoutons qu’ils deviennent un sujet politique. Un exemple frappant ? Le Zimbabwe a vendu une base de données contenant les visages de ses citoyens à la Chine.
Son but ? Entraîner les algorithmes de reconnaissance faciale sur des visages noirs. En échange de cette masse de données, le Zimbabwe sera bientôt équipé de caméras à reconnaissance faciale dernier cri…
Lors de cette conférence, Cédric Villani proposait une réflexion sur l’apport des algorithmes prédictifs dans l’entreprise. Il notait avec pertinence que les algorithmes devaient au préalable être acceptés avant d’être utilisés. En effet, un algorithme sans accompagnement ne sert à rien, un travail doit être effectué en amont. Cédric Villani nous rapportait une expérience réussie au cours de laquelle des salariés valident les décisions du programme IA et gardent ainsi la main sur la machine. Dans le cas contraire ? Il n’est pas rare de voir les salariés entrer en lutte “souterraine” contre ces programmes en les nourrissant, par exemple, de fausses données.
En somme, c’est l’illustration du fossé qui sépare l’IA capacitante de l’IA substitutive. Pour l’une, il s’agit de remplacer le salarié, pour l’autre il s’agit de le renforcer.
Franck Bardol pour sa part prolongeait cette réflexion autour de l’IA de confiance et précisait les points-clés de transparence et de loyauté des algorithmes. Depuis, ces thèmes émergent dans l’actualité du secteur et sont devenus un sujet d’inquiétude.
Pour Pierre Saurel, professeur associé à la Sorbonne, intervenant dans cette conférence, le domaine de l’éducation est également concerné par cette transformation numérique. De plus, les biais algorithmiques y sont tout aussi présents. Il ajoute que « L’analyse de ces biais est un point particulièrement important. Elle permet d’accompagner les enseignants pour identifier, par exemple, des spécificités dans les documents qu’ils peuvent utiliser en classe. »
Dans les coulisses de la conférence NeurIPS
Les grandes conférences scientifiques internationales sont des opportunités d’échanges intenses pour la communauté, mais aussi de moments, qui comme des œuvres d’art, sont révélateurs de tendances fortes.
Le Paris Machine Learning s’est associé avec la conférence NeurIPS afin de mettre à l’honneur quelques-uns des chercheurs francophones sélectionnés pour cette grand-messe. La forme ? Un panel quotidien de cinq intervenants durant la semaine de conférence. Des présentations éclair dans des visioconférences de dix minutes. Du concentré d’état de l’art. Ce qui émerge de cette sélection de chercheurs ? Beaucoup d’efforts consacrés à l’amélioration des méthodes d’apprentissage mais aussi des tentatives d’explorer des pistes totalement inédites.
Les neurosciences et l’explicabilité des algorithmes figurent aussi en bonne place. En somme, une dense semaine de mathématiques et d’algorithmique de haut niveau par des chercheurs de l’INRIA, l’École normale, Telecom Paris, Criteo, Google Brain et Facebook. Mais aussi venant des startups technologiques les plus avancées en recherche, parmi lesquelles LightOn, Hugging Face et Prophesee.
Des groupes de data scientists de Strasbourg, Timisoara en Roumanie et du Cameroun participaient également à cette semaine de mise en valeur de la recherche francophone. Robert Maria, organisateur du groupe de Strasbourg et de Timisoara, ainsi qu’Alain Nkongweni, organisateur du groupe du Cameroun, ont rejoint Jacqueline Forien et Claude Falguière dans l’organisation. Jacqueline est par ailleurs Meetup Chair à NeurIPS.
L’IA en lutte contre la Covid-19
Dès les premiers signes de la pandémie de Covid-19, la recherche scientifique s’est mobilisée. Le machine learning fait partie de l’arsenal mis en œuvre. C’était pour nous une évidence qui s’est traduite par une série d’interventions exclusives sur ce thème durant l’année 2020.
La recherche d’un remède définitif contre la Covid-19 complète la politique sanitaire du Tester – Alerter – Protéger. Chacun de ces éléments est décliné à base de machine learning, depuis les applications de traçage aux tests en masse, en passant par le suivi personnalisé de centaines de milliers de patients, la prévision du nombre de cas, l’estimation de la dangerosité du virus (le fameux R0) ou encore l’équilibre confinement – détection des cas, sans oublier la conception de molécules médicamenteuses.
Ces différents aspects ont été évoqués par Lenka Zdeborová, professeur à l’EPFL, Maximilien Levesque, fondateur de la startup Aqemia, Alexandre Gramfort de l’INRIA, Dror Baron de l’université de North Carolina et Arthur Charpentier de l’UQAM.
Avant de conclure, rappelons des points fondamentaux. Un algorithme ne remplace pas une infirmière. Un robot désinfectant ne se substitue pas à un accueil des patients à l’hôpital. Une application de traçage ne protège de rien. Aucune technique, méthode ou algorithme ne peut se substituer à l’action politique. Franck Bardol avait insisté sur ce point dans une intervention lors de la sortie de l’application de traçage nommée Stop Covid. Tous les éléments pour un fiasco étaient réunis. On connaît la suite. L’IA n’est pas de la magie qui résout tout. Aucune personne sérieuse n’y croit plus. Evgeny Morozov et son ouvrage de référence sur le techno-solutionnisme est passé par là et a balayé ce mythe.
Quel message retenir du Paris Machine Learning ?
Pour conclure, prêtons-nous à un exercice de synthèse difficile. Tentons de prendre du recul sur plusieurs centaines d’heures de prises de parole.
En premier lieu, ce qui frappe est la vitesse d’adoption des algorithmes IA. Yann LeCun, précurseur du domaine, relevait ce point dans sa leçon inaugurale du Collège de France consacrée aux algorithmes IA. Les ingénieurs ont adopté les méthodes du deep learning à une vitesse stupéfiante. Le décalage du cycle innovation-production n’existe pour ainsi dire plus !
Les avancées spectaculaires du deep learning en ce qui concerne le traitement des images et du langage ont très fortement facilité l’adoption du machine learning dans le tissu économique et dans les entreprises.
Au-delà de l’efficacité pure des algorithmes, d’autres préoccupations émergent. Notamment pour tout ce qui concerne le fonctionnement de ces algorithmes. Quelles sont les ressources nécessaires en données, en énergie, en matériel informatique pour entraîner ces algorithmes ? Hormis ces questions liées à la parcimonie des algorithmes, les mathématiciens s’interrogent toujours : « Pourquoi ces algorithmes fonctionnent-ils aussi bien ? » La recette est désormais connue de tous et a fait ses preuves mais la question de pourquoi elle fonctionne si bien reste entière.
Parallèlement à ces enjeux de recherche pure, le grand public, les ingénieurs, les décideurs politiques s’inquiètent du retentissement considérable de ces algorithmes sur nos sociétés. Les data scientists qui en écrivent le code informatique ne peuvent désormais plus se contenter d’être de purs techniciens, pour reprendre les termes de Cathy O’Neil, célèbre mathématicienne data scientist. Les algorithmes sont devenus un objet politique, l’éthique n’est plus une option mais un devoir.
Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :
Docteur en informatique à l’UPMC (Sorbonne Université) et habilitée à diriger les recherches, le parcours professionnel de Marie-Aude Aufaure est jalonné d’expériences multiples en entreprise, dans le secteur académique et en entrepreneuriat. Elle commence sa carrière dans le secteur des télécommunications, puis rejoint l’enseignement supérieur et la recherche dans différents établissements, dont CentraleSupelec, où elle est titulaire d’une chaire sur la Business Intelligence, et l’INRIA.
Passio
Docteur en informatique à l’UPMC (Sorbonne Université) et habilitée à diriger les recherches, le parcours professionnel de Marie-Aude Aufaure est jalonné d’expériences multiples en entreprise, dans le secteur académique et en entrepreneuriat. Elle commence sa carrière dans le secteur des télécommunications, puis rejoint l’enseignement supérieur et la recherche dans différents établissements, dont CentraleSupelec, où elle est titulaire d’une chaire sur la Business Intelligence, et l’INRIA.
Passionnée de technologies, elle se lance dans l’entrepreneuriat et fonde Datarvest en 2016, jeune entreprise innovante spécialisée dans l’exploitation et la valorisation des données – big data et intelligence artificielle. Ses domaines d’intervention couvrent le développement d’algorithmes innovants, le conseil aux entreprises et la formation. Elle a conçu et piloté la formation certifiante « Big data pour l’entreprise numérique » pour CentraleSupe-lec Exed.
Poursuivant sa volonté d’entreprendre, elle cofonde en 2019 SyncData Partners, cabinet de conseil en stratégie et innovation data. Elle est membre actif du Hub France IA et du think tank « la villa numéris ».
Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.
Vous êtes spécialisée dans les graphes, quel est l’éventail de leurs usages possibles, et identifiez-vous des usages émergents ?
Durant la dernière décennie passée dans des laboratoires de recherche, je me suis intéressée à la construction automatique d’ontologies et à la modélisation et l’analyse de graphes complexes, convaincue du potentiel de ces technologies pour les entreprises. Datarvest (Data Harvesting) a été créée dans l’idée de croiser et d’analyser des masses de données hétérogènes et de proposer une solution d’analyse de données complexes intégrant un algorithme de clustering agnostique des données. Celui-ci permettrait d’extraire des classes en une seule passe à partir de tout type de données, numériques, catégorielles, sous forme de graphes ou de séries temporelles, définies par des intervalles de valeurs, etc.
Les graphes permettent de représenter les liens entre différentes entités, et les applications potentielles sont nombreuses. Citons les usages suivants, qui ne sont pas exhaustifs :
la détection de comportements anormaux appliqués à la détection de fraudes, la lutte anti-blanchiment, la cybersécurité ou encore le renseignement ;
l’analyse de graphes pour les ressources humaines pour identifier des talents, constituer des équipes cohésives ou encore prédire des évolutions de parcours de carrière et recommander des formations ;
la santé et la sécurité, en étudiant par exemple les interactions sociales dans le contexte de la crise sanitaire ;
la mobilité pour de l’aide à la décision ;
la supply chain pour propager des informations et alertes à l’ensemble de la chaîne de production.
Parmi les usages émergents, outre ceux présentés ci-dessus, les graphes peuvent être utiles pour gérer la gouvernance des données, une problématique majeure actuellement dans les entreprises : le data lineage peut être modélisé à l’aide d’un graphe permettant de tracer les données et de propager des modifications, les graphes de connaissances peuvent être utilisés pour représenter le modèle de données de l’entreprise et il est possible de prédire des liens. L’analyse de l’usage et des interactions clients se prête également très bien à ce type de représentation.
Vous venez de renforcer votre pôle R&D. Quels sont vos objectifs ?
La vocation de Datarvest est de développer des technologies de pointe intégrant les résultats récents issus du monde de la recherche, en concevant et mettant en œuvre des méthodes et algorithmes innovants en collaboration avec le monde académique.
Les travaux de R&D initiés depuis la création de l’entreprise ont donné des résultats prometteurs, applicables à de nombreux usages, et il était naturel de renforcer notre R&D. Un jeune docteur spécialisé dans les graphes, Mehdi Djellabi, a été recruté en mars dernier. Ses travaux ont porté sur des mesures d’interactions locales dans des graphes complexes, et une extension de ces travaux, prenant en compte des éléments de contenu comme des pondérations de relations, peut compléter la solution de Datarvest.
Par ailleurs, notre solution peut harmonieusement être combinée avec des algorithmes de machine learning ou de deep learning existants, pour faire de la prédiction de liens ou de nœuds, ou de manière plus classique en intégrant les résultats analytiques comme données d’apprentissage. Le renforcement du pôle R&D permet d’ouvrir un champ des usages potentiels conséquent et de rester à l’état de l’art.
Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :
Cet article a été par Jean Ababii. Passionné par le développement de l’intelligence artificielle et le secteur de l’aéronautique et du spatial, Jean Ababii est étudiant en dernière année d’ingénierie informatique à l’INSA Lyon. Après plusieurs stages autour de l’IA appliquée à la vision par ordinateur, il a rejoint Dassault Systèmes pour son projet de fin d’études en tant qu’ingénieur IA et Big Data afin de travailler principalement sur des problématiques de NLP.
“Touchdown confirmed ! Persevera
Cet article a été par Jean Ababii. Passionné par le développement de l’intelligence artificielle et le secteur de l’aéronautique et du spatial, Jean Ababii est étudiant en dernière année d’ingénierie informatique à l’INSA Lyon. Après plusieurs stages autour de l’IA appliquée à la vision par ordinateur, il a rejoint Dassault Systèmes pour son projet de fin d’études en tant qu’ingénieur IA et Big Data afin de travailler principalement sur des problématiques de NLP.
“Touchdown confirmed ! Perseverance is safely on the surface of Mars”
Ces quelques mots provenant du Jet Propulsion Laboratory de la NASA marquent le soulagement des milliers d’ingénieurs travaillant sur ce projet depuis des années. Le 18 février 2021, au terme d’un voyage de sept mois, le robot Perseverance se pose sur la planète rouge.
Son atterrissage est totalement automatisé puisque, se situant à 200 millions de kilomètres de la Terre, une latence de plus de dix minutes est observée entre l’envoi et la réception d’un message.
Comment peut-on automatiser un processus aussi complexe ? L’intelligence artificielle est une des nouvelles solutions permettant de répondre à ce défi technologique, et son utilisation est en plein essor dans le milieu spatial. En effet, le marché de la robotique et de l’IA dans l’espace, évalué à 2 milliards de dollars en 2018, est estimé à 3,5 milliards en 2025.
De la navigation autonome à l’assistance des astronautes, voici une sélection d’applications de l’IA dans la conquête spatiale.
Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.
1. Navigation autonome
Un des premiers éléments venant à l’esprit lorsqu’on évoque l’IA pour un robot pourrait être sa capacité à se déplacer et à prendre des décisions de manière autonome. Pour un rover comme Perseverance, une automatisation des déplacements permet en effet un énorme gain de temps : en déterminant la meilleure route pour éviter les obstacles, l’opérateur humain n’est sollicité qu’en cas de besoin, sans parler des étapes où cette intervention est impossible, comme lors de l’atterrissage.
Pour comprendre comment l’IA peut aider lors de la navigation sur un objet céleste lointain, il convient de rappeler comment cette dernière est rendue possible sur Terre. Les systèmes terrestres actuels reposent en grande partie sur le GPS, système mondial de positionnement. Or, le GPS fonctionne grâce au calcul de la distance séparant le récepteur de plusieurs satellites. Malheureusement, des satellites de ce type n’existent qu’autour de notre planète. De plus, pour compliquer les choses, Mars ou encore la Lune ne possèdent pas de champ magnétique global permettant le fonctionnement des boussoles traditionnelles.
Une des solutions imaginées pour contourner ces difficultés est de se servir des images et topographies de ces astres, enregistrées lors de missions précédentes. C’est alors que l’IA entre en jeu, en permettant la comparaison des données existantes avec celles pouvant être directement acquises. En effet, des techniques d’IA principalement basées sur l’apprentissage profond (deep learning) sont extrêmement performantes dans le domaine du traitement d’image. Le système Terrain Relative Navigation de Perseverance en est un exemple : il permet de se repérer sur Mars en comparant les caractéristiques visibles de la surface martienne avec des données pré-enregistrées. Grâce à ce repérage précis, Perseverance a atterri à seulement un km environ du centre de la zone visée ! Toujours au cours de cette mission, Ingenuity a effectué son premier vol sur la planète rouge.
Ce drone devient donc le premier objet qui vole sur une planète différente de la Terre. L’automatisation de ses déplacements est d’autant plus critique qu’une fois en plein vol, ce dernier ne peut tout simplement pas s’arrêter pour attendre les instructions terriennes. L’IA permet donc d’analyser son environnement pour prendre en compte les vents par exemple, et suivre au plus près le plan de vol prévu en amont sur Terre. Cependant, nul besoin de se trouver sur une autre planète pour rencontrer des problèmes liés à la navigation.
En effet, en 2019, l’Agence spatiale européenne (ESA) a estimé à près d’un million le nombre d’objets mesurant plus d’un cm orbitant autour de la Terre. Ces nombreux débris spatiaux peuvent causer de gros dégâts à tous les appareils opérationnels, la Station spatiale internationale (ISS) ou des satellites par exemple. Bien qu’une attention particulière soit actuellement portée à cette « pollution » de l’espace, le nombre de lancements augmentera fortement dans les prochaines années. Pour prévenir de potentielles collisions, des techniques à base d’apprentissage profond se sont révélées particulièrement efficaces. En effet, des réseaux de neurones ont permis d’améliorer grandement la précision lors de la détection des débris spatiaux, rendant ainsi possible une identification précise à plusieurs milliers de kilomètres.
2. Collecter et transmettre l’information
Le recours à l’IA apporte une réelle efficacité dans la gestion des données échangées. En effet, que ce soit sur Terre avec l’essor du big data, ou dans l’espace, la quantité de données stockées croît d’année en année, aussi bien grâce à un nombre croissant de capteurs qu’à une baisse du coût de stockage. Ces données proviennent en grand nombre de différentes sources comme des satellites, des télescopes ou des observatoires.
D’après l’ESA, un satellite moderne produit quotidiennement plus de 150 TB (TeraBytes) de données. Leur analyse et transmission exigent beaucoup de travail, et donc de temps, c’est pourquoi le recours à l’IA permet une efficacité démultipliée. Par exemple, la transmission de l’ensemble des données est parfois impossible physiquement, ce qui impose de choisir les plus « intéressantes » pour les chercheurs. Des systèmes d’IA embarqués au sein des satellites ou robots permettent un pré-traitement des données, pour n’en transmettre qu’une partie vers la Terre. Le système AEGIS (Autonomous Exploration for Gathering Increased Science) est par exemple présent sur Perseverance, ou encore sur son prédécesseur Curiosity. AEGIS permet au robot d’analyser différentes roches et transmettre uniquement des données présentant le plus d’intérêt scientifique, ce qui permet de maximiser leur qualité.
D’autre part, la distance importante pouvant séparer les objets émetteurs présents dans l’espace des récepteurs sur Terre entraîne de réelles complications au niveau du débit et de la qualité de la transmission. En effet, les interférences sont un problème courant dans l’espace, dues notamment aux radiations électromagnétiques. Là encore, des techniques à base d’IA sont explorées par la NASA pour améliorer la qualité des réseaux de communications. Certaines techniques d’IA permettent de maximiser l’utilisation des bandes de communications disponibles et ainsi d’améliorer l’efficacité et la fiabilité des transmissions. Cependant, avant de pouvoir déployer de telles technologies, des tests doivent être conduits et sont déjà prévus à bord de l’ISS.
Depuis la Terre également, l’IA permet une meilleure collecte des données, comme on peut le constater avec le Cherenkov Telescope Array (CTA). Ce réseau de plus de 100 télescopes de nouvelle génération situés dans différents endroits du globe terrestre repose sur des techniques de deep learning afin d’ana- lyser rapidement un nombre colossal de données. Les réseaux de neurones utilisés sont entraînés sur le supercalculateur Jean Zay situé sur le plateau de Saclay, en région parisienne, et permettront à terme d’interpréter les évènements en temps réel pour émettre des alertes et faire converger plus rapidement les télescopes vers les sources intéressantes.
3. Traitement des données
Une fois les données collectées et transmises, celles-ci vont faire l’objet de nombreux traitements. Un grand nombre de ces données récupérées sont des images, mais pas uniquement. Pour le traitement d’image, l’IA est un outil formidable, principalement depuis la découverte des réseaux de neurones dits convolutionnels (CNN : Convolutional Neural Networks) faisant partie de la branche de l’apprentissage profond. Il n’est donc pas étonnant que les scientifiques exploitent de plus en plus ces méthodes dans la recherche spatiale.
Une des tâches sur lesquelles ces réseaux se sont montrés redoutablement efficaces est la classification d’objets selon plusieurs catégories, après avoir été correctement entraînés sur des milliers d’images. En effet, le nombre gigantesque d’objets célestes composant notre univers rend impossible la classification manuelle de chacun d’entre eux, et c’est dans ce but qu’est utilisée l’IA aujourd’hui pour déterminer par exemple si tel astre est une étoile, une galaxie ou une planète. Cette classification n’est pas toujours simple à cause du bruit causé par les instruments ou les effets astrophysiques. C’est ainsi que des chercheurs de Google ont développé un réseau de neurones convolutionnels nommé AstroNet afin de traiter les images issues du télescope Kepler de la NASA.
Cette IA a permis de réduire le bruit, et ainsi d’identifier deux nouvelles exoplanètes. Ces différentes avancées permises par l’IA ont conduit à la mise en place du Frontier Development Lab (FDL) par la NASA, dans le but de réunir des innovateurs et travailler sur l’application de l’IA dans l’espace. L’ensemble des techniques qui y sont développées sont publiques et certaines sont déjà utilisées pour prédire les radiations solaires ou identifier la composition de l’atmosphère de certaines exoplanètes. Un des cas d’utilisation de l’IA au FDL est la modélisation d’astéroïdes. Lors de cette tâche, une très large panoplie d’outils issus de l’IA se sont montrés efficaces. Ainsi, des modèles de deep learning tels que des auto-encodeurs ou des réseaux antagonistes génératifs (GAN) ont été utilisés pour la modélisation même des astéroïdes, alors que des techniques comme le clustering ont servi à un pré-traitement des données récupérées. Lors de ce cas d’étude, l’IA a permis une économie importante de temps en réalisant une modélisation d’astéroïde en moins d’une semaine, alors que plusieurs mois étaient nécessaires auparavant.
4. Les assistants d’astronautes
L’utilisation de l’IA pour le traitement d’image a beaucoup été évoquée, cependant elle est également présente dans bien d’autres domaines d’applications relevant de l’exploration spatiale. En effet, les progrès récents dans le traitement du langage naturel (NLP : Natural Language Processing) ont trouvé de nombreux cas d’utilisation dans notre vie quotidienne, mais aussi dans celle des astronautes. Depuis 2018, CIMON (Crew Interactive MObile companioN) est déployé à bord de la Station spatiale internationale. Cet assistant de la taille d’un ballon de basket, développé entre autres par IBM et Airbus, se déplace en autonomie grâce à des hélices. Son objectif est d’assister les astronautes au cours de leurs tâches en leur proposant des informations lorsque c’est nécessaire, à travers des tutoriels par exemple, mais aussi d’interagir directement en répondant à leurs questions.
CIMON repose sur les dernières prouesses techniques puisqu’il utilise l’IA Watson d’IBM, qui a fait ses preuves dans la compréhension du langage naturel et dans la gestion des dialogues. Les performances de CIMON sont encore loin des assistants que l’on peut trouver dans les films de science-fiction comme HAL 9000 de 2001, L’Odyssée de l’Espace. Cependant, l’évolution des performances des assistants est un objectif dans la conquête spatiale pour comprendre et prédire les besoins de l’équipage, analyser leurs émotions, leur santé mentale ou encore prendre de bonnes décisions en cas d’urgence.
L’astronaute Luca Parmitano converse avec CIMON à bord de l’ISS. Source : Youtube
Les défis de l’IA dans la conquête spatiale
L’ensemble de ces différentes utilisations de l’IA dans la conquête spatiale permet de montrer le vaste éventail de possibilités et d’opportunités permises par les avancées technologiques. Cependant, l’utilisation de l’IA induit également des interrogations pertinentes concernant les risques potentiels. Sans en arriver à des cas extrêmes, comme le volte-face des assistants contre l’équipage dans de nombreux films, certaines inquiétudes sont imputées à l’IA, comme un manque d’explicabilité. En effet, les algorithmes deviennent de plus en plus performants, mais aussi de plus en plus complexes, ce qui peut réduire la compréhension de leurs décisions.
Or, les montants financiers astronomiques des missions touchant au domaine spatial risquent de freiner les investisseurs qui vont privilégier la sécurité des techniques plus classiques. Ainsi, il est nécessaire d’améliorer la fiabilité et l’explicabilité des systèmes d’IA actuels pour accélérer leur déploiement dans ce domaine où la moindre erreur n’est pas envisageable. Les systèmes futurs vont probablement intégrer progressivement de plus en plus d’IA en trouvant un équilibre entre les méthodes à très fort potentiel basées sur l’apprentissage profond et les méthodes plus traditionnelles assurant une plus grande sécurité.
D’autre part, la progression plus lente de l’IA dans l’industrie spatiale s’explique également par des raisons plus techniques. En effet, il est beaucoup plus difficile de tester les nouvelles technologies en conditions réelles afin de les optimiser, ce qui entraîne des difficultés particulières pour les techniques d’IA apprenant à partir de situations précédentes. L’amélioration des systèmes existants et l’obtention de plus de données provenant des nouvelles missions spatiales représenteront de grandes opportunités pour la conquête spatiale, dont le futur est difficilement imaginable sans un recours important à l’intelligence artificielle.
Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :
4 applications basées sur l’IA dans la conquête spatiale De la navigation autonome à l’assistance des astronautes
La nouvelle édition du magazine pour les professionnels de l’intelligence artificielle sera disponible ce mois-ci. Nous vous avons concocté un numéro à ne pas manquer. De nombreux dossiers vous attendent dont un sur la sécurité de l’IA, ses enjeux, ses solutions, mais aussi un top des startups du secteur à connaître.
Vous l’attendiez et il sera bientôt entre vos mains ! Dans le nouveau numéro du magazine de référence de l’intelligence artificielle, vous pourrez lire un dossier sur la sécurité de
La nouvelle édition du magazine pour les professionnels de l’intelligence artificielle sera disponible ce mois-ci. Nous vous avons concocté un numéro à ne pas manquer. De nombreux dossiers vous attendent dont un sur la sécurité de l’IA, ses enjeux, ses solutions, mais aussi un top des startups du secteur à connaître.
Vous l’attendiez et il sera bientôt entre vos mains ! Dans le nouveau numéro du magazine de référence de l’intelligence artificielle, vous pourrez lire un dossier sur la sécurité de l’IA. Une thématique on ne peut plus centrale alors que de plus en plus d’entreprises et d’institutions adoptent des technologies innovantes. L’IA représente une grosse partie du marché mondial de la sécurité et sa valeur ne va cesser d’évoluer. Les applications IA sont et/ou doivent être protégées comme n’importe quel système informatique. Pourtant, en plus des risques traditionnels, l’IA est exposée à d’autres menaces spécifiques. Une meilleure protection est nécessaire pour déployer une IA puissante et digne de confiance. C’est en tout cas ce qu’affirment nombre d’experts et de professionnels du secteur. Dans notre dossier sur la Sécurité de l’IA, nous vous proposons d’aborder ce sujet de manière complète grâce à Françoise Soulié-Fogelman et Alexandra Benamar, toutes deux expertes en IA.
La sécurité de l’IA, au cœur du nouveau numéro du magazine ActuIA
Pour aborder ce sujet complexe, Françoise Soulié-Fogelman, conseillère scientifique chez Hub France IA, analyse les travaux, publiés par les grandes instances de la cybersécurité, qui permettent une meilleure compréhension des nouvelles attaques et des pistes de défense. Elle livre notamment au lecteur trois exemples d’attaques concrètes avec, au centre de ces attaques, trois logiciels connus de la grande majorité d’entre nous : Tay, de Microsoft, Nightshade4, créé par l’équipe du projet Glaze, et ChatGPT5 d’OpenAI.
Nous vous proposons également un focus sur CYBIAH, l’un des European Digital Innovation Hub (EDIH). Ces pôles européens d’innovation numérique ont été mis en place par la Commission européenne et ce dossier Sécurité de l’IA vous permet d’en apprendre davantage sur ce hub.
Les agents LLM, plus précisément, leur autonomie sont au cœur de l’analyse que nous propose ensuite Alexandra Benamar, ingénieure en R&D chez Talan. Elle pose une question centrale : “en renforçant nos défenses, les IA contribuent-elles involontairement à affiner les stratégies offensives des hackers ?” avant d’y répondre. Sa réflexion débute par la construction d’un agent LLM autonome, puis la simulation de cyberattaques, la possibilité d’une “loi d’échelle du piratage”, ou encore les limites de GPT-4 face aux défis de sécurité avancés pour fournir une réponse complète et structurée à sa question.
Pour ce 16e numéro, en complément du dossier, nous avons aussi établi une sélection de huit startups du secteur de la sécurité de l’IA à connaître. Une solution qui permet la détection de contenu généré par l’IA anti-deep fake, un outil de collaboration sécurisée en machine learning ou encore une plateforme simplifiant la transformation numérique et de gestion des risques IA qui sont proposés par des sociétés expertes dans ces nouveaux défis. Pas de spoiler sur les noms des 8 entreprises, mais on vous dit juste que vous pourrez sans doute retrouver la startup de Siméon Campos qui avait proposé à nos lecteurs d’ActuIA.com une tribune sur un sujet brûlant, l’AI Act, dans laquelle il détaillait les luttes essentielles de la régularisation européenne tout en défendant cette dernière.
Retrouvez ce dossier et d’autres dans ActuIA numéro 16
Ce dossier sur la Sécurité de l’IA fait partie des différents articles que vous retrouvez dans le nouveau numéro d’ActuIA, le magazine dédié aux professionnels de l’intelligence artificielle.
Depuis sa création en janvier 2020, le magazine ActuIA vous donne rendez-vous tous les trois mois pour faire le point sur l’intelligence artificielle, côté business, recherche, mais aussi impacts et défis. En 16 numéros, nous avons abordé divers sujets comme l’évolution de l’agriculture, du diagnostic médical ou encore des pratiques sportives avec l’IA. Nous avons fait un bond dans le temps dans le numéro 8 pour parler de l’histoire du deep learning et son influence sur l’explosion du secteur. Nous avons regardé vers les étoiles dans le numéro 11 avec un sujet sur l’astronomie et la caractérisation de nouveaux mondes. Plus récemment, la sécurité intérieure était au cœur de l’édition numéro 15 d’ActuIA et plusieurs forces de sécurité intérieures européennes ont partagé avec nous leur quête du meilleur équilibre, entre l’entrée en vigueur de l’AI Act et les menaces et défis auxquels elles sont confrontées. Et d’autres sujets vous attendent dans les prochains numéros !
Concernant les anciens numéros, certains sont disponibles en version papier (mais la plupart sont en rupture de stock). Vous pouvez cependant tous les retrouver en version PDF avec votre abonnement. Alors, n’attendez plus et abonnez-vous dès maintenant !
Sécurité de l’IA le nouveau numéro d’ActuIA sera bientôt entre vos mains
La cigarette électronique ou e-cigarette, apparue en 2007, est souvent présentée comme une aide au sevrage du tabagisme. Les puffs, cigarettes électroniques jetables, contenant ou non de la nicotine, aux arômes sucrés, de fruits, de chocolat ou de barbe à papa, sont particulièrement prisées des jeunes. Une récente étude montre que ces arômes, s’ils ne présentent pas de danger dans l’alimentation, peuvent être nocifs lorsqu’ils sont chauffés lors du vapotage.
Le vapotage, ou inhalation de vapeur
La cigarette électronique ou e-cigarette, apparue en 2007, est souvent présentée comme une aide au sevrage du tabagisme. Les puffs, cigarettes électroniques jetables, contenant ou non de la nicotine, aux arômes sucrés, de fruits, de chocolat ou de barbe à papa, sont particulièrement prisées des jeunes. Une récente étude montre que ces arômes, s’ils ne présentent pas de danger dans l’alimentation, peuvent être nocifs lorsqu’ils sont chauffés lors du vapotage.
Le vapotage, ou inhalation de vapeur produite par le chauffage des e-liquides, a émergé comme une alternative à la cigarette traditionnelle. Initialement conçus pour contenir principalement de la nicotine, du propane-1,2-diol, du propane-1,2,3-triol et de l’eau, les e-liquides ont rapidement évolué pour inclure une vaste gamme d’arômes chimiques, suscitant des préoccupations quant à leur décomposition thermique et aux risques pour la santé associés. La décomposition par pyrolyse de ces arômes pourrait en effet produire un grand nombre d’entités chimiques secondaires, dont certaines pourraient présenter des risques accrus pour la santé.
Une équipe de chercheurs composée d’Akihiro Kishimoto (IBM Research – Tokyo) et de Dan Wu et Donal F. O’Shea (Département de chimie, Royal College of Surgeons – Irlande) s’est intéressée au sujet. Pour eux, “l’exposition prolongée à ces produits chimiques et à leurs produits de pyrolyse rend plausible que nous soyons sur la ligne de départ d’une nouvelle vague de maladies chroniques qui n’émergera que dans 15 à 20 ans”.
Ils ont étudié 180 produits chimiques utilisés pour créer divers arômes. L’examen détaillé de leurs composés a identifié 66 esters, 46 cétones et aldéhydes, 27 alcools et acétals, 26 composés aromatiques, hétérocycles et carbocycles, ainsi que 15 acides carboxyliques et amides ce qui, selon eux, indique clairement le potentiel d’une large gamme de réactions de pyrolyse.
Méthodologie
Pour évaluer ces risques, une approche combinant apprentissage profond et données expérimentales de spectrométrie de masse (MS) a été utilisée. Un réseau neuronal convolutif (NN) a été entraîné pour prédire la réactivité à la pyrolyse de ces 180 produits. Les résultats ont généré 7307 produits de pyrolyse potentiels. Pour valider ces prédictions, la masse moléculaire des produits a été corrélée avec les données de fragmentation obtenues par MS, permettant d’identifier 1169 correspondances avec une priorité pour une analyse approfondie.
Ils ont ensuite appliqué des classifications du Système général harmonisé de classification et d’étiquetage des produits chimiques (SGH) pour évaluer la toxicité des composés identifiés, en se basant sur des critères tels que la toxicité aiguë, le danger pour la santé et l’irritation.
Résultats
Sur ces 1169 composés, 127 ont été classés comme toxiques aigus, 153 comme dangereux pour la santé et 225 comme irritants.
Les chercheurs soulignent que bien que le vapotage partage certaines caractéristiques avec le tabagisme traditionnel, il présente un ensemble distinct de risques pour la santé en raison de composés potentiellement plus dangereux. Comparer uniquement le vapotage au tabagisme “peut donner un faux sentiment de sécurité, en particulier pour les jeunes non-fumeurs de tabac”. Ils estiment essentiel d’adopter des réglementations qui protègent à la fois les fumeurs cherchant à se sevrer et les jeunes générations. Ils recommandent une limitation stricte des substances chimiques dans les e-liquides pour la sécurité de tous.
Références :
Forecasting vaping health risks through neural network model prediction of flavour pyrolysis reactions”. Sci Rep 14, 9591 (2024). https://doi.org/10.1038/s41598-024-59619-x.
Auteurs et affiliations
Akihiro Kishimoto, IBM Research – Tokyo, Shin-Kawasaki, Japon
Dan Wu et Donal F. O’Shea, Département de chimie, Royal College of Surgeons in Ireland (RCSI), Dublin 2, Irlande
Dernièrement, j’ai testé FaceFusion et j’ai adoré, donc je voulais vous en parler rapidement. Il s’agit d’un outil open source qui permet de faire des échanges de visages (swap) d’une excellente qualité aussi bien avec des photos que des vidéos. Vous vous en doutez, le tout est boosté par de l’intelligence artificielle comme un peu tout ce qui sort en ce moment.
En gros, vous prenez votre visage, vous la collez sur une autre, et bim, ça donne un truc hyper réaliste en quelques clics !
Dernièrement, j’ai testé FaceFusion et j’ai adoré, donc je voulais vous en parler rapidement. Il s’agit d’un outil open source qui permet de faire des échanges de visages (swap) d’une excellente qualité aussi bien avec des photos que des vidéos. Vous vous en doutez, le tout est boosté par de l’intelligence artificielle comme un peu tout ce qui sort en ce moment.
En gros, vous prenez votre visage, vous la collez sur une autre, et bim, ça donne un truc hyper réaliste en quelques clics !
Sous le capot, FaceFusion utilise des techniques de pointe en deep learning pour détecter et aligner les visages avec une précision chirurgicale. Ça passe par des modèles comme YOLOFace ou RetinaFace pour repérer les faciès, puis des algos transforment et mixent tout ça façon Picasso du futur.
Le résultat est assez bluffant puisque vous pouvez littéralement mettre votre tronche de cake à la place de Leonardo DiCaprio et devenir la star de Titanic en deux temps trois mouvements (de brasse coulée).
FaceFusion est optimisé pour le GPU mais fonctionnera également sur votre bon vieux CPU et cela même sur des vidéos en grosses résolutions. D’ailleurs, y’a ‘tout un tas de réglages pour gérer la qualité, que ce soit pour du swap d’image ou de vidéo.
Et histoire de vous simplifier la vie, une jolie interface graphique est même fournie pour piloter l’outil sans mettre les mains dans le cambouis.
Franchement, FaceFusion c’est un outil vraiment cool mais faudra quand même pas déconner et en faire n’importe quoi hein, genre swapper des têtes de politiques pour faire des deep fakes SURTOUT AVEC BURNO LE MAIRE, ça peut vite partir en vrille. 😅
Bref que ce soit pour faire des blagues à vos potes, créer des effets spéciaux délirants, ou juste explorer le champ des possibles de l’IA appliquée à l’image, FaceFusion risque de vite devenir votre nouveau meilleur ami. Et vu que c’est open source, vous pouvez mettre les mains dans le code si ça vous éclate.
Bref, foncez sur le GitHub et en cadeau, je vous ai même fait une vidéo tuto !
VASA-1 est un nouveau framework qui permet de générer des visages parlants ultra-réalistes en temps réel ! En gros, vous balancez une simple photo à cette IA, ainsi qu’un petit clip audio, et bim ! Elle vous pond une vidéo d’un visage qui parle, avec une synchronisation de la bouche nickel chrome, des expressions faciales hyper naturelles et des mouvements de tête très fluides. C’est hyper bluffant !
Les chercheurs de Microsoft ont réussi ce tour de force en combinant plusieurs techniq
VASA-1 est un nouveau framework qui permet de générer des visages parlants ultra-réalistes en temps réel ! En gros, vous balancez une simple photo à cette IA, ainsi qu’un petit clip audio, et bim ! Elle vous pond une vidéo d’un visage qui parle, avec une synchronisation de la bouche nickel chrome, des expressions faciales hyper naturelles et des mouvements de tête très fluides. C’est hyper bluffant !
Les chercheurs de Microsoft ont réussi ce tour de force en combinant plusieurs techniques de pointe en deep learning. Ils ont d’abord créé un espace latent expressif et bien organisé pour représenter les visages humains. Ça permet de générer de nouveaux visages variés, qui restent cohérents avec les données existantes. Ensuite, ils ont entraîné un modèle de génération de dynamiques faciales et de mouvements de tête, appelé le Diffusion Transformer, pour générer les mouvements à partir de l’audio et d’autres signaux de contrôle.
Et le résultat est juste époustouflant. On a l’impression de voir de vraies personnes qui parlent, avec toutes les nuances et les subtilités des expressions faciales. Les lèvres bougent parfaitement en rythme avec les paroles, les yeux clignent et regardent naturellement, les sourcils se lèvent et se froncent…
En plus de ça, VASA-1 peut générer des vidéos en haute résolution (512×512) à une cadence élevée, jusqu’à 40 images par seconde, avec une latence de démarrage négligeable. Autant dire que c’est le graal pour toutes les applications qui nécessitent des avatars parlants réalistes. On peut imaginer des assistants virtuels avec lesquels on pourrait interagir de manière super naturelle, des personnages de jeux vidéo encore plus crédibles et attachants, des outils pédagogiques révolutionnaires pour apprendre les langues ou d’autres matières, des thérapies innovantes utilisant des avatars pour aider les patients… etc etc..
En plus de pouvoir contrôler la direction du regard, la distance de la tête et même les émotions du visage généré, VASA-1 est capable de gérer des entrées qui sortent complètement de son domaine d’entraînement comme des photos artistiques, du chant, d’autres langues…etc.
Bon, évidemment, il reste encore quelques limitations. Par exemple, le modèle ne gère que le haut du corps et ne prend pas en compte les éléments non rigides comme les cheveux ou les vêtements. De plus, même si les visages générés semblent très réalistes, ils ne peuvent pas encore imiter parfaitement l’apparence et les mouvements d’une vraie personne mais les chercheurs comptent bien continuer à l’améliorer pour qu’il soit encore plus versatile et expressif.
En attendant, je vous invite à checker leur page de démo pour voir cette merveille en action. C’est juste hallucinant ! Par contre, vu les problèmes éthiques que ça pourrait poser du style usurpation d’identité, fake news et compagnie, et connaissans Microsoft, je pense que VASA-1 ne sera pas testable par tous bientôt malheureusement. Mais je peux me tromper…
Afin d’optimiser le processus de prise en charge des patients, d’assurer une continuité de soins hôpital-médecine de ville, et de réduire la charge de travail des secrétaires, les Hôpitaux Civils de Colmar (HCC) se sont équipés de Dragon Medical One, une solution de reconnaissance vocale de Nuance communications, entreprise acquise par Microsoft en 2022, pour automatiser la rédaction de comptes-rendus et lettres de liaison.
L’Établissement Public de Santé HCC, composé de 4 sites distincts géogra
Afin d’optimiser le processus de prise en charge des patients, d’assurer une continuité de soins hôpital-médecine de ville, et de réduire la charge de travail des secrétaires, les Hôpitaux Civils de Colmar (HCC) se sont équipés de Dragon Medical One, une solution de reconnaissance vocale de Nuance communications, entreprise acquise par Microsoft en 2022, pour automatiser la rédaction de comptes-rendus et lettres de liaison.
L’Établissement Public de Santé HCC, composé de 4 sites distincts géographiquement sur la partie ouest de la ville de Colmar, compte 675 médecins et réalise 413 653 admissions par an. Plus de 200 médecins d’entre eux utilisent désormais Dragon Medical One.
Basée sur le deep learning, hébergée dans les centres sécurisés Microsoft Azure en France, avec une IA entrainée sur un vocabulaire médical professionnel, cette solution s’interface directement avec le dossier patient informatisé (DPI) Easily des HCC.
Le Dr Marc Schneider, urologue, utilise Dragon Medical One depuis une dizaine d’années, tant dans un cadre professionnel que personnel, il était déjà convaincu des avantages en termes de précision, de rapidité et de gain de temps que cette solution offre.
À cette époque, même la secrétaire la plus expérimentée passait entre 15 et 20 minutes pour finaliser une lettre. Avec une charge de travail comprenant environ cinquante patients par jour, en plus de ses autres responsabilités, le processus de révision de ces lettres par le Dr Schneider prenait généralement deux à trois mois. Relire une pile de documents et de courriers de patients rétrospectivement représentait un défi majeur, nécessitant de se rappeler tous les détails.
Depuis l’intégration réussie de Dragon Medical One aux HCC, et sa compatibilité avec le DPI, le Dr Schneider a encouragé ses collègues à l’adopter afin d’alléger le fardeau des secrétaires surchargées.
Désormais, une lettre médicale est remise au patient directement à la fin de la consultation, réduisant ainsi les délais pour les autres intervenants de la prise en charge hospitalière. Elle est également transmise au médecin traitant via une messagerie sécurisée et à Mon Espace Santé (si le patient a consenti).
Le Dr Schneider, également expert médical dans les procédures de plaintes de patients dans toute la France, affirme :
“Dragon Medical One a participé à améliorer l’accueil des patients. Il est inenvisageable de travailler sans. Avec Dragon Medical One, je peux dicter un résumé d’un dossier de 300 pages juste en 2 heures, alors que sans la solution, il m’en faudrait 4″.
Le Dr Marie-Sandrine Mann, spécialiste en médecine physique et de réadaptation, qui gère diverses consultations au sein des HCC, utilise elle aussi la solution. Elle crée des comptes rendus spécifiques pour chaque type de consultation, qu’il s’agisse de consultations externes spécialisées, comme la consultation post-AVC ou le bilan sclérose en plaques, de consultations de podologie, de réunions de concertation pluridisciplinaire pour le pied diabétique et neuropathique, ou encore d’avis interservices et de consultations en hôpital de jour.
Elle explique :
“Avec Dragon Medical One, l’information précise est affichée instantanément dans le DPI, sans erreur. Dragon Medical One m’aide dans la rédaction des comptes rendus de consultation en direct devant le patient, et aussi des lettres à transmettre aux médecins traitants. Je peux ainsi rédiger des comptes-rendus longs et détaillés, en dictant à mon rythme et sans perdre le fil de mes idées”.
La solution lui permet également de gagner un temps considérable pour retranscrire les antécédents et l’histoire de la maladie d’un patient transféré d’un autre hôpital.
99 % des 200 médecins se déclarent satisfaits de l’utilisation de Dragon Medical One tout comme Loïc Moeglin, Directeur des systèmes d’informations aux HCC, qui dresse un premier bilan très positif :
“DMO a permis de réaliser des gains tangibles : l’établissement a récupéré 5 176 heures de travail en un trimestre, et les insertions automatiques offertes par l’outil ont permis d’éviter 10 jours de dictée supplémentaires. Cette solution apporte un bénéfice réel avec un suivi précis des performances”.
La chaîne d’approvisionnement est confrontée à des défis de taille, de la volatilité des marchés à la demande des consommateurs en évolution constante. Dans ce contexte complexe, l’intégration de technologies émergentes telles que l’IA, le ML et la blockchain, ouvrent la voie à une efficacité accrue, une transparence renforcée et une gestion des risques améliorée.
Les principales activités de la supply chain englobent l’approvisionnement en matières premières, la transformation et la fabrication
La chaîne d’approvisionnement est confrontée à des défis de taille, de la volatilité des marchés à la demande des consommateurs en évolution constante. Dans ce contexte complexe, l’intégration de technologies émergentes telles que l’IA, le ML et la blockchain, ouvrent la voie à une efficacité accrue, une transparence renforcée et une gestion des risques améliorée.
Les principales activités de la supply chain englobent l’approvisionnement en matières premières, la transformation et la fabrication, la gestion des stocks, la logistique et la distribution, la gestion des commandes et des fournisseurs, ainsi que le service client. Une gestion efficace de la chaîne d’approvisionnement est essentielle pour garantir la disponibilité des produits, réduire les coûts, améliorer la satisfaction client et maintenir un avantage concurrentiel sur le marché.
La blockchain, souvent associée à la cryptomonnaie, trouve également des applications dans la supply chain. En tant que registre distribué et sécurisé, elle offre une traçabilité sans précédent à chaque étape du processus d’approvisionnement. Les transactions enregistrées sur la blockchain sont immuables et transparentes, ce qui réduit les risques de fraude et de contrefaçon. Chaque acteur de la chaîne, qu’il soit fournisseur, transporteur ou distributeur, peut vérifier et enregistrer des informations en temps réel. De la provenance des produits à la gestion des stocks et des contrats intelligents, la blockchain permet ainsi d’optimiser la chaîne d’approvisionnement, de manière sécurisée et responsable.
L’IA, le machine learning et le deep learning apportent une valeur ajoutée à la chaîne d’approvisionnement en permettant une optimisation plus fine et une prise de décision proactive. Les algorithmes d’IA analysent de vastes ensembles de données pour identifier des schémas, des tendances et des anomalies dans les données de la chaîne d’approvisionnement, permettant une meilleure prévision de la demande, une gestion plus efficace des stocks et une planification logistique optimisée. De plus, l’IA peut automatiser des tâches répétitives telles que la gestion des commandes et des fournisseurs, libérant ainsi des ressources précieuses pour des activités à plus forte valeur ajoutée.
L’IA et l’automatisation peuvent contribuer à dégager davantage de valeur lorsqu’elles sont intégrées aux données fiables fournies par la blockchain.
Cas d’usage de la blockchain : IBM Food Trust pour la traçabilité des produits agroalimentaires
IBM Food Trust est une plateforme basée sur la technologie de la blockchain développée par IBM. Elle vise à améliorer la traçabilité, la transparence et la sécurité dans l’industrie alimentaire en permettant aux entreprises et aux consommateurs de suivre et de tracer les produits alimentaires tout au long de la chaîne d’approvisionnement, depuis la ferme jusqu’à la table du consommateur.
En stockant les données sur les récoltes, la transformation, l’emballage et l’expédition sur la blockchain, Food Trust permet de retracer les produits en quelques secondes seulement, alors que plusieurs jours ou semaines étaient auparavant nécessaires. Après 18 mois de tests, durant lesquels des millions de produits alimentaires individuels ont été tracés par les distributeurs et les fournisseurs, IBM l’a lancée en 2018.
Parmi les premiers utilisateurs de la plateforme, on trouve des géants de l’agroalimentaire comme Walmart, Unilever, Nestlé et Carrefour, qui visent à renforcer la confiance de leurs clients et à répondre aux exigences réglementaires en matière de sécurité alimentaire.
Nestlé, l’un des premiers à collaborer avec IBM pour la solution, a testé sa capacité à retracer les fruits et légumes de ses produits alimentaires pour bébés de la marque Gerber, l’a ensuite appliquée avec Carrefour à leur gamme de lait infantile GUIGOZ. Les clients, en scannant le QR code depuis un smartphone, peuvent accéder à l’ensemble des informations concernant le lait, son origine, les étapes de production et les contrôles qualité. Nestlé a étendu l’utilisation de la solution en 2020 pour la traçabilité de sa marque de café “Zoégas”.
Carrefour l’utilise également pour permettre à ses clients de vérifier la traçabilité de certains de ses produits frais comme le poulet, le saumon ou les œufs.
Walmart, quant à lui, utilise la solution afin de réduire la propagation des maladies d’origine alimentaire en identifiant les problèmes dans la chaîne alimentaire.
Google Research a annoncé mardi dernier TensorFlow GNN 1.0 (TF-GNN), une bibliothèque testée en production permettant de construire et entraîner des réseaux de neurones de graphes (GNN) à grande échelle.
Les graphes sont omniprésents dans de nombreux domaines, de la biologie à la finance en passant par les réseaux sociaux. Ils offrent une représentation puissante des relations entre différentes entités, mais leur exploitation efficace dans le domaine de l’apprentissage automatique est un défi de
Google Research a annoncé mardi dernier TensorFlow GNN 1.0 (TF-GNN), une bibliothèque testée en production permettant de construire et entraîner des réseaux de neurones de graphes (GNN) à grande échelle.
Les graphes sont omniprésents dans de nombreux domaines, de la biologie à la finance en passant par les réseaux sociaux. Ils offrent une représentation puissante des relations entre différentes entités, mais leur exploitation efficace dans le domaine de l’apprentissage automatique est un défi de taille.
Les GNN permettent d’exploiter à la fois la connectivité et les caractéristiques des nœuds et des arêtes d’un graphe. Ils peuvent faire des prédictions pour des graphes entiers, des nœuds individuels ou des arêtes potentielles. Ils peuvent également encoder l’information discrète et relationnelle d’un graphe de manière continue, afin de l’intégrer dans un autre système d’apprentissage profond.
TF-GNN supporte à la fois la modélisation et l’entraînement en TensorFlow, la bibliothèque open-source développée par Google, l’une des plus populaires pour l’apprentissage automatique et le deep learning en raison de sa flexibilité, de sa richesse en fonctionnalités et de sa communauté active, ainsi que l’extraction de graphes d’entrée à partir de vastes bases de données.
Il est conçu dès le départ pour les graphes hétérogènes, où les types d’objets et de relations sont représentés par des ensembles distincts de nœuds et d’arêtes.
TF-GNN propose une API Python flexible pour configurer l’échantillonnage de sous-graphes, qui consiste à extraire des sous-graphes de taille raisonnable du graphe sous-jacent pour créer des exemples d’entrée pour l’entraînement des GNN. L’échantillonnage peut se faire de manière dynamique ou par lots, à différentes échelles : interactivement dans un notebook Colab, de manière efficace pour un petit ensemble de données en mémoire, ou distribuée par Apache Beam pour des ensembles de données énormes stockés sur un système de fichiers réseau.
TF-GNN fournit également une collection de modèles prédéfinis et un modèle template hautement configurable, exprimés en couches Keras. Les modèles peuvent être entraînés sur une seule tâche ou sur plusieurs tâches en même temps, de manière supervisée ou non supervisée. Il inclut aussi une implémentation des gradients intégrés pour l’attribution des modèles.
Cette bibliothèque marque une avancée significative dans le domaine de l’apprentissage sur les graphes. En permettant une manipulation facile et efficace des graphes hétérogènes, elle ouvre de nouvelles perspectives pour l’application des réseaux de neurones dans des domaines variés, de la recommandation de produits à l’analyse de réseaux sociaux. L’équipe Tenserflow de Google espère qu’elle sera utile pour faire progresser l’application des GNN dans TensorFlow à grande échelle et alimenter de nouvelles innovations dans ce domaine.
Pour en savoir plus, consultez sa Démo de Colab avec le benchmark populaire OGBN-MAG (dans votre navigateur, aucune installation requise), son guide d’utilisation et Colabs.
La version 1.0 de TF-GNN est le fruit d’une collaboration entre Google Research : Sami Abu-El-Haija, Neslihan Bulut, Bahar Fatemi, Johannes Gasteiger, Pedro Gonnet, Jonathan Halcrow, Liangze Jiang, Silvio Lattanzi, Brandon Mayer, Vahab Mirrokni, Bryan Perozzi, Anton Tsitsulin, Dustin Zelle, Google Core ML : Arno Eigenwillig, Oleksandr Ferludin, Parth Kothari, Mihir Paradkar, Jan Pfeifer, Rachael Tamakloe et Google DeepMind : Alvaro Sanchez-Gonzalez et Lisa Wang.
Tester des modèles d'intelligence artificielle sans aucun bagage technique ? C'est possible, grâce au site Hugging Face. En fouillant un peu, on trouve facilement des démos plus ou moins convaincantes. Certaines sont remarquables. On a même généré sans difficulté une BD qui se tient.
Tester des modèles d'intelligence artificielle sans aucun bagage technique ? C'est possible, grâce au site Hugging Face. En fouillant un peu, on trouve facilement des démos plus ou moins convaincantes. Certaines sont remarquables. On a même généré sans difficulté une BD qui se tient.