Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

L’IA au service de la transformation numérique des entreprises luxembourgeoises

Par : ActuIA
31 mars 2026 à 17:12
L’intelligence artificielle est devenue un levier incontournable dans le quotidien des entreprises luxembourgeoises. En pleine transformation digitale, chaque secteur doit repenser ses pratiques...

L’IA au service de la transformation numérique des entreprises luxembourgeoises

Appel à candidatures : la Région Île-de-France lance la DSP pour un Tiers-Lieu dédié à l'Intelligence Artificielle à Paris

Par : ActuIA
19 mars 2026 à 18:03
La Région Île-de-France lance un appel à candidatures pour la conception, la construction et l'exploitation d'un Tiers-Lieu dédié à l'Intelligence Artificielle...

Appel à candidatures : la Région Île-de-France lance la DSP pour un Tiers-Lieu dédié à l'Intelligence Artificielle à Paris

Région Île-de-France : Appel à manifestation d’intérêt pour un tiers-lieu d’innovation dédié à l’IA

Par : ActuIA
11 août 2025 à 13:41
La Région Île-de-France, le Rectorat de Paris et la Région Académique lancent un appel à manifestation d'intérêt pour la création d'un lieu d'innovation dédié à l'intelligence artificielle, intégré au Campus de l'IA au lycée Paul Valéry. Cet appel s'adresse aux acteurs du BTP et de l'IA, avec pour objectif de renforcer l'innovation et l'attractivité de l'enseignement secondaire.

Région Île-de-France : Appel à manifestation d’intérêt pour un tiers-lieu d’innovation dédié à l’IA
  • ✇ActuIA
  • L’IA au service de la croissance : de l’accélération à la transformation
    Si l’IA continue de dominer les conversations, le ton a changé. Après la promesse d’une révolution économique, d’une ruée vers l’or ou encore, pour les plus pessimistes, de la fin de l’humanité, le discours est tout autre : la révolution de l’IA s’essouffle, la bulle spéculative se dégonfle. Alors, feu de paille ou véritable révolution ? En réalité, la question primordiale pour les entreprises est bien plus pragmatique : comment stimuler la croissance ? Force est de constater que la croissance e

L’IA au service de la croissance : de l’accélération à la transformation

Par : ActuIA
29 novembre 2024 à 14:11

Si l’IA continue de dominer les conversations, le ton a changé. Après la promesse d’une révolution économique, d’une ruée vers l’or ou encore, pour les plus pessimistes, de la fin de l’humanité, le discours est tout autre : la révolution de l’IA s’essouffle, la bulle spéculative se dégonfle. Alors, feu de paille ou véritable révolution ?

En réalité, la question primordiale pour les entreprises est bien plus pragmatique : comment stimuler la croissance ? Force est de constater que la croissance est devenue un défi pour toutes les organisations. Il est donc avant tout crucial de comprendre les raisons de ce ralentissement et les mutations du parcours client pour identifier les leviers de croissance futurs.

La formule classique de la croissance est brisée

La formule classique de la croissance est simple : plus de trafic, un taux de conversion plus élevé et une meilleure fidélisation. Malheureusement, cette formule est aujourd’hui obsolète. Le trafic, la conversion et la fidélisation sont en baisse, entraînant un ralentissement généralisé de la croissance. Seulement 50 % des commerciaux atteignent leurs objectifs, contre 66 % il y a deux ans.

Plusieurs grandes tendances expliquent ce phénomène. Tout d’abord, la recherche sur Internet a fondamentalement changé. Les moteurs de recherche fournissaient jusqu’à présent des liens redirigeant vers les sites web. Avec l’avènement des aperçus basés sur l’IA et l’arrivée prochaine de SearchGPT, les clients obtiennent davantage de réponses sans quitter leur moteur de recherche, ce qui réduit le trafic vers les sites web. Gartner prévoit ainsi une baisse de 25 % du trafic naturel d’ici 2026, due à l’adoption de l’IA pour la recherche sur Internet.

En outre, les plateformes sociales fidélisent davantage les clients. Elles deviennent des destinations à part entière, où les clients passent plus de temps, réduisant encore le trafic vers les sites web. Les clients sont également mieux informés que jamais, ce qui place la barre très haut pour les équipes de vente et de service client. Si ces dernières ne répondent pas aux attentes, la conversion et la fidélisation en pâtissent.

Face à ces défis, l’histoire nous enseigne que les technologies capables de résoudre des problèmes de manière innovante engendrent des changements profonds. C’est ce qui a rendu l’internet et les smartphones si révolutionnaires : ils ont répondu à des besoins fondamentaux tels que l’accès à l’information et la connexion humaine. L’IA pourrait bien avoir le même impact sur la croissance. Aujourd’hui, l’IA accélère les processus. Demain, elle les transformera.

L’IA au service de la croissance : de l’accélération à la transformation

Toutes les fonctions au service de la croissance sont en train de se transformer grâce à l’IA, et le marketing en est l’un des principaux terrains d’application. 74 % des marketeurs utilisent désormais l’IA pour créer du contenu (contre 35 % l’an passé) : recherche de sujets, rédaction de premiers jets et adaptation à différents publics. Ils peaufinent ensuite ces contenus pour les sublimer. Bientôt, ils pourront transformer leur travail grâce à l’IA et à ses agents, des logiciels utilisant l’IA pour accomplir des tâches en plusieurs étapes. Les agents sociaux analyseront le contenu des réseaux sociaux et indiqueront quand, où et comment le partager. Enfin, les agents de campagne analyseront les performances des campagnes et identifieront les leviers d’optimisation.

Dans le domaine des ventes, le défi majeur a toujours été d’accroître le temps passé en contact avec les clients. Or un commercial consacre en moyenne seulement deux heures par jour à la vente ! Le reste du temps est consacré à la préparation des appels ou au suivi. L’IA permet enfin de réduire ce temps. Les commerciaux peuvent désormais rechercher des prospects en quelques secondes, générer des messages personnalisés percutants, résumer des appels et créer des suivis pertinents. Prochainement, les agents de prospection seront capables d’identifier des prospects et de simplifier la prise de contact.

Enfin, dans le domaine du service client, la frustration est souvent liée au temps passé à résoudre des problèmes de manière réactive. Là encore, l’IA accélère les processus en permettant la résolution autonome de 30% des tickets en moyenne. Elle peut également améliorer le libre-service en enrichissant les bases de connaissances, permettant aux clients de trouver eux-mêmes des réponses à leurs questions. Enfin, elle peut analyser les sentiments des clients en temps réel et suggérer des actions spécifiques en fonction des tendances observées. Les agents sont également appelés à transformer le service client. A l’avenir, ces agents IA seront en mesure de répondre à des questions de plus en plus complexes, à n’importe quelle heure de la journée.

L’IA et l’humain : une collaboration au service de la croissance

Finalement, l’enseignement principal est qu’il ne faut ni sous-estimer ni surestimer l’IA. La clé réside dans la co-création entre IA et humain. La co-création est un puissant catalyseur de croissance dans toutes les fonctions. Pour le Marketing, l’IA crée, l’humain affûte. Pour les ventes, l’IA fournit le contexte, l’humain établit la connexion. Pour le Service Client, l’IA gère la simplicité, l’humain la subtilité. Dans tous les cas, l’IA ne remplace pas l’humain, elle le renforce et l’aide à se développer. En exploitant son potentiel pour stimuler le trafic, la conversion et la fidélisation, il semble que la formule de la croissance soit réinventée.

Visuel pour contribution

Venez rencontrer les ingénieurs pionniers de l’IA: OpenAI, Google Deepmind, et Mistral AI seront présents en exclusivité à Paris.

Par : ActuIA
27 septembre 2024 à 05:01

Avec notre partenaire dotAI, la conférence sur l’Intelligence Artificielle la plus pointue au monde. 

Prêt à participer à l’événement IA le plus brillant de l’année ?

Dans un secteur où l’innovation évolue à une vitesse fulgurante, garder une longueur d’avance n’est pas seulement un avantage, c’est une nécessité.

Que vous soyez développeur, ingénieur, data scientist, spécialiste Machine Learning, CTO ou passionné de technologie, dotAI 2024 est l’occasion d’apprendre des meilleurs ingénieurs du moment, non pas ceux qui ne font que parler du changement, mais de ceux qui le construisent réellement !

Préparez vous à deux jours d’annonces exclusives, la possibilité d’échanger avec les speakers et des rencontres avec la communauté IA dans un cadre somptueux.

Réserver votre pass >

Les temps forts à ne pas manquer : 

  • La keynote de Romain Huet, Head of Developer Experience chez OpenAI. OpenAI a prévu 3 conférences pour les développeurs cette année: les Dev Day, qui auront lieu à San Francisco, Londres et Singapour. Pour Paris, ils ont choisi dotAI pour échanger avec la communauté. 
  • L’annonce du Consultation Assistant de Doctolib, un projet mêlant IA et protection des données de santé. Une prouesse technique qui sera démontrée par un tech et un médecin ensemble sur scène. 
  • La keynote de Pierre Stock, Research Scientist et le premier employé de Mistral AI. Retrouvez le sur le sujet pointu des Edge Agents, avec des annonces exclusives.  
  • Les avancées du centre de recherche Kyutai – backé par Xavier Niel, Eric Schmidt et Rodolphe Saadé, qui ont annoncé Moshi, leur IA conversationnelle plus rapide que GPT4-o, Alexa et Siri. 
  • La keynote d’Armand Joulin, Research Scientist chez Google Deepmind, ex-directeur Europe du centre de recherche FAIR de Meta. 

Et bien d‘autres à découvrir sur la line-up.

Vivez une expérience unique. 

  • Apprenez des meilleurs

dotAI 2024 propose une série d’intervenants de renommée mondiale qui mènent le changement dans le développement de l’IA.

Il ne s’agit pas seulement d’universitaires ou de théoriciens ; ce sont des experts en technologie qui appliquent et construisent autour de l’IA de manière révolutionnaire !

Qu’il s’agisse de deep learning, machine learning ou de LLMs, nos intervenants couvrent l’ensemble des possibilités actuelles et futures.

Plus besoin d’aller à plusieurs événements: celui d’OpenAI, celui de Mistral AI, celui de Google: nous regroupons les acteurs majeurs en 1 seul évènement. 

  • Réseautez facilement

Chez dotAI, vous serez entouré de professionnels partageant votre passion pour la technologie et l’innovation.

C’est votre chance de vous connecter avec vos pairs, vos collaborateurs potentiels et l’écosystème de l’IA dans un cadre intime qui encourage les interactions qualitatives. 

Nous savons que le réseautage n’est pas une compétence naturelle pour tout le monde, nous vous facilitons donc la tâche ! Un jeu de networking pour aider à briser la glace, un espace Speaker Lounge conçu spécifiquement pour les conversations avec les intervenants et, bien sûr, l’happy hour !

  • Profitez d’un contenu sans marketing

dotAI célèbre l’Open Source, ce qui signifie que le marketing est interdit dans la salle de théâtre. Nos conférences n’ont pas de publicité déguisée et les speakers ne sont pas censés vous vendre une technologie particulière. 

Cependant, au-delà des conférences, vous pourrez échanger directement avec nos partenaires sur leurs stands. C’est là que le marketing est autorisé et que les relations commerciales prospèrent.

  • Vivez une expérience haut-de-gamme

Votre expérience d’apprentissage doit être aussi agréable que instructive.

C’est pourquoi nous avons choisi un lieu premium au cœur de Paris, équipé de tout ce dont vous avez besoin pour une expérience comme au théâtre. 

Profitez de repas gastronomiques généreux, de pauses méticuleusement planifiées et de goodies exclusifs, car chez dotAI, nous pensons que les ingénieurs méritent le meilleur.

Réservez votre pass

 

Faites le bon choix pour votre carrière et votre entreprise

Investir dans un billet pour dotAI 2024 n’est pas seulement un investissement dans votre développement professionnel ; c’est un investissement dans l’avenir de votre entreprise.

Le paysage de l’IA évolue rapidement, et les connaissances, les compétences et les relations que vous acquerrez lors de cette conférence vous positionneront comme un leader dans votre domaine.

En amenant votre équipe, vous pouvez également amplifier ces avantages, tout en profitant de nos remises de groupe. 

Ne manquez pas ce moment clé!

Avec tant de valeur en deux jours, il n’est pas surprenant que la demande pour dotAI 2024 soit élevée. Cet événement a toujours été un des secrets les mieux gardés de la communauté tech européenne, mais la nouvelle se répand rapidement.

N’attendez pas qu’il soit trop tard : une fois que nous aurons vendu tous les billets, il n’y aura plus d’autre chance !

Réservez votre pass

Article publi-rédactionnel

dotAI
  • ✇ActuIA
  • L’intelligence artificielle au LS2N
    Le Laboratoire des sciences du numérique de Nantes (LS2N) est un des grands laboratoires publics français du numérique, rassemblant les forces de recherche académiques nantaises en cybernétique et informatique pour développer les sciences du numérique, ouvertes sur les autres disciplines et les défis sociétaux. Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir

L’intelligence artificielle au LS2N

Par : ActuIA
14 août 2024 à 14:17

Le Laboratoire des sciences du numérique de Nantes (LS2N) est un des grands laboratoires publics français du numérique, rassemblant les forces de recherche académiques nantaises en cybernétique et informatique pour développer les sciences du numérique, ouvertes sur les autres disciplines et les défis sociétaux.


Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.


 

S’appuyant sur quatre tutelles (CNRS/ INS2I, Centrale Nantes, IMT Atlantique, Université de Nantes) et un partenaire (Inria), le LS2N (UMR 6004) rassemble plus 480 collaborateurs dont une moitié sur poste permanent et une moitié de doctorants et post-doctorants. Réparti sur cinq campus de la métropole nantaise, il vise un rayonnement fort, national et international, au coeur de la structuration en cours de l’enseignement supérieur et de la recherche à Nantes.

Les 24 équipes de recherche du LS2N se répartissent en cinq pôles de compétences :

• conception et conduite de systèmes (automatique) ;
• robotique, procédés de fabrication, calcul ;
• sciences des données et de la décision (optimisation et résolution de contraintes, intelligence artificielle) ;
• signal, image, ergonomie, langue (traitement des signaux et des images, interactions humain-machine, traitement des langues naturelles et des textes) ;
• sciences du logiciel et des systèmes distribués.
À ces cinq pôles s’ajoutent les cinq thèmes transverses ou défis sociétaux que sont :
• l’entreprise du futur (aide à la décision, robotique, logistique) ;
• les sciences du vivant en interaction avec les STIC (bio-informatique, imagerie médicale, biologie des systèmes) ;
• la création, la culture et les sciences numériques (avec la Halle 6 Ouest1 du quartier de la Création sur l’Île de Nantes pour observer l’humain en interaction avec les artefacts numériques) ;
• la maîtrise de l’énergie (adaptation de la consommation énergétique, écoconception de logiciels et de robots) ;
• les véhicules et mobilités (voiture autonome, assistance à la conduite, optimisation des flux).
Les équipes du LS2N sont naturellement concernées par l’intelligence artificielle et fortement mobilisées sur le front de l’utilisation et du développement des techniques d’apprentissage. Elles s’emploient à développer une offre ciblée d’IA opérationnelle, légère, et anthropocentrée.

Le LS2N compte plusieurs atouts pour répondre aux questions aujourd’hui ouvertes en IA :

• D’une part, un socle historique dans le développement de méthodes fondamentales en IA, notamment en apprentissage machine (symbolique et statistique), science des données (fouille et analyse), modélisation et représentation des connaissances, ou en optimisation.
• D’autre part, des chercheurs spécialistes de la perception et la modélisation de l’humain promeuvent l’intégration des humains dans la conception et l’analyse de performances des systèmes IA. Une meilleure coopération entre les humains et la machine est recherchée afin de garantir un système plus efficace que chacun des agents considérés isolément, et le support de l’humain par la machine et non le contraire.
• Enfin, quelques équipes rapprochent l’IA des capteurs produisant les données. Grâce à la maîtrise des chaînes d’acquisition, on peut mieux coupler les données issues de capteurs et leur traitement, et aller jusqu’à apprendre aux capteurs à mieux obtenir les données pour un but précis (co-conception) ou à créer des capteurs qui préservent la confidentialité des données de par leur conception.

Le LS2N contribue aussi aux ODD2 proposés par l’ONU, par exemple en développant des solutions d’IA durable, en contribuant à la médecine de précision, en participant aux innovations ouvertes, ou en favorisant l’éducation ouverte en IA.

Ces approches fondamentales s’enrichissent à travers des développements plus appliqués. Les domaines d’application d’IA privilégiés au LS2N sont l’industrie, la santé et les humanités numériques.

Au-delà d’une simple utilisation de méthodes existantes, les spécificités des signaux provenant d’autres disciplines (comme la psychologie, la biologie, l’imagerie médicale, l’urbanisme, l’industrie, …) requièrent le développement de méthodes nouvelles ou l’adaptation des algorithmes existants.

La mise en relation entre ces signaux et les algorithmes utilisés pour les traiter est au coeur des problématiques du laboratoire.

Le monde industriel intègre de plus en plus d’IA à différents niveaux, et révèle de nouveaux défis. Le LS2N accompagne cette mutation en combinant ses compétences en robotique (articulée ou à câbles) et en modélisation des procédés avec celles en apprentissage (réseaux bayésiens, traitement d’images, algorithmes cognitifs…) pour proposer des systèmes industriels agiles et innovants, tout en mettant l’humain au coeur des processus.

En termes de santé, le LS2N développe des recherches centrées sur la production de la donnée (systèmes d’acquisition de signaux ou d’imagerie), son stockage (schémas de compression et de sécurisation) et son exploitation (algorithmes de traitement large échelle ou d’aide à la décision).

En ce qui concerne la culture numérique, le LS2N a récemment reçu une distinction pour ses travaux sur le traitement des contenus multimédias (cf. Emmy Award ci-dessous). Le LS2N est aussi reconnu pour ses activités sur de grands corpus de documents anciens créant des ponts avec des laboratoires des sciences humaines et sociales.

Ces aspects interdisciplinaires de l’intelligence artificielle seront renforcés dans le futur proche grâce au projet AiBy4, porté par deux membres du LS2N. AiBy4 est un des vingt-deux projets retenus par l’Agence nationale de la recherche7 (ANR) dans le cadre de l’appel « Contrats doctoraux en IA » (2020-2025). Il inclut quatre partenaires nantais (Université de Nantes, Centrale Nantes, INSERM et CHU de Nantes) réunis autour de quatre axes : deux axes applicatifs – Industrie du futur et Santé du futur, et deux axes plus théoriques – IA par les humains et IA pour les humains.

Emmy Award de la technologie et de l’ingénierie

Fin janvier, l’université de Nantes a été récompensée par un Emmy Award de la technologie et de l’ingénierie pour sa participation à des travaux avec les fournisseurs de contenus sur internet menés par Patrick Le Callet, professeur des Universités au sein de l’équipe IPI (Image Perception Interaction).

La problématique générale est l’utilisation de tests de qualité (évalués par des utilisateurs) réalisés sur des contenus multimédia (images fixes ou vidéo) pour optimiser des algorithmes de compression des images. Les algorithmes existants revêtent de nombreux paramètres, la question est de choisir la meilleure configuration pour minimiser la quantité de données utilisée (à stocker ou à transporter) tout en maximisant la qualité d’expérience utilisateur.

Ce qui fait l’originalité des travaux récompensés ici, c’est l’utilisation de l’IA (principalement de l’apprentissage profond) pour booster les différentes étapes du processus :
• dans la méthodologie de test : Comment réduire le nombre d’expérimentations nécessaires pour comparer deux approches ?
• dans les modèles psychovisuels : Peut-on apprendre comment un humain évaluera un contenu ?

Ce projet est aussi original par d’autres aspects. En grande partie financé via des fonds collectés par la Fondation de l’Université de Nantes, il est complètement orienté « open innovation » et a bénéficié de collaborations / échanges avec d’autres acteurs, universités américaines et géants du numérique, travaillant dans ce même cadre d’innovation ouverte.

Les résultats sont tous directement disponibles en open source pour toutes les communautés. Ils ont bénéficié d’une tribune sur des démonstrateurs à très grande échelle, sur tous les continents, et ont de fait séduit et été adoptés par quasiment tous les ingénieurs travaillant dans le domaine de la diffusion multimédia. Ce circuit court entre recherche et innovation jusqu’à la boîte à outils de tous les ingénieurs du domaine est singulier

 

Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :

Laboratoire LS2N
  • ✇ActuIA
  • Focus pays Finlande : le pari de l’éducation et de la coopération
    La Finlande a lancé sa stratégie en matière d’IA en 2017 pour stimuler la recherche et l’éducation dans le domaine. Avec ses 5,5 millions d’habitants, le pays des Mille Lacs vise à devenir un pays leader en matière d’IA. Il se place en deuxième position parmi les pays européens, comptant le plus grand nombre d’experts en IA par habitant (LinkedIn Economic Graph 2019). Focus donc sur la Finlande qui mise sur un niveau élevé de formation et de coopération active entre les acteurs afin de créer un

Focus pays Finlande : le pari de l’éducation et de la coopération

Par : ActuIA
9 août 2024 à 14:00

La Finlande a lancé sa stratégie en matière d’IA en 2017 pour stimuler la recherche et l’éducation dans le domaine. Avec ses 5,5 millions d’habitants, le pays des Mille Lacs vise à devenir un pays leader en matière d’IA. Il se place en deuxième position parmi les pays européens, comptant le plus grand nombre d’experts en IA par habitant (LinkedIn Economic Graph 2019). Focus donc sur la Finlande qui mise sur un niveau élevé de formation et de coopération active entre les acteurs afin de créer un environnement de recherche et d’innovation dynamique et attractif.

Une stratégie avant-gardiste

L’intérêt de la Finlande pour les nouvelles technologies ne date pas d’hier, bien au contraire. Nokia a été durant de nombreuses années l’image de marque du pays, sans compter le dynamique tissu académique et entrepreneurial.

Considérée comme avant-gardiste en matière de révolution numérique et d’innovation, notamment grâce à des initiatives et politiques ambitieuses autour du numérique, la Finlande a su mobiliser sa population, son administration et ses entreprises autour de la diffusion des technologies numériques, via l’accès aux données publiques ou l’attention particulière portée au système éducatif.

La transformation numérique et le développement des technologies d’IA ont permis la mise en place d’initiatives et de programmes comme AuroraAI, lancé par le ministère finlandais des Finances, et qui vise à aider les citoyens et les entreprises en leur proposant des services axés sur leurs besoins. Cet intérêt pour l’IA répond au potentiel économique important du domaine. Plusieurs études indiquaient en effet dès 2017 que l’IA pourrait permettre à la Finlande de doubler son taux de croissance économique d’ici 2035 (Accenture et Frontier Economics 2017).

Le pays serait en effet la deuxième économie mondiale ayant potentiellement le plus à gagner du développement de l’IA, derrière les États-Unis.
Pour que ces analyses deviennent réalité, le gouvernement finlandais a donc mis en place dès 2017 un plan d’action en trois volets :

  • un groupe d’experts, d’acteurs et de personnalités académiques, scientifiques et économiques, sous l’égide du ministère de l’Économie et de l’Emploi, chargé de proposer des recommandations pour le développement de l’IA en Finlande ;
  • un programme IA ;
  • une enveloppe de 200 millions d’euros sur la période 2018-2021, inscrite au budget de Business Finland.

Business Finland est l’organisation gouvernementale finlandaise pour le financement de l’innovation et la promotion du commerce, des voyages et des investissements. Cette agence publique est au cœur de la stratégie de développement finlandais. Cette organisation gouvernementale est chargée notamment du financement de l’innovation et des startups dans le domaine de l’IA. Le programme AI Business dirigé par Outi Keski-Äijö est l’une des initiatives lancées par le programme national d’intelligence artificielle de 2017. Prévu de 2018 à fin 2021, il a à ce jour aidé plus de 300 entreprises d’IA, ce qui représente environ 200 millions d’euros de financement. Ce programme vise à soutenir les startups et à augmenter l’attractivité du pays pour la recherche et le développement de l’IA.

La formation comme priorité

Quand on évoque la recherche en IA en Finlande, on ne peut ignorer Teuvo Kohonen, académicien, chercheur et professeur émérite à l’Académie de Finlande. Spécialiste des réseaux neuronaux artificiels, il a travaillé sur l’algorithme du Learning Vector Quantization basé sur la quantification vectorielle ou encore sur la théorie fondamentale sur la mémoire. Il a également présenté la carte autoadaptative dite « carte de Kohonen » dans les années 1980, qui a marqué l’histoire de la recherche sur les réseaux de neurones et la reconnaissance de formes en Finlande.
Ces dernières années, plus de 6300 étudiants suivaient au moins un cours d’IA dans le cadre de leur formation. Les grandes universités finlandaises proposent près de 250 cours individuels d’IA et plus de 40 formations de niveau master, 19 programmes de niveau licence et 3 programmes de doctorat. Il faut ajouter à celles-ci les 26 formations dispensées par les grandes écoles spécialisées et le Centre de recherche technique VTT de Finlande.

À l’heure actuelle, plusieurs universités finlandaises proposent un enseignement de haut niveau sur l’IA. Elles misent notamment sur des opportunités d’apprentissage accessibles et sur l’attrait des citoyens pour le numérique, grâce notamment à des cours publics gratuits en ligne comme Elements of AI.

Sensibiliser la population aux enjeux de l’intelligence artificielle est l’objectif de la Finlande pour développer la recherche et le développement d’activités et de solutions sur un secteur économique en plein essor et au potentiel élevé.

C’est un sujet sur lequel l’Académie de Finlande s’est positionnée via son programme ICT 2023 pour la R&D et l’innovation et pour renforcer les connaissances et les applications en machine learning, internet industriel, technologies et services de santé innovants centrés sur l’utilisateur. Des centres de recherches comme l’Institut d’informatique d’Helsinki (HIIT), se sont rapidement développés pour accueillir les chercheurs et les entreprises.

Elements of AI

Lancée début 2018 par l’université d’Helsinki, Elements of AI est une série de MOOCs conçue en collaboration avec la société Reaktor. Elle a été classée no 1 mondial par le portail de cours en ligne Class Central et Forbes et a remporté le grand prix Inclusive Innovation Challenge du MIT. Les cours peuvent être suivis au rythme de chacun et combinent théorie et exercices pratiques.

Le premier volet, Introduction to AI, permet de se familiariser avec le machine learning, les réseaux de neurones, la résolution de problèmes grâce à l’IA ou encore la philosophie de l’IA. Plus de 1 % de la population finlandaise a été formée aux bases de l’IA grâce à ce cours en ligne gratuit. À l’occasion de la présidence finlandaise du Conseil de l’Union européenne en 2019, le MOOC a été traduit dans de nombreuses langues pour permettre aux citoyens européens de se former eux aussi aux bases de l’IA. Pour sa version française, le partenaire de cette initiative a été Sorbonne-Université.

L’an dernier, Elements of AI a partagé son nouveau MOOC, Building AI, qui permet de découvrir les algorithmes servant à créer des méthodes d’IA. Certaines compétences de base en programmation Python sont recommandées pour tirer le meilleur parti du cours. Depuis son lancement, Elements of AI a formé près de 620 000 personnes, et diplômé des étudiants de plus de 170 pays. À noter que 40 % des participants aux cours sont des femmes, soit plus du double de la moyenne des cours d’informatique.

Le MOOC Ethics of AI lancé par l’université d’Helsinki fin 2020 s’intéresse quant à lui à l’éthique de l’intelligence artificielle et propose des textes, des exercices et un grand nombre de cas réels illustrant différents points de vue éthiques.

Faciliter l’accès aux supercalculateurs

Le CSC (IT Center for Science), basé à Kajaani, se présente comme l’un des plus grands acteurs mondiaux dans le domaine du calcul haute performance. Cette entreprise publique à but non lucratif abrite le système national de calcul et de gestion des données de la Finlande et a été choisie pour accueillir l’un des trois supercalculateurs pré-exascale de l’initiative EuroHPC.

Un projet de 200 millions d’euros financé à 50 % par la Commission européenne et à 50 % par les dix pays participants. Le supercalculateur LUMI, installé en 2021, disposera d’une puissance de calcul crête de 552 petaflops, soit 552 millions de milliards d’opérations en virgule flottante par seconde.

Le CSC, qui fournit déjà aux startups finlandaises des ressources informatiques gratuites pour leurs projets de recherche grâce à la subvention informatique de Business Finland, réservera 20 % de la capacité de calcul de LUMI aux industriels et PME-PMI.

Le Centre finlandais pour l’intelligence artificielle (FCAI)

Le FCAI est l’un des programmes phare de l’Académie de Finlande. Il rassemble des experts académiques, industriels et venant du secteur public, travaillant notamment sur l’Agile probabilistic AI, la Simulator-based inference, le Next-generation data-efficient deep learning, la Privacy-preserving and secure AI, l’IA interactive, l’IA autonome et l’IA dans la société.

Le centre dispose d’un budget de 250 millions d’euros pour 2019-2026, il est devenu l’un des pôles d’innovation numérique de la Commission européenne (AI DIH) formé par une communauté d’experts de l’université Aalto, de l’université d’Helsinki et de VTT.

Le FCAI, le Tampere AI Hub et l’Académie AI de l’université de Turku, entre autres, ainsi que des initiatives régionales et d’autres accélérateurs ont également pour objectif de transférer efficacement les compétences aux startups et entreprises afin de stimuler la commercialisation de l’IA et accélérer son déploie-ment.

Un écosystème entrepreneurial innovant et dynamique

La Finlande compte plus de 300 startups IA dans différents domaines commerciaux. Les liens avec la recherche acadé-mique, les organismes de recherche et les acteurs publics sont particulièrement renforcés pour que les jeunes pousses puissent accéder à toutes les clés pour s’inscrire dans les marchés et créer de nouveaux secteurs porteurs. La région d’Helsinki a notamment été reconnue comme l’un des plus importants écosystèmes de démarrage d’IA en Europe.

Les entreprises peuvent compter sur de larges bases de données mises à disposition des entreprises afin de susciter une plus grande et plus rapide adoption de l’IA dans le pays.

Les startups finlandaises essaient de capitaliser sur les traditions de recherche, en reconnaissance des formes, en TAL ou en vision industrielle par exemple, et sur les coopérations entre secteurs. La société de radiodiffusion nationale finlandaise (YLE) a lancé l’an dernier une campagne de collecte du finnois parlé dans tout le pays afin que les algorithmes puissent apprendre à comprendre et à reconnaître les spécificités langagières.

En matière de collaboration, les exemples ne manquent pas. La société Bilot a développé un modèle pour YIT, la plus grande entreprise de construction de Finlande, afin d’optimiser les procédures de maintenance sur les routes et les rues grâce au machine learning. Top Data Science a développé une solution d’analyse vidéo pour aider les sites japonais à gérer la distanciation sociale en cette période de pandémie.

De son côté, en collaboration avec la Banque mondiale, Headai a réalisé une analyse du marché du travail et une évaluation des lacunes dans les curriculum vitæ à l’aide de mégadonnées analysées par IA en Afrique, ce qui a permis de trouver des points d’action importants pour faire évoluer les formations universitaires et gagner en pertinence dans la vie professionnelle.

La startup Solita s’est appuyée sur son expertise en orthopédie et en IA pour développer avec Coxa Hospital for Joint Replacement le premier logiciel médical CE évaluant les risques d’une chirurgie articulaire pour un patient spécifique. Parallèlement, Silo AI a collaboré d’une part avec Philips pour le développement d’une solution de vision par ordinateur pour l’analyse des images IRM et d’autre part avec IDS, filiale d’Allianz, pour améliorer les flux de travail financiers, la prévisibilité et l’évaluation des risques.

Dans un secteur totalement différent, la startup Fourkind a créé en coopération avec la distillerie de whisky suédoise Mackmyra le premier whisky au monde entièrement développé par apprentissage automatique.

Focus sur deux start-ups

Awake.AI

La startup Awake.AI, créée en octobre 2018 et co-fondée par Karno Tenovuo, propose des solutions et des plateformes de données collaboratives et ouvertes pour faciliter la création d’écosystèmes pour les ports intelligents et l’évolution de la navigation autonome, augmenter l’efficacité opérationnelle et créer de nouveaux services numériques pour tous les acteurs de l’écosystème portuaire.

Partant du constat que plus de 90 % des exportations finlandaises transitent par les ports, Awake.AI s’est développée pour proposer le port intelligent et la plateforme d’expédition autonome les plus fiables au monde et un orchestrateur d’écosystème mondial d’ici 2025.

Silo AI

Silo AI, présenté comme étant le plus grand laboratoire privé de solutions d’IA des pays nordiques, s’est spécialisé dans la création d’une IA centrée sur l’humain en tant que service et cherchant à accélérer la coopération homme-machine pour l’intelligence collective.

L’origine de Silo AI remonte à la crise financière mondiale de 2009 lorsque Peter Sarlin (P.-D.G.) et son groupe de recherche ont conçu une solution d’IA permettant de préserver la stabilité financière de la Banque centrale européenne. En 2017, Tero Ojanperä, Ville Hulkko, Kaj-Mikael Björk, Juha Hulkko et Johan Kronberg se sont unis à Peter Sarlin pour former Silo AI.

Avec ses quelque 90 experts en IA, 50 doctorants et 100 projets en IA, le laboratoire a déployé ses solutions en Finlande et se développe à l’international en proposant une expertise et des outils de pointe, en particulier de vision par ordinateur, de traitement du langage naturel et d’apprentissage automatique.

Avec son projet Growth Engine, l’entreprise cherche à développer un écosystème rassemblant des experts en IA et des partenaires technologiques pour générer de nouvelles opportunités commerciales et mettre en avant l’expertise finlandaise, notamment sur les marchés internationaux.

Trois questions à Outi Keski-Äijö

Responsable du programme AI Business au sein de Business Finland

Quels secteurs de l’économie finlandaise pourraient bénéficier le plus des technologies basées sur l’IA ?

Notre stratégie étant d’être un leader mondial dans l’application de l’IA, nous visons une large adoption de l’IA à la fois dans les secteurs privé et public. Bien entendu, nos secteurs d’exportation sont les plus importants : les TIC, les machines intelligentes, les technologies propres (cleantech), les technologies de la santé et le transport maritime.
Les TIC et les technologies de la santé sont actuellement les domaines les plus avancés car plus de données sont disponibles. De nouveaux secteurs tels que celui des véhicules autonomes font également leur apparition.

La coopération entre le monde académique et l’entreprise semble particulièrement forte en Finlande, comme se traduit-elle concrètement ?

Nous avons une longue tradition de coopération étroite entre les universitaires et les entreprises en Finlande. Nous promouvons également cette coopération par le biais de nos instruments de financement de Business Finland. En outre, nous avons encouragé les universités à créer des centres d’IA afin de transférer efficacement les connaissances et les résultats de la recherche sur l’IA aux entreprises. Ces centres proposent aux entreprises des formations, des ateliers et des conseils en IA. De plus, de nombreux chercheurs en IA se lancent dans les affaires, en particulier en fondant de nouvelles startups.

Quelle est la dernière entreprise ou projet finlandais d’IA qui vous a personnellement étonné ?

J’en citerai deux : le résultat significatif d’un projet de recherche de la FCAI et une entreprise finlandaise de technologie de la santé qui a réussi à combiner l’IA avec d’autres résultats de recherche. Twinify est l’une des réussites de la FCAI. Les chercheurs ont développé une méthode basée sur l’apprentissage automatique qui crée un jumeau de données synthétiques d’un ensemble de données d’origine en conservant toutes les propriétés statistiques de l’ensemble de données d’origine. Cela permet le partage de données sans compromettre la confidentialité. Ceci est particulièrement important dans la recherche en santé, et il peut être appliqué à tous les secteurs.
Deep Sensing Algorithms est une société finlandaise qui a développé grâce à l’IA un dispositif de poche d’analyse de l’haleine pour participer à la lutte contre le Covid-19. Destiné à sa détection par les professionnels de santé et en particulier aux dépistages rapides pour de grandes foules, il est capable de tester une personne toutes les deux minutes.

Focus pays Finlande  le pari de l’éducation et de la coopération
  • ✇ActuIA
  • Les différentes philosophies d’implémentation en RL
    Cet article a été par Ludovic Denoyer. Il est chercheur scientifique au FAIR, se concentrant principalement sur divers problèmes d’apprentissage automatique, en particulier sur l’apprentissage par renforcement et l’interaction homme-machine. Il était auparavant professeur à Sorbonne Universités. Rendre plus simple la programmation d’algorithmes d’apprentissage par renforcement à l’aide des principes de l’apprentissage supervisé : la librairie « RLStructures ». Dans le cadre des jeux olympiques

Les différentes philosophies d’implémentation en RL

Par : ActuIA
8 août 2024 à 14:00

Cet article a été par Ludovic Denoyer. Il est chercheur scientifique au FAIR, se concentrant principalement sur divers problèmes d’apprentissage automatique, en particulier sur l’apprentissage par renforcement et l’interaction homme-machine. Il était auparavant professeur à Sorbonne Universités.

Rendre plus simple la programmation d’algorithmes d’apprentissage par renforcement à l’aide des principes de l’apprentissage supervisé : la librairie « RLStructures ».


Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.


 

L’un des facteurs-clés du succès de l’apprentissage profond (deep learning) est la facilité avec laquelle ce paradigme permet de mettre en application de nouvelles idées et de les expérimenter concrètement sur de volumineux jeux de données. Nous avons en effet assisté à l’émergence conjointe d’avancées déterminantes du côté hardware, avec la mise à disposition de processeurs graphiques (GPUs) à bas coût particulièrement adaptés aux calculs vectoriels et matriciels, ainsi que du côté software, à travers la création de multiples librairies d’autodifférenciation (Theano, Torch, puis TensorFlow, PyTorch, Jax, etc.), permettant de faciliter grandement la programmation d’algorithmes d’apprentissage statistique.

Ainsi, il est désormais possible d’implémenter en quelques heures ce qui pouvait prendre des semaines quelques années auparavant. L’explosion récente du deep learning est au moins autant liée à ces progrès d’infrastructures hardware et software qu’aux progrès conceptuels ou algorithmiques.

Cependant, le deep learning s’attaque principalement à des problématiques d’apprentissage à partir de jeux de données. D’autres cadres d’apprentissage ne sont pas au même point de maturité et ne disposent pas d’outils équivalents. C’est le cas de l’apprentissage par renforcement dont l’objectif est d’acquérir un comportement à partir d’interactions avec un environnement. Popularisé ces dernières années à travers les résultats obtenus sur des problèmes symboliques de l’intelligence artificielle tel que le jeu de go ou les échecs, son cadre est très prometteur car il permet de modéliser des systèmes en interaction (avec d’autres systèmes, des utilisateurs, etc.).
En effet, de nombreuses applications nécessitent des systèmes permettant non pas de faire une prédiction sur une donnée, mais de produire des séquences cohérentes d’actions qui, ensemble, vont permettre d’aboutir à une solution. Ainsi, les algorithmes d’apprentissage par renforcement sont cruciaux dans des applications telles que la robotique, la recommandation, la conception de chatbots, la voiture autonome, etc. Ce domaine reste néanmoins aujourd’hui difficile à aborder, particulièrement dans ses aspects expérimentaux. Si les infrastructures hardware (multiples CPUs et GPUs) sont aujourd’hui souvent disponibles, les infrastructures logicielles sont quant à elles peu matures : l’appren-tissage par renforcement n’a pas encore fait sa révolution.
L’un des enjeux du domaine actuellement est d’extraire des principes-clés de programmation des algorithmes de renforcement sur lesquels il serait possible de bâtir des librairies aussi simples et efficaces que celles dont nous disposons en deep learning. Cela permettrait de démocratiser ce domaine encore trop confidentiel et donc d’y accélérer massivement la recherche et l’utilisation pratique d’algorithmes, ouvrant le champ des possibles de l’IA à des applications bien plus complexes que celles traitées actuellement.

Les librairies de deep learning

Les algorithmes d’apprentissage à partir de données reposent sur quatre composants principaux : 1. un jeu de données. 2. un modèle de prédiction. 3. une fonction de coût permettant de mesurer la qualité du modèle de prédiction, et 4. un algorithme d’optimisation dont l’objectif est de définir (d’apprendre) le meilleur modèle, c’est-à-dire celui dont le coût de prédiction est le plus faible.

Pendant très longtemps, la difficulté de mise en œuvre expérimentale ou en production de ces modèles venait du fait que chaque nouvelle idée avait une incidence sur plusieurs de ces composants, nécessitant un travail d’adaptation fastidieux et coûteux. Le deep learning a démocratisé l’utilisation d’une famille particulière de modèles très expressive, les réseaux de neurones, associés à un algorithme d’optimisation précis, la descente de gradient, permettant d’automatiser de grandes parties de ce processus.

Figure 1 : Exemple d’implémentation d’algorithmes de deep learning (à la’ PyTorch). Les quatre composants décrits apparaissent explicitement, et le programmeur implémente différentes idées en modifiant l’architecture du modèle (fonction ‘build_my_neural_ network’) ou la fonction de coût (fonction ‘my_loss_function’). La librairie de deep learning automatise i) le calcul du gradient (compute_gradient) et ii) la lecture des données (DataLoader).

Construites autour de composants logiciels permettant de faire de la différenciation automatique, les librairies actuelles de deep learning permettent de simplifier grandement les composants 2., 3. et 4. décrits précédemment. Concrètement, le programmeur n’a plus qu’à définir une architecture de modèle, une fonction de coût appropriée à son application, la librairie prendra en charge le reste, permettant l’apprentissage aussi bien sur CPU que sur GPU, voire sur plusieurs GPUs simultanément. Enfin, les librairies proposent aussi des composants logiciels souvent peu mis en avant mais essentiels : les data-loaders.

Ces composants permettent l’ingestion par les algorithmes d’apprentissage de volumineux jeux de données à haute vitesse grâce à la parallélisation de la lecture des données et leur agrégation (batching) automatique, et ce de façon complètement transparente pour le programmeur. Cet exemple de code permettant l’apprentissage d’un modèle en figure 1 nous montre que quelques lignes suffisent pour être en mesure d’implémenter un modèle et de l’apprendre sur de grandes quantités de données.

Les difficultés de l’apprentissage par renforcement

En comparaison de l’apprentissage supervisé classique, l’apprentissage par renforcement revêt de nombreuses difficultés.

1) La première d’entre elles est celle dite du credit assignment, c’est-à-dire la détection (et le renforcement) des actions déterminantes pour l’obtention d’une grande récompense. En effet, l’agent doit effectuer de multiples actions, et réussir à ‘comprendre’ parmi elles quelles sont les bonnes et quelles sont les mauvaises, alors même que les conséquences de ces actions ne pourront être observées que bien plus tard dans la vie de l’agent.

2) La seconde difficulté est celle dite du dilemme exploration/exploitation : afin de pouvoir trouver des comportement efficaces, un agent doit explorer l’environnement dans lequel il s’exécute. Mais, afin d’éviter une exploration inefficace ou trop coûteuse en termes de temps, il est aussi important pour l’agent d’exploiter l’information collectée afin de se focaliser sur des comportements ‘prometteurs’.

3) Enfin un troisième problème fréquemment rencontré est celui de l’observation partielle de l’environnement : l’agent observe à l’instant t une information uniquement partielle qui ne lui permet pas de se ‘localiser’ facilement dans l’environnement (prenons l’exemple d’un robot face à un mur blanc, qui n’observe donc qu’une image blanche et ignore de ce fait où il se trouve précisément).

Ces trois problèmes fondamentaux qui différencient l’apprentissage par renforcement de l’apprentissage supervisé classique font actuellement l’objet de multiples directions de recherche.

Figure 2 : Apprentissage supervisé (PyTorch) et apprentissage par renforcement en RLStructures

L’apprentissage par renforcement

L’apprentissage par renforcement est un cadre d’apprentissage différent de l’apprentissage à partir de données, modélisant l’interaction d’un agent avec un environnement (figure 2). À chaque itération, l’agent observe l’environnement et doit choisir quelle action effectuer. Après la mise en œuvre de son action, il reçoit une récompense immédiate. L’objectif de l’apprentissage est de trouver le meilleur agent, c’est-à-dire celui qui va recevoir le plus grand nombre de récompenses cumulées durant un épisode d’interaction. Contrairement à l’apprentissage supervisé classique, la complexité du problème vient du fait que les prédictions (les actions) faites par le modèle peuvent avoir des conséquences plus tard dans la ‘vie’ de l’agent, rendant la compréhension d’une action à entreprendre, et à quel moment, très difficile.

Ainsi décrit, ce cadre semble très différent du cadre de deep learning présenté précédemment. Les abstractions proposées dans les librairies de deep learning classiques ne sont pas appropriées et ne peuvent être utilisées facilement pour implémenter des algorithmes d’apprentissage par renforcement. Si nous observons les librairies d’apprentissage par renforcement disponibles actuellement, nous constatons que la plupart d’entre elles visent naturellement à abstraire les concepts spécifiques du domaine (environnement, politique, agent), leur utilisation nécessite donc un prix d’entrée important. Par exemple, l’algorithme d’apprentissage est souvent inclus dans l’agent lui-même, rendant l’apprentissage et l’acquisition de données interdépendants, ou bien les structures de données sont spécifiques à certains types de problèmes et ne peuvent être utilisées dans des cadres plus hétérogènes d’apprentissage par renforcement.

Cependant, à y regarder de plus près, le cadre de l’apprentissage par renforcement présente de multiples similitudes avec l’apprentissage à partir de données. Tout comme en deep learning, un algorithme d’apprentissage par renforcement nécessité :

a) des données, traces d’interaction entre des agents et des environnements et produites ici aussi à grande vitesse ;

b) un modèle de prédiction correspondant à un agent décideur d’actions à effectuer en fonction des observations.

Enfin, la grande majorité des algorithmes existants peuvent être exprimés à travers une fonction de coût (composant c) calculé sur des traces d’interactions, et optimisé par descente de gradient (composant d). Peut-on alors programmer les algorithmes d’apprentissage par renforcement de manière similaire à ceux du deep learning, facilitant par là même leur compréhension ? Quelles en sont les différences ?

La première différence provient de la nature des données traitées. Là où le deep learning représente les données considérées comme indépendantes les unes des autres, l’apprentissage par renforcement traite des trajectoires, c’est-à-dire des séquences temporelles de données complexes (observations, actions, récompenses, etc.). Il est donc nécessaire de pouvoir décrire ce type de données facilement.

La deuxième différence se situe dans la nature du modèle de prédiction : là ou le deep learning produit une prédiction à partir d’une donnée unique, un agent produit une action à partir d’un historique d’interactions, c’est-à-dire à partir des observations et actions rencontrées tout au long d’un épisode. Un modèle doit donc avoir accès à son histoire, aux observations et actions produites précédemment.

Enfin, la troisième différence provient du processus d’acquisition des données : là où les librairies de deep learning classiques proposent des data loaders permettant le chargement rapide de grands jeux de données, il est nécessaire en apprentissage par renforcement de pouvoir échantillonner rapidement des traces d’interactions entre plusieurs politiques et plusieurs environnements à grande vitesse.

Ce processus d’échantillonnage est certainement la partie la plus coûteuse en termes de développement pour un programmeur qui initie un nouveau projet en apprentissage par renforcement, car il implique de pouvoir simuler les interactions entre des agents et des environnements, tout en capturant les informations nécessaires à la mise à jour des agents par apprentissage.

La librairie RLStructures

La librairie RLStructures vise à faciliter le passage de l’idée à l’expérimentation le plus efficacement possible. Elle propose une solution aux trois problèmes identifiés précédemment, et permet d’implémenter des algorithmes aussi facilement qu’en deep learning, reprenant les principes des librairies classiques (PyTorch dans notre cas) en les étendant au cas de l’apprentissage par renforcement.

Figure 3 : Exemple d’implémentation d’algorithme d’apprentissage par renforcement
(‘à la’ RLStructures). Les 4 composants apparaissent explicitement, la librairie de deep
learning prenant en charge le calcul du gradient, et RLStructures (Batcher) prenant en
charge l’acquisition de données par des agents sur des environnements.

Le schéma reste très similaire à la boucle d’apprentissage de la figure 1, permettant une
familiarisation aisée.

Conformément à cette description, elle est fondée sur trois composants génériques :

a) elle étend les tenseurs et fournit une structure de données simple et flexible permettant de modéliser des informations complexes (e.g. actions structurées, observations complexes, etc.) ;

b) elle propose une abstraction permettant d’implémenter des agents, notamment à l’aide de réseaux de neurones ;

c) elle fournit un unique composant d’échantillonnage permettant l’acquisition de traces d’interactions entre de multiples agents et environnements à haute vitesse (plusieurs CPUs et GPUs simultanément), à travers la parallélisation sur plusieurs processus.

Assemblés, ces composants simples permettent l’écriture d’algorithmes d’apprentissage par renforcement de manière très similaire à la méthode utilisée en deep learning classique (cf. figure 3).

Se familiariser avec cette librairie et l’utiliser pour implémenter de nouvelles idées devient facile, y compris dans des cadres moins conventionnels tels que l’apprentissage par renforcement non supervisé, les politiques hiérarchiques, l’apprentissage de populations de politiques, etc.

La librairie propose par ailleurs des exemples concrets d’implémentation d’algorithmes du domaine, permettant à un utilisateur de les modifier facilement à son gré, ainsi que des exemples d’utilisation de la librairie dans des cadres moins conventionnels.

Pour de plus amples informations, nous fournissons des tutoriaux et de multiples exemples d’algorithmes.
Ludovic Denoyer est professeur à Sorbonne Université où il a longtemps dirigé le master DAC (Données, Apprentissage, Connaissances) axé sur le deep learning. Aujourd’hui détaché de l’université, il est research scientist au sein de Facebook artificial intelligence research (FAIR) et concentre sa recherche sur l’apprentissage par renforcement.

Les fonctionnalités de RLStructures

RLStructures est une librairie dont la principale caractéristique est de permettre à un programmeur d’implémenter des agents facilement, d’exécuter de multiples agents sur de multiples environnements en parallèle, et de récupérer les traces d’interactions facilitant la mise en place de nouveaux algorithmes.

Plus particulièrement, RLStructures permet :

• d’exécuter les agents et environnements sur plusieurs CPUs ou GPUs ;
• d’exécuter les agents de manière synchrone ou asynchrone, l’acquisition étant alors effectuée en tâche de fond, sans bloquer l’exécution du programme principal ;
• d’accéder à l’ensemble de l’épisode à chaque instant, afin par exemple de permettre l’implémentation de politiques basées sur des architectures de type transformers.

Par ailleurs, RLStructures fournit des fonctions de replay permettant de re-exécuter un agent sur des trajectoires précédemment acquises dans l’objectif de faciliter l’implémentation d’algorithmes dits off-policy.

Conclusion

Le deep learning et l’apprentissage par renforcement, souvent identifiés comme deux domaines distincts, partagent plus de similitudes qu’il n’y paraît. L’apprentissage par renforcement, plus complexe que l’apprentissage ‘classique’, est un domaine aujourd’hui suffisamment mature pour que nous puissions en extraire des principes-clés permettant de faciliter l’implémentation effective d’algorithmes nouveaux. RLStructures est une première tentative dans cette direction.

Elle permet dès à présent un gain de temps non négligeable durant le développement et peut être utilisée comme accélérateur de recherche. Elle peut aussi être envisagée comme cadre d’enseignement de l’apprentissage par renforcement.

Nous sommes impatients de voir comment elle évoluera dans les mois à venir, avec l’aide de la communauté.

Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :

Les différentes philosophies d’implémentation en RL
  • ✇ActuIA
  • Le Paris Machine Learning Meetup
    Frédéric Bardolle, à la tête de l’incubateur numérique du ministère des Armées, considère que « la qualité des intervenants est incroyable, et les sujets évoqués sont très variés et toujours passionnants. » Mehdi Benhabri, haut fonctionnaire spécialiste des questions scientifiques et technologiques, résume sa participation en ces termes : « Le Paris Machine Learning est rapidement devenu l’un des plus grands rassemblements de France sur les thématiques de l’intelligence artificielle en général e

Le Paris Machine Learning Meetup

Par : ActuIA
7 août 2024 à 14:00

Frédéric Bardolle, à la tête de l’incubateur numérique du ministère des Armées, considère que « la qualité des intervenants est incroyable, et les sujets évoqués sont très variés et toujours passionnants. »

Mehdi Benhabri, haut fonctionnaire spécialiste des questions scientifiques et technologiques, résume sa participation en ces termes : « Le Paris Machine Learning est rapidement devenu l’un des plus grands rassemblements de France sur les thématiques de l’intelligence artificielle en général et du machine learning en particulier. Le dynamisme de ses animateurs a permis de mobiliser des compétences de haut niveau dans un cadre original et peu formel afin d’échanger de manière libre et approfondie, sans les rigidités et les contraintes du monde académique. »


Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.


 

Une identité et une charte

Au cours des réunions suivantes, nous peaufinons les valeurs de notre groupe et esquissons notre charte. À savoir une structure plate, sans cooptation. Son but est de donner aux membres le point de vue des chercheurs les plus prometteurs du domaine, d’éviter les discours de vendeurs de solutions techniques, de couper les pitchs et les présentations éclair à la mode dans les startups numériques. Mais également de filtrer et de rejeter sans ambiguïté les tentatives d’exploitation douteuses des algorithmes, parmi lesquelles : les algorithmes de détection d’orientation sexuelle, la recherche des traits du visage caractéristiques des criminels, ou encore la façon de dessiner un visage à partir de la voix.

L’Eurovision du machine learning chez Google

Un an plus tard, forts de nos mille premiers membres, Google nous ouvre les portes de son immense salle de conférence parisienne et met toute son infrastructure à disposition pour une soirée. Le défi ? Retransmettre les interventions des spécialistes IA en direct à Paris, Londres, Berlin et Zurich.
Le point d’orgue de la soirée est Andrew Ng, cofondateur de Google Brain, professeur à Stanford et star mondial de l’IA. Son credo ? « L’IA est une nouvelle électricité. Elle s’immisce dans tous les objets comme l’électricité l’a fait au début du siècle. »

Après cette première saison, le ton est donné. S’enchaînent au fil des sept saisons différents formats et déclinaisons, présentations à distance avec des chercheurs à l’autre bout du monde, hackathons, concours de code et hors-série thématiques : data journalism par le responsable data du New York Times, attaques adverses, finance algorithmique, automatic machine learning, robotique et IA, calcul haute performance.

Andrew Ng, professeur à Stanford, cofondateur de Google Brain (division de recherche fondamentale IA de Google) a très largement contribué à populariser les méthodes et les techniques de l’intelligence artificielle, particulièrement à travers son célèbre cours en ligne Coursera, passage obligé pour tous les codeurs d’IA.

Partage d’expertise

Cas d’usage d’entreprises et algorithmes data

En France et dans le monde, des communautés d’experts data et IA se constituent. Toulouse, Marseille, Nantes. Amsterdam, Stockholm, New York, Boston, San Francisco. Aucune ville n’est en reste. Pour quelle raison ? Parce que l’accélération prodigieuse du rythme d’apparition de technologies déstabilisantes provoque un besoin de formation et une soif de compréhension immédiate, peu en adéquation avec le rythme des formations longues.

En effet, ce que désirent les ingénieurs, les programmeurs et les entrepreneurs est de comprendre immédiatement ce qui est en train de se jouer et qui chamboule l’économie. Comment appliquer les algorithmes à leur métier ?
Quant à l’offre d’expertise, elle est tout aussi abondante.

Facteur H, l’humain dans la boucle

Au-delà d’une soif de connaissances techniques, le plaisir des rencontres informelles et du réseautage est un élément important. Gautier Marti, un Français spécialiste des algorithmes machine learning travaillant à Abou Dabi pour un fonds souverain nous confiait que « les rencontres du Paris Machine Learning sont une source de veille technologique. Elles permettent de découvrir de nouveaux outils et de confronter ses idées à la réalité ou à l’expérience d’autres experts. »

Lors de ces rencontres, des fondateurs d’entreprise se sont rencontrés et ont créé leur entreprise. Nicolas Gaude, cofondateur de la startup Prevision.io, fait part de son expérience en ces termes : « Ce fut pour moi un vrai déclic. Avec l’aide de Franck Bardol, d’Igor Carron et les conseils des experts présents, j’ai pu vraiment progresser techniquement et donner corps à mon projet. »

Jacques-Henri Gagnon, directeur adjoint des services culturels et chef des relations universitaires à l’ambassade du Canada à Paris, ajoute : « Le Paris Machine Learning m’a donné accès à ce large réseau et a aussi été le point de départ d’échanges franco-canadiens ce qui, dans mon sec-teur d’activité, est le cœur de métier. » Le groupe a fait office de facilitateur pour nombre de ses membres, des ingénieurs y ont été recrutés, des sociétés ont initié des partenariats et des rachats.

Pour conclure, cette phrase de Théodore Levitt, le père fondateur du marketing s’adressant à ses étudiants, résume bien l’esprit de cette communauté : « Le client ne veut pas une mèche de perceuse. Il veut un trou dans le mur. »

Jürgen Schmidhuber, découvreur des LSTM au début des années 2000, a rendu cet apprentissage possible grâce à des données temporelles, ordonnées et horodatées. Ses réseaux récurrents temporels LSTM analysent désormais les données de capteurs des chaînes de production d’usines et permettent de prédire les valeurs futures. On lui doit le traitement efficace des motifs temporels à l’aide de réseaux de neurones spécialisés. Il était revenu sur la genèse de sa découverte dans une réunion et avait partagé les voies d’amélioration de ses méthodes. L’avenir lui a donné raison. Depuis lors, les architectures transformers ont révolutionné la traduction automatique et tout le traitement du langage par des algorithmes.

Gaël Varoquaux, Alexandre Gramfort et Olivier Grisel : ce trio d’ingénieurs et scientifiques français est la tête pensante de la librairie machine learning la plus utilisée au monde, dont les statistiques sont impressionnantes.

C’est la seconde librairie la plus téléchargée au monde derrière la célèbre TensorFlow de Google, avec 700 000 utilisateurs et 42 millions de visites sur le site internet. Son nom ? Scikit-learn. Tous les codeurs du machine learning ne jurent que par elle. Son mérite est de mettre à disposition de n’importe quel programmeur des millions de lignes de code optimisées, pensées et calibrées par les plus grands spécialistes de l’ingénierie. Son prix ? Inestimable. Elle est gratuite et en open source. Elle représente la plus grande réussite de démocratisation du machine learning.

De nombreuses années en arrière, ces trois chercheurs étaient venus initier les membres du Paris Machine Learning au fonctionnement de leur outil Scikit-learn dès la première réunion.

Alexandre Gramfort nous confiait que « cela a été pour moi une belle opportunité de présenter ma recherche. » Depuis, Alexandre, Gaël et Olivier ont été récompensés par le prix Inria – Académie des sciences.

François Chollet, malgré son jeune âge, est une star de l’IA. Et pour cause, ce Français, chercheur chez Google Brain, a écrit la librairie de deep learning nommée Keras. L’avantage de cette librairie est de simplifier et masquer la complexité du deep learning. Le même esprit que Scikit-learn en somme. La reconnaissance ne s’est pas fait attendre. Désormais, Keras est livrée par Google en même temps que les autres programmes deep learning de cette société. Nous l’avions reçu dans une réunion hors-série qui lui était consacrée. François Chollet est également l’auteur d’un ouvrage de référence sur le deep learning. Jacqueline Forien a traduit cet ouvrage en français¹ et poursuit ainsi la démocratisation des algorithmes IA.

Yoshua Bengio, un des co-découvreurs du deep learning, avait évoqué dans une réunion les difficultés d’apprentissage ainsi que les solutions envisagées.
À cette période, le deep learning était encore balbutiant. Ce n’est désormais plus le cas et nous le devons en grande partie à ses travaux.
Les algorithmes de ces découvreurs fonctionnent au quotidien et inspirent les logiciels IA d’entreprises. Leur passage par le Paris Machine Learning a été une source profonde d’inspiration.

Les algorithmes d’apprentissage ont révolutionné des pans entiers de l’ingénierie et rendu possible ce qui tenait jusqu’alors du domaine du rêve des ingénieurs.

La robotique dans tous ses états

La robotique figure en bonne position dans ce chamboulement. Pierre Sermanet, jeune chercheur français dans le groupe robotique de Google² y avait consacré plusieurs conférences. « Mes recherches explorent l’intersection du langage³ et du jeu et mobilisent de multiples mécanismes pour l’apprentissage robotique ». Interrogé sur l’avenir de sa discipline, il répond : « Les avancées récentes autour de l’apprentissage sur des données massives de langage non labellisées (notamment les modèles GPT d’OpenAI) sont impressionnantes et prometteuses, le même type d’approche appliquée à la vidéo et à la robotique me paraît très prometteur ».

Le coup de force du deep learning

S’il est un domaine qui a connu une véritable révolution, c’est bien l’analyse d’images.
Impossible de ne pas évoquer l’apport du machine learning dans l’analyse et la compréhension des images. Le point de bascule a lieu au moment de la fondation du Paris Machine Learning. Grâce à sa nouvelle méthode de réseaux de convolution, Geoffrey Hinton réalise un tour de force dans la compétition ImageNet. Il écrase les méthodes traditionnelles d’analyse d’images et y impose les techniques de deep learning comme nouveau standard.

Dominique Cardon, directeur du Médialab de Sciences Po et auteur d’un des ouvrages de référence⁴ sur le sujet, était venu nous en faire un récit épique au cours de la centième réunion du groupe tenue dans les locaux inspirants de la startup Scaleway. Voici quelques morceaux choisis de son récit publié depuis dans un article intitulé La revanche des neurones⁵.
« L’épisode est en passe de devenir légendaire dans l’histoire de l’informatique ». Un chercheur interrogé par Dominique Cardon se souvient : « En 2012, Hinton débarque dans la compétition ImageNet et crée un véritable séisme !

Il ne connaît rien au domaine de la vision par ordinateur et il embauche deux petits gars pour tout faire sauter !
À l’époque, les ingénieurs de computer vision s’excitent sur ImageNet depuis deux ou trois ans. Le meilleur d’entre eux était à 27 % d’erreurs. Hinton, lui, marque dix points à tout le monde ! Ce jeune geek arrive et annonce le résultat devant une salle bondée. Un ado qui ne comprend rien à ce domaine, enfermé dans ses algorithmes !
Tous les grands manitous du computer vision essaient de réagir : En fait c’est pas possible, ça va pas marcher… Au final, les mecs étaient tous abasourdis parce que grosso modo cela foutait en l’air dix ans d’intelligence, de tuning et de sophistication. »
Ce récit savoureux nous fait vivre de l’intérieur la révolution initiée par les algorithmes d’apprentissage. Les méthodes d’expertise manuelle fine sont balayées par la science “à la Google” qui allie big data et algorithmes IA.

Du laboratoire à la startup

Depuis, les ingénieurs et docteurs en IA ont transformé ces algorithmes encore balbutiants en produits finis redoutables d’efficacité. Des exemples ? LightOn, startup technologique cofondée par Igor Carron, révolutionne l’informatique grâce à sa puce optique. Le résultat ? Des calculs à la vitesse de la lumière et une empreinte énergétique minime grâce à sa technologie de rupture. Le meilleur des mondes en somme.

Meero, une autre pépite technologique, automatise la retouche photo grâce à ses algorithmes AI entraînés sur des millions de photographies.
Jean-François Goudou, son directeur R&D nous avait décrit l’algorithme machine learning de restauration et d’amélioration automatique d’images lors d’une réunion au siège de Samsung. « Les premiers retours clients sont très très positifs. » nous confia-t-il.

Tony Pinville, fondateur, aux côtés de Charles Ollion, de Heuritech, une startup spécialiste de ces mêmes algorithmes IA d’analyse d’images, avait ouvert pour nous le capot de ses algorithmes. Il nous confie : « Le meetup Paris Machine Learning a été un mouvement précurseur de l’IA que Heuritech a eu la chance de rejoindre au tout début. », et ajoute : « Pour notre part, nous utilisons une technologie de reconnaissance visuelle qui analyse chaque jour plusieurs millions d’images de consommateurs et d’influenceurs sur les réseaux sociaux et les traduit en informations riches et pertinentes pour les marques de mode et de luxe.

Pour mieux créer leurs collections, ces marques ont besoin d’informations sur la prévision de tendances et de ventes. Heuritech souhaite combiner ces deux types de prédictions pour mieux les accompagner. » Depuis, la récompense est venue naturellement. Heuritech a reçu le prix LVMH de l’innovation des mains de Bernard Arnault.

Déplacement de l’expertise

Malgré ces succès et avancées spectaculaires, la fabrication des programmes de machine learning demeure artisanale et reste une affaire de spécialistes et d’experts. Les data scientists procèdent le plus souvent par tâtonnements et essais-erreurs lorsqu’ils élaborent un algorithme de machine learning.

C’est à ce déplacement de l’expertise auquel nous assistons depuis dix ans. Auparavant, le cœur de la création de valeur dans les entreprises était la production de règles métiers par les experts. Désormais, ces règles émergent des données grâce aux algorithmes auto-apprenants.

L’expertise des ingénieurs IA qui les conçoivent consiste à choisir l’algorithme le plus approprié pour un jeu de données particulier, puis à l’étalonner et à le dimensionner à la bonne puissance. Pour les entreprises qui mobilisent des technologies IA, la sélection d’algorithmes et d’architectures matérielles et logicielles s’est substituée à la conception des règles métiers traditionnelles.

Les programmes d’IA proposent une mécanisation de l’intuition et de la connaissance métier de l’expert humain. Nous en sommes au premier stade. Un courant de recherche visant à automatiser tout ou partie de la chaîne de fabrication des programmes d’IA s’est mis en place. Il s’agit du second stade, celui qui consiste à « automatiser l’automatisation ». En effet, en induisant la production automatique des règles par un programme d’ordinateur, le machine learning représente une automatisation de la pensée d’experts. Cette voie se nomme AutoML, pour Automatic Machine Learning.

L’AutoML, futur du machine learning ?

Le Paris Machine Learning a participé à l’organisation de concours et de hackathons AutoML. Ce fut le cas du concours RAMP du Paris-Saclay Center for Data dirigé par Balázs Kégl, intervenant lors d’une rencontre consacrée à l’apport du machine learning pour la physique théorique au laboratoire européen du Cern, la data au service des particules atomiques. Ou encore du concours ChaLearn organisé par Isabelle Guyon et du défi européen See.4C assorti d’un prix de deux millions d’euros pour les gagnants. Le laboratoire d’innovation ouverte La Paillasse hébergeait ces rencontres grâce au soutien énergique d’un de ces dirigeants, Sébastien Treguer.

Isabelle Guyon confie que le Paris Machine Learning « a facilité l’organisation de hackathons et la diffusion des challenges en machine learning. »

L’histoire ne s’arrête pas là. « La série de challenges AutoML a permis la création d’Auto-Sklearn⁶ ». En ce qui concerne le deep learning, « la série de challenges AutoDL a abouti à un self-service de deep learning automatisé. »
Pour nous, l’AutoML constitue un axe de développement majeur pour les années à venir. Tous les acteurs importants sont désormais entrés dans la course. Parmi les avancées récentes, citons les méthodes Neural Architecture Search (NAS), en particulier Neural Network Intelligence (NNI) de Microsoft, ou encore Evolved Transformer de Google.

Dans un futur proche, l’expertise technique du data scientist ne sera donc plus nécessaire pour construire des programmes auto-apprenants. Le programme de recherche intitulé Automatic statistician et conduit par Zoubin Ghahramani de l’université de Cambridge, en collaboration avec le MIT, illustre parfaitement cette vision. Ghahramani nous en avait partagé les méthodes et les enjeux.

À terme, seule sera nécessaire une équipe restreinte de data scientists chargés d’améliorer les procédés automatiques de découvertes de règles. Tous les autres redeviendront des programmeurs traditionnels. Ils fourniront des données d’entraînement et obtiendront en retour, sans aucune expertise en la matière, le meilleur programme IA imaginable.

Parmi ceux qui mettent au point ce type de service automatisé de haut niveau, Nicolas Gaude, précédemment cité, nous décrit son activité en ces termes : « Mon métier consiste avant tout à démocratiser l’usage de l’A en apportant aux entreprises à la fois les innovations techniques et la capacité de les mettre en production. Ce qui nous préoccupe, et de loin, est de rendre accessible et opérable le machine learning sur le long terme. »

Quand les algorithmes deviennent un sujet de société

Les algorithmes de machine learning interprètent le monde avec un filtre statistique afin de nous guider dans nos choix.

Ce faisant, ils agissent sur la société et en transforment les pratiques et les usages. Ainsi, lorsqu’un algorithme de GPS suggère aux automobilistes pressés un itinéraire secondaire moins encombré, il peut créer simultanément un problème d’aménagement du territoire, l’itinéraire secondaire n’étant pas dimensionné, par nature, à subir cette augmentation de trafic. De plus, les nuisances sonores et la pollution engendrées par ce dernier touchent les riverains. L’algorithme crée donc également un problème de santé publique.

Dominique Cardon résumait ces points en 2017 lors d’une conférence consacrée aux biais des algorithmes à l’institut Henri Poincaré. Selon lui, « les algorithmes deviennent un sujet de société. » Ajoutons qu’ils deviennent un sujet politique. Un exemple frappant ? Le Zimbabwe a vendu une base de données contenant les visages de ses citoyens à la Chine.

Son but ? Entraîner les algorithmes de reconnaissance faciale sur des visages noirs. En échange de cette masse de données, le Zimbabwe sera bientôt équipé de caméras à reconnaissance faciale dernier cri…
Lors de cette conférence, Cédric Villani proposait une réflexion sur l’apport des algorithmes prédictifs dans l’entreprise. Il notait avec pertinence que les algorithmes devaient au préalable être acceptés avant d’être utilisés. En effet, un algorithme sans accompagnement ne sert à rien, un travail doit être effectué en amont. Cédric Villani nous rapportait une expérience réussie au cours de laquelle des salariés valident les décisions du programme IA et gardent ainsi la main sur la machine. Dans le cas contraire ? Il n’est pas rare de voir les salariés entrer en lutte “souterraine” contre ces programmes en les nourrissant, par exemple, de fausses données.

En somme, c’est l’illustration du fossé qui sépare l’IA capacitante de l’IA substitutive. Pour l’une, il s’agit de remplacer le salarié, pour l’autre il s’agit de le renforcer.

Franck Bardol pour sa part prolongeait cette réflexion autour de l’IA de confiance et précisait les points-clés de transparence et de loyauté des algorithmes. Depuis, ces thèmes émergent dans l’actualité du secteur et sont devenus un sujet d’inquiétude.
Pour Pierre Saurel, professeur associé à la Sorbonne, intervenant dans cette conférence, le domaine de l’éducation est également concerné par cette transformation numérique. De plus, les biais algorithmiques y sont tout aussi présents. Il ajoute que « L’analyse de ces biais est un point particulièrement important. Elle permet d’accompagner les enseignants pour identifier, par exemple, des spécificités dans les documents qu’ils peuvent utiliser en classe. »

Dans les coulisses de la conférence NeurIPS

Les grandes conférences scientifiques internationales sont des opportunités d’échanges intenses pour la communauté, mais aussi de moments, qui comme des œuvres d’art, sont révélateurs de tendances fortes.

Le Paris Machine Learning s’est associé avec la conférence NeurIPS afin de mettre à l’honneur quelques-uns des chercheurs francophones sélectionnés pour cette grand-messe. La forme ? Un panel quotidien de cinq intervenants durant la semaine de conférence. Des présentations éclair dans des visioconférences de dix minutes. Du concentré d’état de l’art. Ce qui émerge de cette sélection de chercheurs ? Beaucoup d’efforts consacrés à l’amélioration des méthodes d’apprentissage mais aussi des tentatives d’explorer des pistes totalement inédites.

Les neurosciences et l’explicabilité des algorithmes figurent aussi en bonne place. En somme, une dense semaine de mathématiques et d’algorithmique de haut niveau par des chercheurs de l’INRIA, l’École normale, Telecom Paris, Criteo, Google Brain et Facebook. Mais aussi venant des startups technologiques les plus avancées en recherche, parmi lesquelles LightOn, Hugging Face et Prophesee.

Des groupes de data scientists de Strasbourg, Timisoara en Roumanie et du Cameroun participaient également à cette semaine de mise en valeur de la recherche francophone. Robert Maria, organisateur du groupe de Strasbourg et de Timisoara, ainsi qu’Alain Nkongweni, organisateur du groupe du Cameroun, ont rejoint Jacqueline Forien et Claude Falguière dans l’organisation. Jacqueline est par ailleurs Meetup Chair à NeurIPS.

L’IA en lutte contre la Covid-19

Dès les premiers signes de la pandémie de Covid-19, la recherche scientifique s’est mobilisée. Le machine learning fait partie de l’arsenal mis en œuvre. C’était pour nous une évidence qui s’est traduite par une série d’interventions exclusives sur ce thème durant l’année 2020.

La recherche d’un remède définitif contre la Covid-19 complète la politique sanitaire du Tester – Alerter – Protéger. Chacun de ces éléments est décliné à base de machine learning, depuis les applications de traçage aux tests en masse, en passant par le suivi personnalisé de centaines de milliers de patients, la prévision du nombre de cas, l’estimation de la dangerosité du virus (le fameux R0) ou encore l’équilibre confinement – détection des cas, sans oublier la conception de molécules médicamenteuses.

Ces différents aspects ont été évoqués par Lenka Zdeborová, professeur à l’EPFL, Maximilien Levesque, fondateur de la startup Aqemia, Alexandre Gramfort de l’INRIA, Dror Baron de l’université de North Carolina et Arthur Charpentier de l’UQAM.

Avant de conclure, rappelons des points fondamentaux. Un algorithme ne remplace pas une infirmière. Un robot désinfectant ne se substitue pas à un accueil des patients à l’hôpital. Une application de traçage ne protège de rien. Aucune technique, méthode ou algorithme ne peut se substituer à l’action politique. Franck Bardol avait insisté sur ce point dans une intervention lors de la sortie de l’application de traçage nommée Stop Covid. Tous les éléments pour un fiasco étaient réunis. On connaît la suite. L’IA n’est pas de la magie qui résout tout. Aucune personne sérieuse n’y croit plus. Evgeny Morozov et son ouvrage de référence sur le techno-solutionnisme est passé par là et a balayé ce mythe.

Quel message retenir du Paris Machine Learning ?

Pour conclure, prêtons-nous à un exercice de synthèse difficile. Tentons de prendre du recul sur plusieurs centaines d’heures de prises de parole.

En premier lieu, ce qui frappe est la vitesse d’adoption des algorithmes IA. Yann LeCun, précurseur du domaine, relevait ce point dans sa leçon inaugurale du Collège de France consacrée aux algorithmes IA. Les ingénieurs ont adopté les méthodes du deep learning à une vitesse stupéfiante. Le décalage du cycle innovation-production n’existe pour ainsi dire plus !

Les avancées spectaculaires du deep learning en ce qui concerne le traitement des images et du langage ont très fortement facilité l’adoption du machine learning dans le tissu économique et dans les entreprises.

Au-delà de l’efficacité pure des algorithmes, d’autres préoccupations émergent. Notamment pour tout ce qui concerne le fonctionnement de ces algorithmes. Quelles sont les ressources nécessaires en données, en énergie, en matériel informatique pour entraîner ces algorithmes ? Hormis ces questions liées à la parcimonie des algorithmes, les mathématiciens s’interrogent toujours : « Pourquoi ces algorithmes fonctionnent-ils aussi bien ? » La recette est désormais connue de tous et a fait ses preuves mais la question de pourquoi elle fonctionne si bien reste entière.

Parallèlement à ces enjeux de recherche pure, le grand public, les ingénieurs, les décideurs politiques s’inquiètent du retentissement considérable de ces algorithmes sur nos sociétés. Les data scientists qui en écrivent le code informatique ne peuvent désormais plus se contenter d’être de purs techniciens, pour reprendre les termes de Cathy O’Neil, célèbre mathématicienne data scientist. Les algorithmes sont devenus un objet politique, l’éthique n’est plus une option mais un devoir.

1. François Chollet, L’apprentissage profond avec Python, éditions Machinelearning.fr
2. http://g.co/robotics
3. https://language-play.github.io
4. Cardon Dominique, À quoi rêvent les algorithmes. Nos vies à l’heure des big data, éditions du Seuil, collection « La République des idées », 2015.
5. Cardon Dominique, Cointet Jean-Philippe, Mazières Antoine, « La revanche des neurones. L’invention des machines inductives et la controverse de l’intelligence artificielle », Réseaux, 2018/5 (n° 211), p. 173-220. DOI : 10.3917/res.211.0173.
6. Service de machine learning automatisé

Site internet du groupe : http://parismlgroup.org/
Archives du Paris Machine Learning : https://nuit-blanche.blogspot.com/p/paris-based-meetups-on-machine-lear-ning.html
Lien vers l’inscription : https://www.meetup.com/fr-FR/Paris-Machine-learning-applications-group/

Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :

Le Paris Machine Learning Meetup
  • ✇ActuIA
  • Portrait de Marie-Aude Aufaure : L’usage des graphes
    Docteur en informatique à l’UPMC (Sorbonne Université) et habilitée à diriger les recherches, le parcours professionnel de Marie-Aude Aufaure est jalonné d’expériences multiples en entreprise, dans le secteur académique et en entrepreneuriat. Elle commence sa carrière dans le secteur des télécommunications, puis rejoint l’enseignement supérieur et la recherche dans différents établissements, dont CentraleSupelec, où elle est titulaire d’une chaire sur la Business Intelligence, et l’INRIA. Passio

Portrait de Marie-Aude Aufaure : L’usage des graphes

Par : ActuIA
6 août 2024 à 14:00

Docteur en informatique à l’UPMC (Sorbonne Université) et habilitée à diriger les recherches, le parcours professionnel de Marie-Aude Aufaure est jalonné d’expériences multiples en entreprise, dans le secteur académique et en entrepreneuriat. Elle commence sa carrière dans le secteur des télécommunications, puis rejoint l’enseignement supérieur et la recherche dans différents établissements, dont CentraleSupelec, où elle est titulaire d’une chaire sur la Business Intelligence, et l’INRIA.

Passionnée de technologies, elle se lance dans l’entrepreneuriat et fonde Datarvest en 2016, jeune entreprise innovante spécialisée dans l’exploitation et la valorisation des données – big data et intelligence artificielle. Ses domaines d’intervention couvrent le développement d’algorithmes innovants, le conseil aux entreprises et la formation. Elle a conçu et piloté la formation certifiante « Big data pour l’entreprise numérique » pour CentraleSupe-lec Exed.

Poursuivant sa volonté d’entreprendre, elle cofonde en 2019 SyncData Partners, cabinet de conseil en stratégie et innovation data. Elle est membre actif du Hub France IA et du think tank « la villa numéris ».


Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.



Vous êtes spécialisée dans les graphes, quel est l’éventail de leurs usages possibles, et identifiez-vous des usages émergents ?

Durant la dernière décennie passée dans des laboratoires de recherche, je me suis intéressée à la construction automatique d’ontologies et à la modélisation et l’analyse de graphes complexes, convaincue du potentiel de ces technologies pour les entreprises. Datarvest (Data Harvesting) a été créée dans l’idée de croiser et d’analyser des masses de données hétérogènes et de proposer une solution d’analyse de données complexes intégrant un algorithme de clustering agnostique des données. Celui-ci permettrait d’extraire des classes en une seule passe à partir de tout type de données, numériques, catégorielles, sous forme de graphes ou de séries temporelles, définies par des intervalles de valeurs, etc.
Les graphes permettent de représenter les liens entre différentes entités, et les applications potentielles sont nombreuses. Citons les usages suivants, qui ne sont pas exhaustifs :

  • la détection de comportements anormaux appliqués à la détection de fraudes, la lutte anti-blanchiment, la cybersécurité ou encore le renseignement ;
  • l’analyse de graphes pour les ressources humaines pour identifier des talents, constituer des équipes cohésives ou encore prédire des évolutions de parcours de carrière et recommander des formations ;
  • la santé et la sécurité, en étudiant par exemple les interactions sociales dans le contexte de la crise sanitaire ;
  • la mobilité pour de l’aide à la décision ;
  • la supply chain pour propager des informations et alertes à l’ensemble de la chaîne de production.

Parmi les usages émergents, outre ceux présentés ci-dessus, les graphes peuvent être utiles pour gérer la gouvernance des données, une problématique majeure actuellement dans les entreprises : le data lineage peut être modélisé à l’aide d’un graphe permettant de tracer les données et de propager des modifications, les graphes de connaissances peuvent être utilisés pour représenter le modèle de données de l’entreprise et il est possible de prédire des liens. L’analyse de l’usage et des interactions clients se prête également très bien à ce type de représentation.

Vous venez de renforcer votre pôle R&D. Quels sont vos objectifs ?

La vocation de Datarvest est de développer des technologies de pointe intégrant les résultats récents issus du monde de la recherche, en concevant et mettant en œuvre des méthodes et algorithmes innovants en collaboration avec le monde académique.
Les travaux de R&D initiés depuis la création de l’entreprise ont donné des résultats prometteurs, applicables à de nombreux usages, et il était naturel de renforcer notre R&D. Un jeune docteur spécialisé dans les graphes, Mehdi Djellabi, a été recruté en mars dernier. Ses travaux ont porté sur des mesures d’interactions locales dans des graphes complexes, et une extension de ces travaux, prenant en compte des éléments de contenu comme des pondérations de relations, peut compléter la solution de Datarvest.
Par ailleurs, notre solution peut harmonieusement être combinée avec des algorithmes de machine learning ou de deep learning existants, pour faire de la prédiction de liens ou de nœuds, ou de manière plus classique en intégrant les résultats analytiques comme données d’apprentissage. Le renforcement du pôle R&D permet d’ouvrir un champ des usages potentiels conséquent et de rester à l’état de l’art.

Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :

portrait de Marie-Aude Aufaure
  • ✇ActuIA
  • Dossier : Réconcilier les IA
    À l’instar de l’Intelligence humaine qui revêt plusieurs aspects et différentes formes, l’Intelligence Artificielle a expérimenté de nombreuses approches pour la simuler. Ainsi, du perceptron au dernier algorithme de Google (Switch-C) en passant par les systèmes experts et la programmation par contraintes, l’imagination des chercheurs a exploité, au fil du temps, toute la puissance des outils et les combinaisons les plus complexes pour approcher au mieux la perception et le raisonnement des huma

Dossier : Réconcilier les IA

Par : ActuIA
5 août 2024 à 14:00

À l’instar de l’Intelligence humaine qui revêt plusieurs aspects et différentes formes, l’Intelligence Artificielle a expérimenté de nombreuses approches pour la simuler. Ainsi, du perceptron au dernier algorithme de Google (Switch-C) en passant par les systèmes experts et la programmation par contraintes, l’imagination des chercheurs a exploité, au fil du temps, toute la puissance des outils et les combinaisons les plus complexes pour approcher au mieux la perception et le raisonnement des humains. Cependant, schématiquement, toutes ces technologies peuvent se classer en deux grandes catégories : L’Intelligence Artificielle Numérique et l’Intelligence Artificielle Symbolique. ActuIA vous propose de découvrir ce que recouvrent ces deux approches et, parce que le monde est complexe et non binaire, suggère une perspective de rapprochement entre elles pour une IA encore plus efficace, plus compréhensible et plus conforme à son modèle humain.


Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.


L’Intelligence Artificielle numérique : Apprendre des données du monde

Article rédigé par Françoise Soulié, conseiller scientifique du Hub France IA

L’Intelligence Artificielle numérique, dont les méthodes connexionnistes font partie, ne s’appelait pas du tout IA à l’origine ! Cette appellation était réservée à l’IA symbolique. Comment s’est-elle retrouvée affublée de ce nom d’« IA » ?

L’IA connexionniste a pour source l’idée que l’intelligence de la machine devrait s’inspirer de l’intelligence humaine. C’est d’abord la cybernétique : Wiener trouve l’inspiration des machines dans le système nerveux, il est rejoint au MIT par Pitts, qui travaille avec McCulloch pour réaliser une machine de Turing avec un réseau de neurones. Leur article¹ contient le modèle du neurone artificiel encore utilisé aujourd’hui dans les réseaux de neurones artificiels et autres modèles de deep learning. Puis Rosenblatt propose le perceptron², un réseau de neurones capable d’apprentissage et qui bénéficie d’une énorme publicité. Mais l’ouvrage de Minsky et Papert³ montre bientôt les limitations du perceptron qui ne peut pas résoudre des problèmes (complexes ?) comme la connectivité des spirales imbriquées de la couverture des ré-éditions de 1987 et 2017 du livre. Mais comme, de plus, aucune application industrielle du perceptron n’émerge, les financements se tarissent et le premier hiver des méthodes connexionnistes s’installe.

Premier rebond

À partir du début des années 1980, le travail sur les réseaux connexionnistes repart. Les chercheurs du domaine se retrouvent lors de la conférence NIPS (créée en 1987, devenue NeurIPS en 2018⁴) avec son prequel à Snowbird, des conférences d’INNS et ENNS (International / European Neural Network Societies) et aussi de plusieurs conférences OTAN en France. De nombreuses équipes, partout dans le monde, avancent en parallèle.

Aux États-Unis, David Rumelhart (Parallel Distributed Processing group à San Diego) publie l’article fondateur sur la rétro-propagation⁵ que Yann Le Cun avait également développé dans sa thèse en France en 1987⁶. Larry Jackel crée une équipe aux Bell labs avec Le Cun, Bengio, Bottou, Vapnik. Ils exploitent l’algorithme de rétro-propagation du gradient et commencent à travailler sur les réseaux multi-couches convolutionnels (Time
Delay Neural Networks, à l’époque). Ils proposent en 1989⁷ un réseau à trois couches cachées de filtres convolutionnels pour la reconnaissance de caractères. Geoffrey Hinton, à Carnegie Mellon, puis à l’université de Toronto, est sans doute l’un des plus prolifiques contributeurs à l’IA connexionniste : il a travaillé sur les réseaux de neurones, les machines de Boltzmann, les réseaux deep belief, les réseaux convolutionnels… Yoshua Bengio, à l’université de Montréal, se spécialise dans les réseaux convolutionnels, les graph transformer networks⁸ (le modèle de lecture automatique des codes postaux décrit sera déployé à l’U.S. Postal Service et traitera environ 10 % des chèques aux États-Unis au début des années 2000). D’autres équipes en France ont travaillé sur ces sujets. L’équipe de Françoise Soulié-Fogelman et Patrick Gallinari (d’où sont issus Le Cun et Bottou), a travaillé sur des modèles de réseaux convolutionnels (avec 3 à 5 couches de filtres convolutionnels) pour la reconnaissance de la parole (Bottou⁹) ou de visages (Viennet¹⁰) par exemple.

Ces nouvelles techniques sont testées sur les premières applications (lecture de chèques, compréhension de la parole, identification de visages…) et les résultats sont comparables ou supérieurs aux meilleures techniques conventionnelles de l’époque : les limites du perceptron sont complètement dépassées grâce à l’introduction des couches cachées des réseaux multi-couches. Mais des limites apparaissent rapidement : les ensembles de données sont de tailles très limitées et difficiles à assembler, par ailleurs les temps de calcul sur les machines existantes explosent ; l’industrialisation ne démarre pas. Et, à partir de 1995, sans soutien de l’industrie, c’est le deuxième hiver des méthodes connexionnistes.

2012, le tournant

Dans les quinze années qui suivent, l’IA Numérique va se développer fortement, avec des applications nombreuses dans l’industrie (banque, télécommunications, distribution notamment) et une ouverture de la statistique classique à ces méthodes.

Progressivement, cette branche de l’IA est alors considérée comme équivalente au terme Machine Learning. Les manuels de Vapnik¹¹ , Friedman, Hastie, Tibshirani¹² posent les bases théoriques du Machine Learning et dans un article¹³ retentissant de 2001, Leo Breiman, l’inventeur des arbres de décision, des forêts aléatoires et des techniques de bagging, incite les statisticiens à s’intéresser au Machine Learning. D’autres techniques sont développées : logique floue, algorithmes génétiques… Au Canada, le Cifar (Canadian Institute For Advanced Research) finance un programme « Calcul neuronal et perception adaptative » qui permet au trio Le Cun (NYU), Hinton (Toronto) et Bengio (Montréal) de maintenir l’activité sur les réseaux de neurones. Cependant, durant ces quinze ans, trois événements vont complètement changer la donne : d’abord, le web et les mobiles suscitent la révolution du big data, les volumes des données et leur variété explosent ; ensuite, les performances des moyens de calcul – dont les GPU, et les moyens de stockage, croissent exponentiellement ; enfin, en 2012, se produit l’événement qui va lancer la « révolution de l’IA ».

Chaque année a lieu la compétition de référence en vision artificielle, Image-Net Large Scale Visual Recognition Challenge (ILSVRC). Jusqu’en 2011 les meilleures performances obtenues ont un taux d’erreur de classification top-5 de 25 %. D’une année sur l’autre les taux d’erreur baissent d’1 ou 2 %. Mais le 30 septembre 2012, le réseau de convolution AlexNet¹⁴ gagne la compétition avec un taux d’erreur de 15,3 %, un gain de 10,8 % par rapport au second. Et pourtant aucun des auteurs (Hinton avec ses étudiants) n’est un spécialiste de vision artificielle ! AlexNet est un modèle très lourd, dont toutes les techniques utilisées sont pourtant bien connues à l’époque, mais combinées avec une maîtrise technologique remarquable. Les années suivantes, tous les candidats à ILSVRC utiliseront des réseaux convolutionnels et les taux d’erreur continueront de descendre jusqu’à atteindre quelques % (mieux que l’être humain). Fin 2012, Hinton publie avec Microsoft Research, Google et IBM Research un article de synthèse¹⁵ établissant la supériorité pour la reconnaissance de la parole des réseaux convolutionnels profonds i.e. avec beaucoup de couches, et apprentissage ou deep learning.

Il y a donc bien un avant et un après-2012 : le monde entier se lance alors dans la « révolution de l’IA » et c’est le printemps de l’IA connexionniste. Le trio Hinton, Le Cun et Bengio publie un article¹⁶ dans Nature où ils décrivent en 9 petites pages (dont 2 de références) les techniques qui ont battu les meilleurs spécialistes mondiaux en vision et en parole. En 2019, le trio reçoit le prix Turing, le Nobel de l’informatique, doté de 1M$. Leur ouvrage¹⁷ devient la bible du domaine.

Près de dix ans après, les techniques de l’IA numérique (dont l’IA connexionniste) ont de multiples applications industrielles et font même parfois mieux que les humains. Aujourd’hui le terme IA se réfère généralement à ces techniques. On trouve des algorithmes d’IA dans tous les systèmes de perception (reconnaissance d’objets pour le véhicule autonome, de visages pour le comptage des foules ou l’identification de personnes en Chine, d’images médicales ou satellite ; reconnaissance de la parole avec les chatbots ou les assistants personnels – Apple Siri, Amazon Alexa, OK Google ; l’analyse de textes – NLP avec les algorithmes de transformers – BERT et successeurs) ; dans de nombreuses applications marketing ou service client (campagnes ; recommandations de produits, octroi de crédit, détection de fraudes…) ; les jeux où les techniques d’IA ont battu les champions humains (pour le jeu de go par exemple, où DeepMind¹⁸ utilise deep learning et reinforcement learning, avec l’IA qui joue contre elle-même) ; pour des applications en droit (analyse de contrats juridiques, prévision de récidive par exemple) ; l’industrie (maintenance prédictive, fonctions d’assistance au conducteur pour les automobiles) ; la génération automatique d’images ou vidéos pour les media (deep fakes), voire la création d’œuvres d’art ou de théories scientifiques, etc.

Les futurs enjeux ne sont pas (que) techniques

L’essor des applications industrielles de l’IA semble donc sans limite. Pourtant de nombreuses questions restent posées, dont celles-ci, pour ne citer que les principales : si l’IA est meilleure que l’humain dans certaines tâches, elle n’a aucune compréhension de la tâche et est incapable de passer d’une tâche à une autre, pourtant très voisine (on dit que l’IA est « étroite ») et encore moins de résoudre n’importe quelle tâche (l’IA dite « générale »), ce que les humains font couramment. De plus, l’IA apprend à partir des données qui lui sont fournies : si ces données sont « biaisées », l’IA en résultant le sera également (une application¹⁹ de reconnaissance du sexe à partir de photos contenant beaucoup d’hommes blancs fait 1 % d’erreurs sur les hommes blancs et 35 % sur les femmes à peau sombre).

L’éthique de l’IA est donc un problème très significatif. Ou encore, l’IA ne peut pas toujours « expliquer » ses résultats, ce qui peut nuire à la confiance de l’utilisateur ou poser problème si on veut auditer l’application. Puis, les fakes, créés par des GAN (Generative Adversarial Networks : deux réseaux profonds entraînés l’un contre l’autre) peuvent causer de réels problèmes quant à la véracité des sources, un sujet épineux pour les media ou la sécurité (robustesse et cybersécurité). Enfin, Minsky et Papert avaient déjà discuté de la difficulté à comprendre pourquoi l’IA fonctionne : les grands systèmes récents avec des milliards de paramètres (175 pour le récent modèle de langage GPT-3) deviennent quasiment impossibles à analyser. Il faut donc davantage de résultats théoriques et sans doute encore beaucoup de travail pour apporter la réponse à la simple question posée par Léon Bottou dans le prologue à la réédition de 1988 de Perceptrons : “Are there inherent incompatibilities between those connectionist and symbolic views ?”

1. Warren McCulloch and Walter Pitts. A Logical Calculus of Ideas Immanent in Nervous Activity. Bulletin of Mathematical Biophysics vol.5, pp. 115–133. 1943.
2. Frank Rosenblatt. Principles of neurodynamics. perceptrons and the theory of brain mechanisms. Cornell Aeronautical Lab Inc Buffalo NY, 1961.
3. Marvin Minsky, Seymour Papert. Perceptrons. Cambridge, MA : MIT Press. 1969.
4. https://proceedings.neurips.cc//
5. David E. Rumelhart, Geoffrey E. Hinton, Ronald J. Williams. Learning representations by back-propagating errors. Nature 323.6088 : pp. 533-536. 1986.
6. Yann Le Cun : Modèles connexionnistes de l’apprentissage. Thèse. Juin 1987.
7. Yann LeCun, Bernhard Boser, John S. Denker, Donnie Henderson, Richard E. Howard, Wayne Hubbard, Lawrence D. Jackel. Backpropagation applied to handwritten zip code recognition.Neural Computation 1, no. 4 : pp. 541-551. 1989.
8. Yann LeCun, Léon Bottou, Yoshua Bengio, Patrick Haffner. Gradient-based learning applied to document recognition. Proceedings of the IEEE 86, no. 11 : pp. 2278-2324. 1998.
9. Léon Bottou, Françoise Fogelman-Soulié, Pascal Blanchet, Jean-Sylvain Lienard. Experiments with time delay networks and dynamic time warping for speaker independent isolated digits recognition, Proceedings of Eurospeech-1989, Paris, France, pp. 2537-2540. 1989.
10. Emmanuel Viennet, Françoise Fogelman-Soulié. Connectionist methods for human face processing, In “Face Recognition : from theory to applications”, H. Weschler, J. Phillips , F. Fogelman-Soulié and T.S. Huang, eds. NATO ASI Series F, Computer and Systems Sciences, Vol. 163, Springer-Verlag, 124-156. 1998
11. Vladimir Vapnik. The nature of statistical learning theory. Springer science &amp ; business media, 2013.
12. Jerome Friedman, Trevor Hastie, Robert Tibshirani. The elements of statistical learning. Vol. 1, no. 10. New York : Springer series in statistics, 2001. https://web.stanford.edu/~hastie/Papers/ESLII.pdf
13. Leo Breiman. Statistical modeling : The two cultures (with comments and a rejoinder by the author). Statistical science 16, no. 3 : pp. 199-231. 2001.
14. Alex Krizhevsky, Ilya Sutskever, and Geoffrey E. Hinton. Imagenet classification with deep convolutional neural networks. Advances in neural information processing systems 25 : pp. 1097-1105. 2012.
15. Geoffrey Hinton, Li Deng, Dong Yu, George E. Dahl, Abdel-rahman Mohamed, Navdeep Jaitly, Andrew Senior et al. Deep neural networks for acoustic modeling in speech recognition : The shared views of four research groups. IEEE Signal processing magazine 29, no.6 : pp. 82-97. 2012.
16. Yann LeCun, Yoshua Bengio, Geoffrey E. Hinton. Deep Learning. Nature, Vol. 521, pp 436-444. 2015.
17. Ian Goodfellow, Yoshua Bengio, Aaron Courville. Deep Learning. MIT Press. 2016.
18. Silver, David, Julian Schrittwieser, Karen Simonyan, Ioannis Antonoglou, Aja Huang, Arthur Guez, Thomas Hubert et al. &quot ;Mastering the game of go without human knowledge.&quot ; nature 550, no. 7676 : pp. 354-359. 2017.
19. Joy Buolamwini, Gebru Timnit. Gender shades : Intersectional accuracy disparities in commercial gender classification. Conference on Fairness, Accountability, and Transparency. Proceedings of Machine Learning Research 81 : 1-15, pp. 77-91, 2018

L’Intelligence Artificielle symbolique : Utiliser l’abstraction du raisonnement

Article rédigé par Juliette Mattioli, docteur en mathématiques appliquées, Senior Expert Thales, Laurent Cervoni, docteur en sciences appliquées, directeur recherche Talan, Francis Rousseaux, docteur en informatique, recteur adjoint de l’université Galatasaray

Toutes les « branches » de l’intelligence artificielle (IA) ont pour même ambition de modéliser le raisonnement humain. Dans le domaine de l’intelligence artificielle symbolique, ce sont la capacité d’abstraction de l’être humain et l’utilisation de concepts, les relations entre des objets et les corrélations entre des situations qui sont privilégiées.

Plus discrète que l’intelligence artificielle connexionniste incarnée par l’apprentissage automatique avec l’apprentissage profond, l’IA symbolique aujourd’hui souvent appelée “GOFAI” pour Good Old Fashion AI reste active et adaptée à toute une catégorie de problèmes. En outre, elle peut venir compléter ou s’appuyer sur l’IA Numérique comme l’explique l’article Réconcilier les intelligences dans ce numéro. Nicholas Asher, chercheur CNRS à l’Institut de recherche en informatique de Toulouse (IRIT) et directeur scientifique du projet ANITI, définit cette branche comme une discipline qui « utilise le raisonnement formel et la logique ; c’est une approche cartésienne de l’intelligence, où les connaissances sont encodées à partir d’axiomes desquels on déduit des conséquences. La prédiction doit être juste même si l’on ne dispose pas de données exhaustives». Ce paradigme exploite la manipulation de connaissances sous formes de symboles et de propositions logiques couplée à un mécanisme d’inférence imitant le raisonnement humain dans la résolution de problèmes complexes, comme notamment les problèmes d’optimisation combinatoire, de planification, de décision multicritères. Sa force réside donc dans sa représentation des connaissances et dans son raisonnement par la logique donnant lieu dès le début des années 1970 aux systèmes experts¹ ou aux systèmes à base de connaissances. L’industrie financière utilise aussi la technologie CEP (Complex Event Processing) à base de règles spatio-temporelles dans les systèmes de trading.

Représenter les connaissances

Reposant sur l’idée que « l’intelligence est surtout liée à la connaissance plus qu’à un problème de raisonnement », Edward Feigenbaum, père du premier système expert DENDRAL définit en 1977 l’ingénierie des connaissances (IC) (Knowledge Engineering) comme « l’art d’acquérir, de modéliser et de représenter la connaissance en vue de son utilisation par un ordinateur ». Pour cela, on peut s’appuyer sur :

  • Des représentations logiques construites selon une syntaxe précise. Ainsi, une base de connaissances est un ensemble de formules décrivant le domaine sur lequel s’appliquent des règles de raisonnement, comme dans le langage PROLOG².
  • Des réseaux sémantiques, des graphes conceptuels³ bénéficiant de mécanismes de raisonnement induits par les opérations de graphes comme l’homomorphisme de graphes.
  • Des ontologies qui constituent en soi un modèle de données représentatif d’un ensemble de concepts dans un domaine, ainsi que des relations entre ces concepts.

Les ontologies sont aujourd’hui utilisées pour modéliser et partager un ensemble de connaissances dans un domaine donné, comme par exemple dans le web sémantique ou en génie logiciel. L’inférence, ou le raisonnement, repose sur des opérations de déduction à partir d’informations implicites. Ainsi, ce mécanisme permet de créer des liens entre les informations afin d’en tirer une assertion, une conclusion ou une hypothèse. Par exemple, l’inférence bayésienne est un raisonnement permettant de déduire la probabilité de survenance ou non d’un événement. On distingue cependant trois catégories d’inférence, basées sur la manière dont les problèmes sont résolus :

  • les moteurs dits à « chaînage avant » qui partent des faits et règles de la base de connaissances et tentent de s’approcher des faits recherchés par le problème. Les règles sont utilisées dans le sens conditions vers conclusion ;
  • les moteurs dits à « chaînage arrière » qui partent des faits recherchés par le problème et tentent par l’intermédiaire des règles, de remonter à des faits connus. Les règles sont utilisées dans le sens conclusion vers conditions ;
  • les moteurs dits à « chaînage mixte » qui utilisent une combinaison de ces deux approches chaînage avant et chaînage arrière.

Les méthodes de raisonnement par cas (Case-based Reasoning), introduites au début des années 1980 par Roger Schank reposent sur « l’idée » que l’on raisonne parfois en utilisant des analogies. Ces approches connaissent un regain car elles ont le bon goût d’être plus facilement explicables. Enfin, il faut noter que l’apprentissage machine s’est développé aussi dès les années 1980. Afin d’opérer des généralisations/particularisations de concepts, les systèmes symboliques apprentis combinent des stratégies de :

  • détection de similarités ;
  • recherche d’analogies ;
  • extraction d’explications.

À la frontière entre programmation mathématique et IA, la programmation par contraintes (PPC) est apparue à la fin des années 1980, pour la résolution de problèmes combinatoires complexes tels que les problèmes de planification, d’ordonnancement et d’allocation de ressources. Cette technologie repose sur le paradigme de séparation de la modélisation du problème avec sa résolution. Eugene Freuder dit : « En informatique, de toutes les approches en programmation, la programmation par contraintes se rapproche le plus de l’idéal : l’utilisateur décrit le problème, l’ordinateur le résout. ».

La modélisation du problème peut inclure la connaissance métier et se fait par le biais d’un ensemble de relations logiques : les contraintes. Des mécanismes de propagation des contraintes dans un arbre de branchement permettent la réduction du domaine de décisions. Le solveur de contraintes calcule alors une solution en instanciant chacune des variables à une valeur satisfaisant simultanément toutes les contraintes. Aujourd’hui, de nombreuses applications de la PPC sont déployées, comme dans la grande distribution qui optimise depuis longtemps sa logistique et sa gestion des stocks. Parmi les outils actuellement disponibles en programmation par contraintes, citons OPL et CPLEX d’IBM (issu du rachat d’ILOG), au sein de Python la librairie Python-Constraint (qui offre la gestion de contraintes basiques sur les domaines finis), SWI-PRolog (Prolog Open Source enrichi d’un module de gestion de contraintes) ou encore OR-Tools de Google.

Terrains de jeux de l’IA symbolique

Outre les cas déjà évoqués, l’IA symbolique est souvent utilisée pour concevoir des systèmes d’aide à la décision. En effet, un problème de décision consiste en un choix, ou un classement, entre plusieurs hypothèses mutuellement exclusives résultant d’un processus tenant compte des connaissances que l’on a sur l’état du monde, des préférences et/ou de l’objectif à atteindre. Ces connaissances peuvent être empreintes d’incertitude et les préférences sont par nature nuancées. Un outil simple pouvant être mis en œuvre est alors l’arbre de décision, qui représente un ensemble de choix sous la forme graphique d’un arbre. Les différentes alternatives sont alors les feuilles de l’arbre et sont atteintes en fonction de décisions prises à chaque étape. Cependant, la définition et l’utilisation d’un ou plusieurs critères de sélection sont nécessaires. Contrairement à la situation monocritère qui peut être résolue assez facilement, la décision multicritères nécessite des méthodes plus élaborées. Parmi les techniques utilisées, citons la méthode du What-if ou l’agrégation multicritères. Cette dernière consiste à évaluer globalement les différents candidats ou solutions proposées, à partir de la fusion des appréciations partielles. Reposant sur ce type d’approche, la startup américaine Psibernetix est devenue célèbre en 2016 pour avoir développé une IA à base d’arbres de décision, de logique floue et d’algorithmes génétiques (Genetic Fuzzy Tree) qui a régulièrement battu, lors de simulations de combats aériens, les pilotes les plus chevronnés.

Perspectives

Aptes à fournir des explications intelligibles, à développer des connaissances et à apprendre (machine learning symbolique), les systèmes conçus via l’IA symbolique s’insèrent très bien dans l’épistémologie scientifique traditionnelle car les théories sous-jacentes sont réfutables et interprétables. En revanche, ils pâtissent du fait que les représentations humaines se laissent rarement formaliser sans réductions et sans biais, et qu’elles tendent à évoluer rapidement. La théorie des systèmes d’IA symbolique semblait si naturelle aux scientifiques qu’ils n’ont pas vraiment eu à l’expliciter pour la déployer. C’est pourquoi les mises en garde et les critiques n’ont pas été entendues, et c’est aussi pourquoi les explications sont toujours venues bien après les réalisations de systèmes. Ainsi, pour David Sadek, VP Recherche Technologies et Innovation chez Thales « l’IA connexioniste est l’IA des sens, et l’IA symbolique est celle du sens ». C’est pourquoi, pour couvrir l’ensemble des capacités cognitives, l’avenir est dans l’hybridation de ces deux paradigmes de l’IA souvent mis en opposition. En effet, la principale difficulté de l’approche symbolique est la modélisation des connaissances, là où l’apprentissage peut servir à identifier des modèles présents dans les données. De plus, l’IA symbolique offre des capacités de raisonnement nécessaire pour expliquer, de façon intelligible pour l’usager, les raisons des décisions induites par l’algorithme même si celui-ci manipule des notions ou concepts qui échappent à la compréhension humaine. Ainsi, si l’IA Symbolique est aujourd’hui moins en vue que l’IA Numérique, elle a permis de résoudre des problèmes industriels importants (gestion de haut fourneaux avec SACHEM, dépannage automobile, etc.) et a montré sa capacité à offrir des solutions satisfaisantes quand peu de données sont disponibles ou qu’un raisonnement est modélisable (suivi médical, octroi de crédit, aide à la gestion de carrière). Dans tous les cas, elle est potentiellement complémentaire d’autres approches.

1. Citons les deux premiers systèmes experts : DENDRAL, spécialisé dans la chimie moléculaire créé en 1965 et MYCIN, spécialisé dans le diagnostic de maladies infectieuses du sang (méningites) et la proposition de thérapies associées développé en 1972.

2. Alain Colmerauer et Philippe Roussel développent à Marseille en 1972 le langage PROLOG (Programmation Logique), au départ pour traiter le langage. Un programme PROLOG est une suite de clauses de Horn sur lesquelles opère un mécanisme de raisonnement utilisant le principe de résolution. Comme LISP, Prolog utilise massivement la structure de liste et il est naturellement récursif.

3. Les graphes conceptuels sont introduits par John F. Sowa (chercheur à IBM) en 1984 pour formaliser la différence entre les concepts individuels (instances), les concepts génériques, et les classes (types).

Réconcilier les intelligences (artificielles)

Article rédigé par Laurent Cervoni, docteur en sciences appliquées, directeur recherche Talan, Éric de La Clergerie, docteur en informatique, chercheur à l’INRIA, Francis Rousseaux, docteur en informatique, recteur adjoint de l’université Galatasaray

Souvent les deux approches de l’intelligence artificielle, numérique (dont l’approche connexionniste)et symbolique, présentées dans les précédentes pages, sont opposées l’une à l’autre voire même parfois annoncées comme irréconciliables. L’opposition entre les deux démarches est liée à différentes visions ou explications du cerveau humain que l’IA essaie de modéliser… Pourtant, depuis de longues années, des chercheurs tentent de déterminer une voie pour associer les deux approches.

La vision symbolique traditionnelle présentée dans l’article qui lui est dédié coïncide avec une vision classique conceptuelle du monde et le traitement discret rendu possible par l’informatique. Concepts et relations entre concepts permettent une excellente compression de l’information essentiellement sous la forme très générale de graphes, ceux-ci (en extension ou en intension) pouvant traduire des structures plus ou moins compliquées sur lesquelles mener des raisonnements.

Néanmoins, ces concepts platoniciens reflètent rarement la réalité. Même un concept simple comme « chaise » traduit une grande diversité de formes, textures et même fonctions qui ne gênent cependant pas un humain pour reconnaître une chaise quand il en voit une ! L’ap- proche connexionniste, en particulier sur les aspects images, se révèle bien mieux adaptée pour capturer la nature floue et probabiliste du monde qui nous entoure et que nous conceptualisons.

Ainsi, tout naturellement, l’approche numérique (dont le connexionnisme en est le représentant le plus marquant) est apparue plus adaptée à des problèmes « continus » tels que le traitement du signal, des sons, de la parole, des images (dont l’écriture manuscrite) quand le symbolique s’attaquait au raisonnement et aux mondes discrets.

Cependant, l’intelligence humaine est vraisemblablement une combinaison de ces deux univers, avec plutôt du connexionnisme pour les phases de perception et plutôt du symbolique pour les phases de raisonnement. Aussi, dès les années 1990, de nombreux travaux ont cherché à démontrer l’intérêt de l’articulation entre la démarche connexionniste et la symbolique.

Si ces deux visions du cerveau et de ses mécanismes d’apprentissage expliquent succinctement les différences d’approche entre les deux intelligences artificielles, il n’en reste pas moins que des chercheurs ont pensé qu’il était efficace de tirer parti d’une modélisation symbolique enrichie par une approche neuronale et réciproquement.

Sens de la quête

Vouloir rapprocher les deux visions de l’intelligence artificielle n’est donc pas une lubie de chercheurs mais tente d’apporter de nouvelles solutions aux problèmes que pose la modélisation du raisonnement humain.

Une telle démarche d’hybridation trouve d’ailleurs tout son sens lors du démarrage d’un projet où certains concepts doivent être expérimentés et surtout dans tous les domaines où peu de données sont disponibles. Il faut noter qu’il existe des situations en entreprise où des projets concrets sont repoussés ou abandonnés faute de données alors même qu’il existe une expertise humaine. Initier un projet sur la base de cette expertise, appuyé par des outils symboliques, est alors une approche très efficace. Par exemple, FRMG, conçu par l’INRIA, initialement sur une base Prolog, a débuté par un modèle purement symbolique autour d’un « cœur » en Prolog (cf. article sur l’IA symbolique). Cependant, confronté à la richesse de la langue et à la nécessité de résoudre les ambiguïtés de certaines tournures, une partie heuristique est venue compléter l’approche symbolique afin de lever ces ambiguïtés.

Ces heuristiques, initialement exprimées sous forme logique en tant que contraintes pondérées manuellement, ont vu les poids ensuite appris automatiquement à partir de corpus annotés syntaxiquement via une forme de perceptron une fois de tels corpus disponibles.

Exemples d’analyses avec FRMG (Extraits de M. Proust, À la recherche du temps perdu)

Le schéma derrière FRMG est finalement typique d’un démarrage rapide sous forme symbolique par manque de données alors qu’il existe une expertise humaine.

Dans ces cas, l’apport de données, éventuellement issues de l’outil symbolique, permet ensuite un couplage avec des approches probabilistes et avec appren- tissage. Ainsi, le Prolog maison utilisé par FRMG a aussi été couplé avec une librairie de réseaux de neurones (DyNet), permettant de combiner raisonnement logique et apprentissage/inférence neuronal(e).

D’autres situations justifieraient une telle démarche d’hybridation itérative comme dans certains domaines de suivis thérapeutiques où il existe peu de données et le corps médical s’appuie sur des règles de consensus. La mise en œuvre de ces règles correspond bien à une modélisation symbolique qui peut alors contribuer à la génération de données exploitables par de « classiques » réseaux de neurones permettant ainsi de valider l’efficacité des règles initiales, de remettre en question, de valider ces règles voire d’en créer de nouvelles.

De manière plus systématique, divers travaux cherchent à formaliser et implanter le couplage de la logique avec probabilités et apprentissage. On peut ainsi citer les travaux de Pedro Domingos sur Markov Logic, qui associent la logique du premier ordre avec une démarche probabiliste, implantés en Open Source dans Alchemy http://alchemy.cs.washington.edu/ et illustrés dans son ouvrage The Master Algorithm : How the Quest for the Ulti- mate Learning Machine Will Remake Our World.
Néanmoins, il est également intéressant d’observer que le symbolique n’est pas nécessairement une surcouche de réseaux neuronaux. Ainsi, il existe de nombreuses bases de connaissances symboliques (bases de données, ontologies, réseaux sémantiques…) en général exprimables sous forme de graphes (Resource Description Framework par exemple). Divers travaux cherchent à s’appuyer sur des réseaux neuronaux pour exploiter de telles ressources symboliques.

Cela passe par exemple par de nouvelles architectures neuronales comme les Graph Convolution Networks et les Multihop Attention Networks… permettant le plongement des nœuds dans des espaces multidimensionnels (embeddings), des promenades au sein des graphes ou des rebonds d’information à information.

Enfin, les approches les plus ambitieuses seraient de faire émerger les concepts au sein des réseaux neuronaux sous des formes identifiables et manipulables via du raisonnement. Cela contribuerait à fournir une meilleure explicabilité de ces réseaux mais aussi un point de départ pour ensuite travailler sur ces représentations symboliques comme le font les humains. Un faisceau d’indices comme l’hypothèse du ticket de loterie (Frankle & Carbin 2019) tend en effet à suggérer que les modèles neuronaux actuels avec leurs gigantesques quantités de paramètres (jusqu’à mille milliards de paramètres) cachent en leur sein des modèles beaucoup plus petits et quasiment aussi bons.

Cette capacité à généraliser tout en compressant l’information est peut-être une voie vers des réseaux plus conceptuels. Notons aussi les approches cherchant à instaurer des structures dehiérarchie au sein des réseaux, telles les capsules neural network de Hitton : une capsule étant un groupe réduit de neurones permettant la détection d’un certain élément (comme un œil ou un nez) et l’activation d’autres capsules à un niveau hiérarchique plus élevé (par exemple pour vérifier des contraintes topologiques entre nez et yeux).

Perspectives

La voie qui consiste à ingérer d’immenses volumes de documents ou à manipuler simultanément d’importants de jeux de paramètres (à l’image de GPT-3 ou de Switch-C) est particulière- ment impressionnante car ces réseaux parviennent à un niveau de mimétisme humain particulièrement performant, sur un domaine donné. Mais elle exige une importante puissance de calcul brute (dans sa phase d’apprentissage). Parallèlement, il existe des gisements de connaissances symboliques sous-utilisées qui pourraient être mieux exploitées afin d’optimiser les phases d’apprentissages ou de bénéficier de leur pouvoir d’explication.

Simultanément, il existe de nombreuses situations concrètes où l’expertise humaine est plus aisée à représenter avant de l’enrichir par des modèles probabilistes ou connexionnistes afin de passer d’un modèle discret à un monde continu, ou plus proche de la réalité du monde. Réconcilier les deux intelligences artificielles pourrait aussi faciliter l’explicabilité des algorithmes et, partant, améliorer leur appropriation par les utilisateurs.

Dans son ouvrage, Pedro Domingos suggère d’ailleurs que la clé d’un système « intelligent » se construit sans doute à l’intersection de plusieurs approches (connexionniste, symbolique, bayésienne, etc.).

Les fondateurs de l’intelligence artificielle avaient conjecturé en 1956 que tout aspect de l’apprentissage (ou autre caractéristique de l’intelligence) pourrait peu à peu être décrit assez précisément pour qu’une machine puisse le simuler. L’approche était résolument pragmatique, guidée par une ingénierie logicielle, et les critiques (telles celles formulées par Dreyfus, Winograd ou encore Varela, souvent inspirées des thèses de la phénoménologie husserlienne), ont été suspendues au profit de l’expérimentation. Mais rien n’empêche, à l’heure de nouvelles faisabilités techniques et de meilleures articulations transdisciplinaires, de faire retour sur le projet initial pour en élargir les considérations théoriques.

Pour aller plus loin

Les références bibliographiques sont classées par ordre de dates décroissantes. Cette liste, non exhaustive, confirme le foisonnement d’idées et d’approches pour tenter d’associer connexionnisme et symbolique. La voie est toujours ouverte…

Honghua Dong, Jiayuan Mao, Tian Lin, Chong Wang, Lihong Li, Denny Zhou, Neural Logic Machines, 2019, https://openreview.net/pdf ?id=B1xY-hRctX
Richard Evans, Ed Grefenstette, Differentiable Inductive Logic Programming, 2018,
https://uclnlp.github.io/nampi/talk_slides/evans-nampi-v2.pdf
Chunyang Xiao, Neural-Symbolic Learning for Semantic Parsing, thèse de 2017.
Pedro Domingos, The Master Algorithm : How the Quest for the Ultimate Learning Machine Will Remake Our World, 2015, Basic Books (pages 246 et suivantes).
Alex Graves, Greg Wayne, Ivo Danihelka, Neural Turing Machine, 2014 https://arxiv.org/pdf/1410.5401.pdf
Fernando Santos Osório, INSS un système hybride neuro-symbolique pour l’apprentissage automatique constructif, Thèse de 1998.
René Natowicz, Apprentissage symbolique automatique en reconnaissance d’images, 1987.

Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :

Dossier Réconcilier les IA
  • ✇ActuIA
  • 4 applications basées sur l’IA dans la conquête spatiale : De la navigation autonome à l’assistance des astronautes
    Cet article a été par Jean Ababii. Passionné par le développement de l’intelligence artificielle et le secteur de l’aéronautique et du spatial, Jean Ababii est étudiant en dernière année d’ingénierie informatique à l’INSA Lyon. Après plusieurs stages autour de l’IA appliquée à la vision par ordinateur, il a rejoint Dassault Systèmes pour son projet de fin d’études en tant qu’ingénieur IA et Big Data afin de travailler principalement sur des problématiques de NLP. “Touchdown confirmed ! Persevera

4 applications basées sur l’IA dans la conquête spatiale : De la navigation autonome à l’assistance des astronautes

Par : ActuIA
2 août 2024 à 14:00

Cet article a été par Jean Ababii. Passionné par le développement de l’intelligence artificielle et le secteur de l’aéronautique et du spatial, Jean Ababii est étudiant en dernière année d’ingénierie informatique à l’INSA Lyon. Après plusieurs stages autour de l’IA appliquée à la vision par ordinateur, il a rejoint Dassault Systèmes pour son projet de fin d’études en tant qu’ingénieur IA et Big Data afin de travailler principalement sur des problématiques de NLP.

“Touchdown confirmed ! Perseverance is safely on the surface of Mars”

Ces quelques mots provenant du Jet Propulsion Laboratory de la NASA marquent le soulagement des milliers d’ingénieurs travaillant sur ce projet depuis des années. Le 18 février 2021, au terme d’un voyage de sept mois, le robot Perseverance se pose sur la planète rouge.

Son atterrissage est totalement automatisé puisque, se situant à 200 millions de kilomètres de la Terre, une latence de plus de dix minutes est observée entre l’envoi et la réception d’un message.

Comment peut-on automatiser un processus aussi complexe ? L’intelligence artificielle est une des nouvelles solutions permettant de répondre à ce défi technologique, et son utilisation est en plein essor dans le milieu spatial. En effet, le marché de la robotique et de l’IA dans l’espace, évalué à 2 milliards de dollars en 2018, est estimé à 3,5 milliards en 2025.

De la navigation autonome à l’assistance des astronautes, voici une sélection d’applications de l’IA dans la conquête spatiale.


Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.


1. Navigation autonome

Un des premiers éléments venant à l’esprit lorsqu’on évoque l’IA pour un robot pourrait être sa capacité à se déplacer et à prendre des décisions de manière autonome. Pour un rover comme Perseverance, une automatisation des déplacements permet en effet un énorme gain de temps : en déterminant la meilleure route pour éviter les obstacles, l’opérateur humain n’est sollicité qu’en cas de besoin, sans parler des étapes où cette intervention est impossible, comme lors de l’atterrissage.

Pour comprendre comment l’IA peut aider lors de la navigation sur un objet céleste lointain, il convient de rappeler comment cette dernière est rendue possible sur Terre. Les systèmes terrestres actuels reposent en grande partie sur le GPS, système mondial de positionnement. Or, le GPS fonctionne grâce au calcul de la distance séparant le récepteur de plusieurs satellites. Malheureusement, des satellites de ce type n’existent qu’autour de notre planète. De plus, pour compliquer les choses, Mars ou encore la Lune ne possèdent pas de champ magnétique global permettant le fonctionnement des boussoles traditionnelles.

Une des solutions imaginées pour contourner ces difficultés est de se servir des images et topographies de ces astres, enregistrées lors de missions précédentes. C’est alors que l’IA entre en jeu, en permettant la comparaison des données existantes avec celles pouvant être directement acquises. En effet, des techniques d’IA principalement basées sur l’apprentissage profond (deep learning) sont extrêmement performantes dans le domaine du traitement d’image. Le système Terrain Relative Navigation de Perseverance en est un exemple : il permet de se repérer sur Mars en comparant les caractéristiques visibles de la surface martienne avec des données pré-enregistrées. Grâce à ce repérage précis, Perseverance a atterri à seulement un km environ du centre de la zone visée ! Toujours au cours de cette mission, Ingenuity a effectué son premier vol sur la planète rouge.

Ce drone devient donc le premier objet qui vole sur une planète différente de la Terre. L’automatisation de ses déplacements est d’autant plus critique qu’une fois en plein vol, ce dernier ne peut tout simplement pas s’arrêter pour attendre les instructions terriennes. L’IA permet donc d’analyser son environnement pour prendre en compte les vents par exemple, et suivre au plus près le plan de vol prévu en amont sur Terre. Cependant, nul besoin de se trouver sur une autre planète pour rencontrer des problèmes liés à la navigation.

En effet, en 2019, l’Agence spatiale européenne (ESA) a estimé à près d’un million le nombre d’objets mesurant plus d’un cm orbitant autour de la Terre. Ces nombreux débris spatiaux peuvent causer de gros dégâts à tous les appareils opérationnels, la Station spatiale internationale (ISS) ou des satellites par exemple. Bien qu’une attention particulière soit actuellement portée à cette « pollution » de l’espace, le nombre de lancements augmentera fortement dans les prochaines années. Pour prévenir de potentielles collisions, des techniques à base d’apprentissage profond se sont révélées particulièrement efficaces. En effet, des réseaux de neurones ont permis d’améliorer grandement la précision lors de la détection des débris spatiaux, rendant ainsi possible une identification précise à plusieurs milliers de kilomètres.

2. Collecter et transmettre l’information

Le recours à l’IA apporte une réelle efficacité dans la gestion des données échangées. En effet, que ce soit sur Terre avec l’essor du big data, ou dans l’espace, la quantité de données stockées croît d’année en année, aussi bien grâce à un nombre croissant de capteurs qu’à une baisse du coût de stockage. Ces données proviennent en grand nombre de différentes sources comme des satellites, des télescopes ou des observatoires.

D’après l’ESA, un satellite moderne produit quotidiennement plus de 150 TB (TeraBytes) de données. Leur analyse et transmission exigent beaucoup de travail, et donc de temps, c’est pourquoi le recours à l’IA permet une efficacité démultipliée. Par exemple, la transmission de l’ensemble des données est parfois impossible physiquement, ce qui impose de choisir les plus « intéressantes » pour les chercheurs. Des systèmes d’IA embarqués au sein des satellites ou robots permettent un pré-traitement des données, pour n’en transmettre qu’une partie vers la Terre. Le système AEGIS (Autonomous Exploration for Gathering Increased Science) est par exemple présent sur Perseverance, ou encore sur son prédécesseur Curiosity. AEGIS permet au robot d’analyser différentes roches et transmettre uniquement des données présentant le plus d’intérêt scientifique, ce qui permet de maximiser leur qualité.

D’autre part, la distance importante pouvant séparer les objets émetteurs présents dans l’espace des récepteurs sur Terre entraîne de réelles complications au niveau du débit et de la qualité de la transmission. En effet, les interférences sont un problème courant dans l’espace, dues notamment aux radiations électromagnétiques. Là encore, des techniques à base d’IA sont explorées par la NASA pour améliorer la qualité des réseaux de communications. Certaines techniques d’IA permettent de maximiser l’utilisation des bandes de communications disponibles et ainsi d’améliorer l’efficacité et la fiabilité des transmissions. Cependant, avant de pouvoir déployer de telles technologies, des tests doivent être conduits et sont déjà prévus à bord de l’ISS.

Depuis la Terre également, l’IA permet une meilleure collecte des données, comme on peut le constater avec le Cherenkov Telescope Array (CTA). Ce réseau de plus de 100 télescopes de nouvelle génération situés dans différents endroits du globe terrestre repose sur des techniques de deep learning afin d’ana- lyser rapidement un nombre colossal de données. Les réseaux de neurones utilisés sont entraînés sur le supercalculateur Jean Zay situé sur le plateau de Saclay, en région parisienne, et permettront à terme d’interpréter les évènements en temps réel pour émettre des alertes et faire converger plus rapidement les télescopes vers les sources intéressantes.

3. Traitement des données

Une fois les données collectées et transmises, celles-ci vont faire l’objet de nombreux traitements. Un grand nombre de ces données récupérées sont des images, mais pas uniquement. Pour le traitement d’image, l’IA est un outil formidable, principalement depuis la découverte des réseaux de neurones dits convolutionnels (CNN : Convolutional Neural Networks) faisant partie de la branche de l’apprentissage profond. Il n’est donc pas étonnant que les scientifiques exploitent de plus en plus ces méthodes dans la recherche spatiale.

Une des tâches sur lesquelles ces réseaux se sont montrés redoutablement efficaces est la classification d’objets selon plusieurs catégories, après avoir été correctement entraînés sur des milliers d’images. En effet, le nombre gigantesque d’objets célestes composant notre univers rend impossible la classification manuelle de chacun d’entre eux, et c’est dans ce but qu’est utilisée l’IA aujourd’hui pour déterminer par exemple si tel astre est une étoile, une galaxie ou une planète. Cette classification n’est pas toujours simple à cause du bruit causé par les instruments ou les effets astrophysiques. C’est ainsi que des chercheurs de Google ont développé un réseau de neurones convolutionnels nommé AstroNet afin de traiter les images issues du télescope Kepler de la NASA.

Cette IA a permis de réduire le bruit, et ainsi d’identifier deux nouvelles exoplanètes. Ces différentes avancées permises par l’IA ont conduit à la mise en place du Frontier Development Lab (FDL) par la NASA, dans le but de réunir des innovateurs et travailler sur l’application de l’IA dans l’espace. L’ensemble des techniques qui y sont développées sont publiques et certaines sont déjà utilisées pour prédire les radiations solaires ou identifier la composition de l’atmosphère de certaines exoplanètes. Un des cas d’utilisation de l’IA au FDL est la modélisation d’astéroïdes. Lors de cette tâche, une très large panoplie d’outils issus de l’IA se sont montrés efficaces. Ainsi, des modèles de deep learning tels que des auto-encodeurs ou des réseaux antagonistes génératifs (GAN) ont été utilisés pour la modélisation même des astéroïdes, alors que des techniques comme le clustering ont servi à un pré-traitement des données récupérées. Lors de ce cas d’étude, l’IA a permis une économie importante de temps en réalisant une modélisation d’astéroïde en moins d’une semaine, alors que plusieurs mois étaient nécessaires auparavant.

4. Les assistants d’astronautes

L’utilisation de l’IA pour le traitement d’image a beaucoup été évoquée, cependant elle est également présente dans bien d’autres domaines d’applications relevant de l’exploration spatiale. En effet, les progrès récents dans le traitement du langage naturel (NLP : Natural Language Processing) ont trouvé de nombreux cas d’utilisation dans notre vie quotidienne, mais aussi dans celle des astronautes. Depuis 2018, CIMON (Crew Interactive MObile companioN) est déployé à bord de la Station spatiale internationale. Cet assistant de la taille d’un ballon de basket, développé entre autres par IBM et Airbus, se déplace en autonomie grâce à des hélices. Son objectif est d’assister les astronautes au cours de leurs tâches en leur proposant des informations lorsque c’est nécessaire, à travers des tutoriels par exemple, mais aussi d’interagir directement en répondant à leurs questions.

CIMON repose sur les dernières prouesses techniques puisqu’il utilise l’IA Watson d’IBM, qui a fait ses preuves dans la compréhension du langage naturel et dans la gestion des dialogues. Les performances de CIMON sont encore loin des assistants que l’on peut trouver dans les films de science-fiction comme HAL 9000 de 2001, L’Odyssée de l’Espace. Cependant, l’évolution des performances des assistants est un objectif dans la conquête spatiale pour comprendre et prédire les besoins de l’équipage, analyser leurs émotions, leur santé mentale ou encore prendre de bonnes décisions en cas d’urgence.

L’astronaute Luca Parmitano converse avec CIMON à bord de l’ISS. Source : Youtube

Les défis de l’IA dans la conquête spatiale

L’ensemble de ces différentes utilisations de l’IA dans la conquête spatiale permet de montrer le vaste éventail de possibilités et d’opportunités permises par les avancées technologiques. Cependant, l’utilisation de l’IA induit également des interrogations pertinentes concernant les risques potentiels. Sans en arriver à des cas extrêmes, comme le volte-face des assistants contre l’équipage dans de nombreux films, certaines inquiétudes sont imputées à l’IA, comme un manque d’explicabilité. En effet, les algorithmes deviennent de plus en plus performants, mais aussi de plus en plus complexes, ce qui peut réduire la compréhension de leurs décisions.

Or, les montants financiers astronomiques des missions touchant au domaine spatial risquent de freiner les investisseurs qui vont privilégier la sécurité des techniques plus classiques. Ainsi, il est nécessaire d’améliorer la fiabilité et l’explicabilité des systèmes d’IA actuels pour accélérer leur déploiement dans ce domaine où la moindre erreur n’est pas envisageable. Les systèmes futurs vont probablement intégrer progressivement de plus en plus d’IA en trouvant un équilibre entre les méthodes à très fort potentiel basées sur l’apprentissage profond et les méthodes plus traditionnelles assurant une plus grande sécurité.

D’autre part, la progression plus lente de l’IA dans l’industrie spatiale s’explique également par des raisons plus techniques. En effet, il est beaucoup plus difficile de tester les nouvelles technologies en conditions réelles afin de les optimiser, ce qui entraîne des difficultés particulières pour les techniques d’IA apprenant à partir de situations précédentes. L’amélioration des systèmes existants et l’obtention de plus de données provenant des nouvelles missions spatiales représenteront de grandes opportunités pour la conquête spatiale, dont le futur est difficilement imaginable sans un recours important à l’intelligence artificielle.

Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :

4 applications basées sur l’IA dans la conquête spatiale De la navigation autonome à l’assistance des astronautes
  • ✇ActuIA
  • Quelle évolution pour les métiers de l’IA ?
    La demande des entreprises en matière d’intelligence artificielle ne cesse de croître. Le réseau social professionnel LinkedIn a constaté une augmentation des recrutements dans le domaine en France de 40 % sur l’année 2020, le positionnant dans la liste des 15 secteurs d’avenir (Rapport métiers d’avenir 2021). L’ensemble des métiers de l’IA est actuellement sous tension, mais le paysage va évoluer. Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine

Quelle évolution pour les métiers de l’IA ?

Par : ActuIA
31 juillet 2024 à 14:00

La demande des entreprises en matière d’intelligence artificielle ne cesse de croître. Le réseau social professionnel LinkedIn a constaté une augmentation des recrutements dans le domaine en France de 40 % sur l’année 2020, le positionnant dans la liste des 15 secteurs d’avenir (Rapport métiers d’avenir 2021). L’ensemble des métiers de l’IA est actuellement sous tension, mais le paysage va évoluer.


Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.


Le data scientist, souvent vu comme l’alchimiste des temps modernes…

Qui aurait imaginé que le métier de statisticien, traditionnellement perçu comme une activité austère, puisse un jour être considéré comme « sexy » ? Les progrès de l’intelligence artificielle, puis son ascension au sommet de la courbe du Hype de Gartner, ont braqué les projecteurs sur ceux dont le rôle est aujourd’hui de « faire parler la donnée », les data scientists. Au point que leur métier a été présenté en 2012 comme le “sexiest job of the 21st century” par le Harvard Business Review ! Presque dix ans plus tard, Guillaume Rozier, data scientist français âgé de 25 ans, fait la tournée des talk shows français et The New York Times lui consacre un article. Son action au sein de CovidTracker révèle aux yeux de tous, gouvernements comme grand public, le pouvoir que détiennent ceux qui savent exploiter les données.

Avec <ViteMaDose>, la petite poignée de contributeurs bénévoles qu’il a fédérés pourrait bien frapper encore plus fort en contribuant à l’inflexion de la courbe de vaccination, et donc agir directement sur l’évolution de la pandémie en France. Simplement en facilitant l’accès aux centres de vaccination et la prise de rendez-vous. L’équipe de Guillaume Rozier a su se rendre précieuse alors qu’à la base elle n’a fait qu’exploiter des données publiquement accessibles (n’y voyons rien de péjoratif, bien au contraire).

Cette aventure permet de mettre fin à cette croyance populaire selon laquelle la force d’une entreprise réside dans la possession d’une grande quantité de données, alors qu’elle réside plutôt dans sa capacité à exploiter les données (internes comme externes). Celles-ci, souvent considérees à tort comme de l’or noir, encombrent inutilement nos disques durs lorsqu’elles ne sont pas correctement exploitées. Le rôle-clé du data scientist est de les transformer en source de valeur (encore faut-il qu’elles permettent de satisfaire les attentes).

…ne serait-il pas l’arbre qui cache la forêt ?

Le terme data scientist est souvent utilisé comme fourre-tout pour désigner le spécialiste intervenant dans la conception, l’implémentation ou le déploiement d’intelligence artificielle. Selon cette conception, toute personne travaillant de près ou de loin avec l’IA serait data scientist. Ce phénomène est assez naturel dans un domaine qui n’en est qu’à ses balbutiements¹.

Dans la réalité, si le rôle du data scientist est crucial, l’IA repose en fait sur une grande diversité de compétences et de savoir-faire, et de nouvelles spécialités continuent d’éclore au fil du tissage du lien entre entreprises et IA.

À ce jour, il n’existe pas de nomenclature ou d’identification officielle des métiers liés à l’IA. Pôle emploi ne propose par exemple pas de codes ROME permettant de se référer aux annonces correspondant à ce métier. La manière la plus simple pour les recenser est encore d’utiliser des mots-clés ou de s’appuyer sur des faisceaux de marqueurs plus ou moins distinctifs, comme la référence au langage de programmation Python dans les annonces.

Cette confusion n’est pas que sémantique, les rôles et périmètres de missions varient grandement selon la taille des équipes, leurs objectifs et l’organisation de l’entreprise. Le périmètre d’action d’un data scientist freelance ou évoluant au sein d’une petite équipe sera naturellement plus large que celui d’un data scientist travaillant au sein d’une grande équipe: il devra porter tour à tour la casquette de consultant, de data analyst, de data engineer, de machine learning engineer, de chef de projet…

1 : Ceci rappelle fortement l’emploi du terme “webmaster” au début des années 2000.

Collecte et analyse de données au plus près de l’entreprise sont des valeurs sûres

Selon une étude Eurostat, seulement 6 % des entreprises françaises et 7 % des entreprises européennes utiliseraient de l’intelligence artificielle en interne². Un chiffre voué à progresser rapidement au cours des dix prochaines années.
Pour tirer parti de l’IA sur des fonctions stratégiques de l’entreprise, ces dernières vont devoir collecter et analyser leurs données.
Or, si une tâche n’est pas centralisable, c’est bien celle-ci : qu’elle soit réalisée en interne ou par un prestataire externe (société de conseil, freelance, etc.), la phase de collecte et d’analyse nécessite une grande compréhension de l’activité de l’entreprise en demande. Deux sociétés concurrentes n’auront pas les mêmes données. Les tâches de collecte et de recueil d’informations auprès des experts métier, puis de préparation et d’exploitation des données sont et resteront primordiales.

2 : L’étude se concentre sur 4 cas d’usage : l’analyse big data reposant sur le Machine Learning, les chatbots, les robots de service et l’analyse big data en langage naturel.

 

Ce tableau ne fera pas l’objet d’un consensus, comme évoqué dans cet article, le profil de ces postes varie énormément d’une société à l’autre. Il illustre cependant la forte intrication entre les compétences des différents métiers.

Les profils de data engineer et de machine learning engineer sont promis à un développement rapide

L’évolution de l’IA des laboratoires de recherche vers les entreprises, et désormais la nécessité de son passage du stade de preuve de concept (POC – Proof Of Concept) au déploiement massif, crée de nouveaux besoins d’opérationnalisation à grande échelle des algorithmes. Les pratiques de DataOps et MLOps destinées à garantir l’industrialisation de l’IA sont amenées à monter en puissance.

Deux profils semblent se généraliser :

Le data engineer, qui a pour mission de créer l’infrastructure et d’assurer l’approvisionnement en données. Il est en quelque sorte l’administrateur système de l’IA. Il gère les bases de données et pipelines, rendant cette dernière possible.

L’industrialisation de l’IA s’appuie en grande partie sur l’emploi de plateformes telles que celle de Dataiku, qui facilite grandement la création de pipelines complètes, et peut tout autant répondre aux besoins d’un data scientist freelance qu’à ceux d’une équipe entière. Dans une grande équipe, le rôle de data engineer reste cependant incontournable.

Le machine learning engineer, qui a pour mission de déployer les modèles d’IA dans des applications logicielles.

Une partie de ces profils pourra naturellement provenir du vivier actuel de développeurs. Force est de constater que dans les faits, bon nombre de développeurs ignorent encore comment fonctionne l’IA, souvent parce qu’ils se heurtent à des croyances limitantes. L’IA se décloisonnera progressivement en se rapprochant du domaine du développement logiciel standard. D’autant qu’elle peut tout à fait être proposée sous forme d’API. La plupart des développeurs seront alors amenés à manipuler de l’IA, en faisant probablement une simple spécialisation du développement logiciel, au même titre qu’un développeur peut se spécialiser dans l’interfaçage avec les solutions de paiement en ligne.

Selon Antoine Barck, head hunter, data specialist chez Data Recrutement :
« Nos clients cherchent avant tout à lancer leur politique data-driven. Pour se faire, on remarque un fort intérêt pour les postes de data engineer / architect afin de structurer leur accès à la donnée. Clairement, ces postes sont les plus demandés, ils deviennent pénuriques et s’arrachent à prix d’or. Nous pensons que cette tendance devrait s’atténuer avec l’arrivée de toute une nouvelle génération de data worker. En effet, les écoles se sont adaptées au cours de ces dernières années et forment de nombreux profils. De plus, les entreprises structurent de mieux en mieux leurs pipelines de données, et pourront se concentrer sur son exploitation, ainsi les ML engineers, AI engineers, NLP engineers, et autres métiers issus de l’exploitation de la donnée vont à leur tour inonder le marché. » Cette opérationnalisation ne peut se dérouler sans recourir à de nouvelles compétences dans l’ensemble de la chaîne de production. Pour Laurent Guinard, responsable de l’Usine IA chez Pôle Emploi : « les product owners et product managers doivent transformer leurs pratiques. La clef du succès de l’IA réside aussi dans la capacité des porteurs produits à appréhender les spécificités d’un produit d’IA ».

L’offre de formation aux métiers de l’intelligence artificielle s’étoffe

L’étude « Formations et compétences sur l’Intelligence Artificielle en France », réalisée par l’OPIEEC en 2019 pour le Syntec Numérique estimait que 21 170 professionnels de l’intelligence artificielle et des data sciences pourraient être recherchés en 2023, contre 11 200 en 2019, soit une progression de 59 %. De nouvelles formations se créent pour répondre à la demande. La France est particulièrement réputée pour la qualité de ses cursus. Les diplômés des universités et des grandes écoles françaises s’exportent sans difficulté à l’international. Les formations évoluent afin de répondre de plus en plus concrètement aux besoins des entreprises : de la formation courte au Master of Science (MSc), les cursus en IA ont le vent en poupe. Les écoles “IA Microsoft” dont la formation est dispensée par Simplon ont pour mission de répondre directement aux besoins métiers des entreprises, en créant des cursus “développeur DATA IA” pouvant déboucher sur un contrat de professionnalisation au sein de l’une des entreprises-partenaires.

Python, R, Spark, TensorFlow, Scikit-learn, AWS, Hadoop, Scala et SQL se situent actuellement au sommet des classements des compétences recherchées. Mais pour combien de temps encore ? Face aux technologies qui se renouvellent sans cesse, Yann LeCun donnait le conseil suivant dans le premier numéro d’ActuIA : « Étudiez la physique, les maths, les statistiques, plus que les technologies dont la durée de vie est faible et qui vont disparaître d’ici quelques années. Si vous voulez vous lancer dans ce domaine, apprenez les méthodes sous-jacentes, parce que la science qui est derrière va évoluer, mais les maths de base, et la physique (très utile), ou encore le traitement de signal, la théorie des filtres, sont les bases réelles de l’IA, du machine learning et du deep learning ».

Le métier de data scientist requiert curiosité et sens de l’observation. Il consiste à appliquer ses compétences à l’étude d’un phénomène. Or, l’expertise d’un phénomène se construit avec l’expérience. Les data scientists se spécialisent généralement dans l’étude d’un phénomène, tel que le traitement du langage, la vision artificielle, l’apprentissage par renforcement ou dans un domaine d’application tel que la détection de fraude, la robotique, le marketing.

Une prise de conscience croissante de l’impact

Ces nouvelles formations pourraient accélérer l’inclusion et la progression de la diversité parmi les professionnels de l’IA, mais gare aux effets en trompe l’œil : le profil des ingénieurs évoluera-t-il réellement autant que celui des techniciens ? Dans son rapport mondial 2019 sur les talents en IA, Element AI a recensé seulement 18 % de femmes parmi les auteurs publiés à l’occasion de conférences d’importance. Un chiffre supérieur aux 12 % recensées l’année précédente³.

LinkedIn France a pour sa part enregistré 23 % de femmes parmi les recrutements de l’année 2020. Premiers signes d’encouragement, particularité géographique ou déficit de représentativité des femmes dans les conférences ? L’écart provient probablement d’une conjonction de facteurs, mais le constat reste simple : la parité est encore loin.
Une diversité que se propose d’accélérer la Charte Internationale pour une Intelligence Artificielle Inclusive, lancée par Arborus, destinée à promouvoir l’inclu- sion dans les métiers de l’IA.

À l’occasion de la célébration en avril du premier anniversaire de la charte à Bercy, Cristina Lunghi, présidente et fondatrice d’Arborus affirmait : « L’absence de mixité dans les métiers de l’IA pourrait avoir pour conséquence de ne pas générer de vision commune et partagée entre les femmes et les hommes et que les femmes ratent le tournant du XXIe siècle. »

Il en va bien évidemment de même pour la diversité sociale, la diversité des origines, de l’inclusion des personnes en situation de handicap ou encore de la concentration géographique des postes autour de quelques grandes villes (Paris, Toulouse, Nice, Le Havre…). Delphine Pouponneau, directrice de la Diversité et inclusion chez Orange, société signataire de la charte, rappelle : « N’oublions pas que l’intelligence artificielle est un formidable levier de développement. Elle porte également en elle une véritable opportunité pour réduire les inégalités. Pour les individus, elle est une promesse de carrière et d’émancipation, dont aucun pan de la société, et notamment les femmes, ne doit être exclu. » Une prise de conscience progressive de l’impact à venir de l’IA est en cours et nous voyons naître des écoles préparant l’évolution vers la société de demain, telles Aivancity, dont le postulat est que technologie, business et éthique sont indissociables. « Un secteur fait l’unanimité auprès des candidats à l’emploi, celui de la Tech for Good, les gens ressentent de plus en plus le besoin de mettre à profit leur savoir-faire au profit d’une cause sociétale. La prochaine décennie sera clairement celle de la Green Tech et autres objectifs de développement durable ! ». Antoine Barck, Data Recrutement

3 : Element AI explique sur son blog que cette différence peut être liée à l’élargissement du nombre de conférences analysées.

Une émergence des métiers non techniques

S’il est vrai que la discipline a éclos grâce à l’informatique et aux mathématiques, résumer l’intelligence artificielle à la sphère technique serait réducteur. C’est aujourd’hui bel et bien un sujet central dans nos sociétés. Nous assisterons au cours des prochaines années à l’émergence de nouveaux métiers.

Le métier de consultant en IA est bien sûr l’un des métiers appelés à se développer fortement. Outre sa mission de recueil des besoins, il doit être force de proposition et donc avoir une très bonne connaissance du domaine. Il sera le garant de l’adoption massive de l’IA en entreprise.

Dans Les métiers de l’intelligence artificielle, (192 p., L’étudiant éditions), Fabrice Mateo recense des dizaines de métiers liés de près ou de loin à l’intelligence artificielle. Certains existent d’ores et déjà, tel que celui de scénariste en IA, dont la mission est de fluidifier l’interaction homme-machine, d’autres sont promis à un bel avenir de par leur nécessité, à l’image de l’éthicien en IA. D’autres encore sont des descriptions plus insolites de métiers futurs, qui, s’ils peuvent prêter à sourire aujourd’hui, pourraient bien devenir réalité.

L’interdisciplinarité sera au coeur de la création d’emplois : des professionnels de tous horizons seront appelés à construire une passerelle entre leur spécialité et l’IA. Nous voyons d’ores et déjà naître des formations transversales, à l’image du DU Intelligence Artificielle Santé proposé par l’université de Bourgogne. La santé est l’un des secteurs dans lesquels les promesses de l’IA sont les plus enthousiasmantes.

L’OPIEEC identifie 4 autres secteurs porteurs :

  • les services financiers ;
  • l’industrie ;
  • le retail ;
  • les services professionnels.

Il identifie par ailleurs vingt enjeux pour la branche au niveau de la stratégie, de la formation et de l’emploi, parmi lesquels :

  • la formation du management de la branche ;
  • le développement de la pluridisciplinarité dans l’offre initiale et professionnelle ;
  • l’accompagnement des mobilités de professionnels en poste vers la data science ;
  • le positionnement des prestations vers plus de pluridisciplinarité et de stratégie IA ;
  • une meilleure définition des besoins RH liés aux profils de spécialistes en IA.

Quid des autres métiers ?

Certains s’inquiètent de possibles suppressions d’emplois dues à l’irruption de l’IA. Tout comme la mécanisation a permis d’automatiser des tâches manuelles répétitives, l’IA peut être vue comme le volet intellectuel de l’industrialisation, en permettant d’automatiser des tâches intellectuelles répétitives et peu épanouissantes. Elle est en ce sens un réel progrès pour le travailleur.

La disparition de certains métiers ne peut cependant pas être exclue, même s’il faut avant tout s’attendre à une évolution des activités, vers un recentrage sur des tâches à plus forte valeur ajoutée. À titre d’exemple, la saisie manuelle en comptabilité n’a plus lieu d’être. Un gérant d’entreprise témoigne : « Nous sommes en 2021 et mon cabinet d’expertise comptable imprime encore systématiquement factures et relevés de comptes pour les re-saisir au clavier dans le livre de comptes de mon entreprise. Des services permettent d’importer les opérations et de les catégoriser automatiquement mais il y est réfractaire. Je préfèrerais largement que mon comptable consacre son temps à me conseiller dans la gestion de mon activité qu’à effectuer cette saisie manuelle qui n’apporte rien et qui est source d’erreurs. » C’est effectivement sur le contact humain que vont progressivement se recentrer les métiers qui ne seront pas en lien direct avec l’IA. Serveurs et vendeurs en magasin ont de très beaux jours devant eux contrairement à ce que pourrait laisser présager le développement des caisses automatiques. Les professionnels non spécialistes ne seront pas pour autant tenus à distance de l’intelligence artificielle, mais profiteront de la capacité de l’IA à effacer la complexité technologique pour bénéficier des interactions les plus fluides possibles et s’y appuyer sans compétences techniques poussées.

Ces trente dernières années ont en fait très probablement été les plus éprouvantes pour les personnes peu à l’aise avec l’informatique. Le degré de connaissance ne sera plus un prérequis conditionnant l’accès à la technologie, mais la condition au regard critique permettant de prendre ses distances face aux résultats fournis. C’est la raison pour laquelle une acculturation à l’IA est et restera capitale. Au fil du temps, la nécessité n’est plus tant de comprendre son potentiel que d’en cerner les limites.

Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :

Quelle évolution pour les métiers de l’IA
  • ✇ActuIA
  • Intelligence artificielle et gestion de foule : zoom sur CrowdDNA
    En novembre 2020, le projet de recherche européen CrowdDNA a été officiellement lancé. Il s’intéresse à la prédiction des mouvements de foule, à la détection des facteurs de risque et étudie de nouveaux modèles de simulation. Un sujet qui pourrait permettre d’éviter des drames liés à une brusque concentration de personnes et à des mouvements de foule, dans des stades, lors de concerts ou autres. D’une durée de 42 mois, ce projet a été financé à hauteur de trois millions d’euros par le volet Open

Intelligence artificielle et gestion de foule : zoom sur CrowdDNA

Par : ActuIA
30 juillet 2024 à 13:36

En novembre 2020, le projet de recherche européen CrowdDNA a été officiellement lancé. Il s’intéresse à la prédiction des mouvements de foule, à la détection des facteurs de risque et étudie de nouveaux modèles de simulation. Un sujet qui pourrait permettre d’éviter des drames liés à une brusque concentration de personnes et à des mouvements de foule, dans des stades, lors de concerts ou autres.

D’une durée de 42 mois, ce projet a été financé à hauteur de trois millions d’euros par le volet Open du programme Future Emerging Technology (FET) de Horizon 2020. CrownDNA rassemble l’Inria, l’université de Leeds, l’université Rey Juan Carlos de Madrid, l’université d’Ulm, le centre de recherche Jülich, ainsi que les entreprises Crowd Dynamics International et Onhys.

Julien Pettré, directeur de recherches à l’Inria, au centre de Rennes-Bretagne Atlantique, en est le coordinateur et nous a expliqué en quoi consistait ce projet de mesure de la dynamique des foules denses.


Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article d’archive issu du magazine ActuIA n°4 (avril 2021), dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.


Comment est né le projet européen CrowdDNA ?

Nous travaillons depuis plus de quinze ans à l’Inria de Rennes sur les algorithmes de simulation de foule avec pour objectif de les rendre le plus réaliste possible, par exemple qu’ils soient capables de prédire les mouvements de foule dans des situations données. Pour ce faire, parallèlement à l’aspect algorithmique du problème, nous avons aussi œuvré à l’observation et la mesure du comportement de foules réelles en réalisant plusieurs expériences en laboratoire. L’idée est de mesurer le comportement humain dans un contexte collectif pour disposer de la matière nécessaire pour modéliser et simuler ces comportements. Les données expérimentales sont aussi là pour nous permettre d’évaluer nos résultats de simulation.

Le projet CrowdDNA est né de l’idée de faire passer cette approche qui réunit observation expérimentale et simulation à plus grande échelle : en impliquant plusieurs équipes de plusieurs pays, chacune spécialiste d’un aspect spécifique. Le projet est délimité dans le temps (trois ans et demi) et nécessite de nous concentrer sur une problématique précise : celle du comportement des foules denses, où le contact physique entre individus influence majoritairement le comportement de celle-ci.

Ce sujet central a un impact fort sur le plan sociétal, il aborde la question du confort et de la sûreté des événements de masse. Il s’agit de détecter les risques liés aux niveaux excessifs de densité qui peuvent apparaître dans une foule : cette surdensité engendre un risque d’étouffement ou de piétinement, et donc un risque mortel.

Il faut comprendre qu’une foule n’est pas contrôlable : lorsque la foule devient trop compacte, les individus n’ont aucune marge de manœuvre et il est alors trop tard pour agir. Il est primordial de détecterla formation de pics de densité dans la foule et de traiter ce risque le plus rapidement possible.

Quelles sont les différentes étapes fixées et comment se déroule la collaboration entre les différents partenaires ?

La vision du projet CrowdDNA à long terme est de mettre à disposition des organisateurs de ces événements des technologies qui les assistent dans la prédiction et la prévention des cas de surdensité. L’évolution récente de l’intelligence artificielle, en particulier des techniques de simulation et de traitement d’images (de foule), ouvre des perspectives dans ce sens. On pourra s’étonner d’aborder ce sujet à une heure où les foules denses ont disparu du fait de la pandémie en cours ! Cela nous montre simplement que ces projets se préparent très en amont, les premières discussions autour de la préparation du nôtre remontent à l’été 2018, pour finalement démarrer en novembre 2020.

Le projet s’articule autour de quatre grands piliers. Le premier concerne l’acquisition de données sur les comportements de foules denses. Deux équipes allemandes y participent (centre de recherche de Jülich et université d’Ulm). Le deuxième pilier travaille sur l’analyse de ces données et leur modélisation. Ici une équipe britannique de l’université de Leeds joue un rôle-clé : son but est de simuler les interactions physiques entre individus qui engendreront un mouvement de foule.

À l’inverse, une équipe espagnole de l’université de Madrid va tenter de définir une méthode pour inverser ces relations : pouvons-nous extraire certaines caractéristiques des interactions physiques à partir de l’observation du mouvement d’une foule ? C’est l’objet du troisième pilier du projet, qui constituera la base des technologies que nous envisageons de mettre en place à long terme. Enfin, le projet vise à nous mesurer à la réalitédu terrain. Les données de laboratoire sont indispensables à l’étude de certains mécanismes, mais il faut nous confronter à la réalité de l’organisation des événements de masse et des possibilités d’y utiliser de nouvelles technologies de gestion opérationnelle de foule. Notre quatrième et dernier pilier consiste à installer des observatoires dans des lieux accueillant des foules, et d’y mener des tests et démonstrations de nos résultats.

En cela, nous nous appuyons sur deux entreprises : une britannique, un des pays phare dans l’étude de la gestion des foules (depuis les jeux olympiques de 2012), et une française, plutôt axée sur le développement de simulateurs de foule. L’équipe française de l’Inria coordonne le projet et participe surtout à renforcer les liens entre expérimentation et modélisation car ces deux aspects proviennent de deux domaines académiques distants.

Le concept de foule est par définition très flou, or le comportement d’une foule et ses aspects imprévisibles peuvent énormément varier selon les caractéristiques et le contexte. Utilise-t-on actuellement le même modèle et les mêmes paramètres pour analyser une foule de manifestants, de spectateurs d’un concert de rock ou de personnes âgées en excursion ?

Je ne dirais pas que le concept de foule est flou, mais plutôt qu’il s’agit d’un sujet largement multidisciplinaire et que ce terme peut par conséquent recouvrir plusieurs définitions. Dans le projet CrowdDNA, nous nous penchons sur les mouvements de foule et sur les phénomènes physiques qui lui sont associés.
Nous pourrions définir simplement la foule comme un regroupement de personnes dans un même lieu, formant ainsi un certain niveau de densité. Il est vrai qu’il n’existe pas de nombre de personnes ni de niveau de densité critique pour commencer à parler de foule, mais celle-ci existe dès lors que l’on y observe des interactions entre individus, des signes clairs montrant que le comportement de chacun est influencé par celui de ses voisins, et qu’un couplage entre le comportement de la foule et celui des individus existe (par exemple la propagation d’une réaction au travers d’une foule).
Cependant il est tout à fait correct de dire qu’il existe une très grande variété de comportements de foule, eux-mêmes influencés par un très grand nombre de facteurs. Prenons quelques exemples. Le comportement d’une foule résulte en premier lieu de l’activité de chacun, influencée par la nature des individus qui la compose, leur âge, leur forme physique, leur état psychologique et émotionnel, leur culture, leurs relations sociales, mais aussi de l’environnement : éclairage, météo, ambiance sonore, etc. Un simulateur de foule a pour objectif de reproduire le comportement d’une foule réelle.

Un grand nombre de modèles différents existe, chacun capture un nombre de comportements limité au sein d’un domaine de validité limité (défini par exemple par le niveau de densité qu’il est capable de couvrir). Il existe deux grandes catégories d’approches. La première définit certains modèles, en analogie avec les fluides, et modélise la foule par les lois de la physique qui déterminent son niveau de densité dans le temps et dans l’espace, alors que dans la seconde des systèmes multi-agents reproduisent les actions des individus et leurs interactions locales pour en déduire le comportement d’une foule. Ainsi, suivant la situation qui doit être simulée, certains modèles se révéleront plus appropriés que d’autres.

Par exemple, dans le cas où les comportements sont uniformes, les premières approches faisant l’analogie avec les fluides seront appropriées, alors que lorsqu’on étudie les mouvements de foules résultant d’interactions entre individus motivés par différents buts, les secondes fondées sur de multiples actions seront plus appropriées.

Quoi qu’il en soit, une étape essentielle d’une simulation consiste à déterminer les paramètres représentatifs de la situation donnée et de la population qui constitue la foule. Des phases d’observations peuvent s’avérer nécessaires afin d’estimer les bonnes valeurs des paramètres utilisés. Pour les situations et comportements les plus basiques, des expériences ont été menées pour tenter d’évaluer des valeurs moyennes ainsi que l’influence des facteurs les plus importants, comme l’âge des individus. De ce fait, pour simuler des contextes et des populations très différentes, des modèles et paramètres différents sont utilisés.

Quelle est l’approche utilisée couramment dans l’état de l’art pour analyser les foules et quel est le rôle de l’IA dans ces recherches ?

Le terme “analyse des foules” recouvre deux concepts assez différents, avec des outils différents à la clé. Il peut s’agir d’essayer de comprendre comment les foules se comportent, comment certains phénomènes émergent ou comment les individus se comportent dans la foule. Dans ce cas, on utilise plutôt une approche par simulation : on vient modifier les règles et paramètres qui guident la simulation pour tester leur validité au regard d’observations de foules réelles. Ou au contraire, nous pouvons chercher à caractériser le comportement de foules réelles. Les approches se feront alors plutôt par le traitement du signal, par exemple dans l’idée d’extraire automatiquement les propriétés d’une foule observée en vidéo : densité, vitesse de déplacement, trajectoires individuelles, etc.
Ces deux types d’analyse, et leurs cortèges d’outils, sont restés relativement
isolés l’un de l’autre car émanant de champs disciplinaires séparés. Les deux appartiennent cependant au domaine de l’IA, l’un cherchant à reproduire le mouvement humain, l’autre cherchant à interpréter automatiquement des images.
Mais surtout les deux sont bouleversés par l’IA récente, entendez les méthodes d’apprentissage profond. Par exemple, plutôt que de définir manuellement les règles qui guident les algorithmes de simulation, la tendance va être d’apprendre automatiquement ces règles à partir de données existantes capturant le mouvement de foules réelles.

Comment décririez-vous votre approche ?

Simulation et traitement d’image de foule opèrent actuellement un rapprochement thématique et le projet CrowdDNA A peut être vu comme un pas supplémentaire dans cette direction. Ce rapprochement est en particulier dû à l’évolution des méthodes de simulation qui se basent de plus en plus sur l’utilisation de données. L’analyse d’images de foule va permettre d’extraire les données qui viennent nourrir les nouvelles méthodes de simulation. Réciproquement, l’amélioration des techniques de simulation permet d’améliorer les techniques d’analyse d’images de foule.
Ce rapprochement entre traitement d’image et simulation se concrétise dans le projet CrowdDNA à travers son objectif de créer des technologies numériques d’assistance à la gestion de foule dense.

En particulier nous cherchons à établir les relations entre mouvement de foule d’une part, et les poussées et pressions subies par les individus au sein de la foule d’autre part. Pourquoi est-ce important ? Parce que le niveau d’intensité des interactions physiques entre individus est celui qui caractérise le niveau de danger qu’encourt la foule. Cependant cette quantité est très difficilement mesurable.

Notre approche est que le mouvement de foule, visible et plus facilement quantifiable, va dépendre très fortement de ce niveau d’intensité. Et la simulation va nous permettre de comprendre et de générer les données de description les liens entre le niveau des forces échangées entre individus et les caractéristiques du mouvement de la foule en résultant. Si nous y parvenons, nous pourrons alors imaginer une technique d’analyse du mouvement d’une foule filmée en vidéo et permettre de révéler le niveau des interactions physiques entre individus, et donc, le niveau de danger actuel encouru.

L’approche CrowdDNA se caractérise aussi par une très forte implication dans l’étude fondamentale des interactions physiques entre individus, afin de mieux comprendre comment chacun réagit aux poussées et pressions qu’il subit. Ces études vont permettre de donner le jour à une nouvelle génération de simulateurs de foule capable de capturer ces phénomènes physiques de manière précise.

Rappelons que la foule dense est un sujet d’étude complexe et encore peu étudié. Le comportement des foules denses dépend largement de la physique des interactions où les individus subissent contacts, poussées et pressions et y réagissent de manière individuelle. CrowdDNA vise à étendre les connaissances au sujet de ces interactions, et à créer une génération de simulateur de foule capable d’en capturer les effets à l’échelle d’une foule entière.

Ces nouveaux simulateurs nous permettront de prédire la dynamique des foules
denses et nous ouvriront à de nouvelles méthodes d’analyse d’images de mouvements de foule pour détecter des niveaux d’intensité excessifs d’interactions entre individus, et ainsi de prévenir le risque de mouvements de foules dangereux avant qu’ils ne se produisent. Les foules peuvent être analysées à la manière de fluides, mais si cette approche permet d’avoir une vision très globale, elle ne tient pas compte des particularités de chacun.

Ne serait-il pas envisageable, grâce aux progrès technologiques, notamment en termes de performances matérielles, d’envisager plutôt les foules comme des systèmes multi-agents, afin de tenir compte des particularités de chaque individu ? Serait-ce utile ?

L’approche du projet CrowdDNA combine une analyse “macroscopique” du mouvement de la foule au travers d’une modélisation “microscopique” de la foule qui vient détailler les interactions physiques entre individus. Ce positionnement nous permet de tirer le meilleur bénéfice des deux approches. Nous visons une analyse temps-réel, en ligne, de la foule pour assister les opérateurs de lieux publics et leur permettre de prendre les meilleures décisions au meilleur moment. Il est naturellement plus réaliste de faire reposer cette analyse sur le mouvement global de la foule, car il est plus facile à mesurer et à traiter en temps réel. Notons par ailleurs que nous évitons certaines problématiques liées à la manipulation de données personnelles ou identifiantes : le mouvement global n’isole pas les individus dans l’analyse. En revanche, par la simulation et les études sur les interactions physiques en amont, nous pouvons comprendre les liens entre ce mouvement global et des comportements ou caractéristiques individuels, mais ces liens sont établis au préalable, hors-ligne. Cette approche nous distingue également d’autres travaux visant plutôt à évaluer directement le niveau de densité d’une foule par analyse d’image, typiquement, en comptant le nombre de personnes visibles à l’image sur une surface connue.

Nous partons du principe que le seuil critique de densité n’est pas facile à déterminer à l’avance, et qu’il dépend des nombreux facteurs évoqués précédemment. Notre idée est plutôt d’alerter lorsque l’atteinte de ce seuil critique de densité, quelle qu’en soit la valeur, transparaît sur les mouvements de la foule. En particulier, nous cherchons à repérer une propagation de certains mouvements au travers de la foule : nous envisageons l’idée selon laquelle la vitesse et la distance de propagation de ces mouvements seraient caractéristiques du niveau de densité et de l’intensité des interactions physiques entre individus. Et pire, au-delà de la propagation, une possible amplification des mouvements de foule se mettrait en place car les réactions de la foule dégagent éventuellement de l’énergie : nous sommes alors face au risque du déclenchement d’un mouvement dangereux. Nous attendons donc de pouvoir prédire l’occurrence de ces phénomènes pour les prévenir suffisamment en amont.

Comment le projet s’intègre-t-il dans le Programme FET Open et en quoi avoir le soutien de deux entreprises est important sur un sujet de ce type ?

Les travaux en laboratoire sont encore éloignés de la réalité du terrain. Si nous voulons tenter de rendre un jour disponibles des technologies nouvelles pour la gestion de foule, il est utile d’installer un dialogue entre ces deux univers. C’est ce que permet la participation des deux entreprises dans ce projet. L’une est plutôt axée sur le conseil à la préparation d’événements de masse et nous permettra d’accéder à certains événements : notre souhait est d’installer des sortes d’observatoires de terrain, des “living labs” pour tester certains concepts, faire connaître nos résultats et mieux intégrer la réalité des modes opératoires existants. L’autre entreprise se tourne vers le développement technologique de solutions pour la gestion opérationnelle de foule, et permet de préparer d’éventuels futurs transferts technologiques.

gestiondefoule_ia
  • ✇ActuIA
  • IA & Multimodalité : entretien avec Cordelia Schmid, spécialiste de la vision par ordinateur
    Mondialement reconnue pour ses recherches et ses contributions à la représentation d’images et de vidéos pour la reconnaissance visuelle, Cordelia Schmid est une figure majeure de la vision par ordinateur. Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article d’archive issu du magazine ActuIA n°4 (avril 2021), dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel

IA & Multimodalité : entretien avec Cordelia Schmid, spécialiste de la vision par ordinateur

Par : ActuIA
29 juillet 2024 à 14:30

Mondialement reconnue pour ses recherches et ses contributions à la représentation d’images et de vidéos pour la reconnaissance visuelle, Cordelia Schmid est une figure majeure de la vision par ordinateur.


Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article d’archive issu du magazine ActuIA n°4 (avril 2021), dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.


 

Une chercheuse internationalement réputée

Cordelia Schmid est titulaire d’une maîtrise en informatique de l’Institut de technologie de Karlsruhe et d’un doctorat en informatique de l’Institut polytechnique de Grenoble (INPG). Sa thèse de doctorat traite des « Appariement d’images par invariants locaux de niveaux de gris : application à l’indexation d’une base d’objets » et a reçu le prix de la meilleure thèse de l’INPG en 1996. Elle a reçu son habilitation universitaire en 2001 pour son travail intitulé “From Image Matching to Learning Visual Models”. Le Dr Schmid a été assistant de recherche postdoctoral au sein du Robotics Research Group de l’université d’Oxford en 1996-1997. Depuis 1997, elle est directrice de recherche à l’Inria. Auteure de plus de trois cents publications techniques, elle a été rédactrice adjointe pour IEEE Transactions on Pattern Analysis and Machine Intelligence (IEEE PAMI) (2001-2005), pour International Journal of Computer Vision (IJCV) (2004-2012), rédactrice en chef d’IJCV (2013–), présidente de programme d’IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2005 et ECCV 2012 et présidente générale de l’IEEE CVPR 2015, ECCV 2020 et ICCV 2023.

En 2006, 2014 et 2016, elle a reçu le prix Longuet-Higgins pour ses contributions fondamentales en vision par ordinateur qui ont résisté à l’épreuve du temps. Elle est membre de l’IEEE. Elle a reçu une bourse ERC Advanced Grant en 2013 pour
son projet ALLEGRO “Active Large-scale LEarninG for visual RecOgnition”, le
Prix de recherche Humbolt en 2015 et le Grand Prix Inria & Académie française des
sciences en 2016. Elle a été élue à l’Académie nationale allemande des sciences,
Leopoldina, en 2017. En 2018, elle a reçu le Prix Koenderink pour ses travaux sur
la vision par ordinateur. Elle a reçu le prix de la Royal Society Milner en 2020.
Depuis 2018, elle travaille à mi-temps sur l’intelligence artificielle au sein de Google
Research.

Qu’est-ce qui vous a menée vers l’intelligence artificielle ?

J’ai réalisé ma thèse en vision par ordinateur. Depuis vingt ans, l’apprentissage n’a cessé de jouer un rôle grandissant. Il y a vingt ans, les recherches en vision par ordinateur portaient par exemple sur la conception de caractéristiques invariantes comme les points d’intérêt robustes et répétables et leur mise en correspondance. Ces composantes « conçues par l’homme » (hand-crafted features) ont été remplacées au fur et à mesure
par des algorithmes d’apprentissage directement à partir de données.

Il y a trente ans, la classification de chiffres manuscrits était un objectif ambitieux. Depuis, les progrès en vision par ordinateur n’ont cessé, tant sur le plan de l’analyse que de la génération d’images. Quels sont les grands challenges actuels et futurs de la vision par ordinateur ?

Il existe aujourd’hui plusieurs grands challenges. Tout d’abord la compréhension d’images et vidéos est loin d’être résolue. Il est aujourd’hui possible de détecter des objets, mais
nous sommes loin de pouvoir décrire de façon précise le contenu d’images et de vidéos, c’est-à-dire obtenir une description complète comme « La maison est dans un champ et il y a des enfants qui jouent au ballon ». Un autre défi est d’obtenir une confiance et une explication pour la réponse d’un algorithme. Il est aujourd’hui dans la majorité des cas impossible de savoir quelle est la probabilité d’erreur d’une réponse algorithmique et pourquoi l’algorithme est arrivé à cette réponse. Un des buts à long terme est de pouvoir utiliser la vision pour interagir avec le monde, par exemple en conduite autonome, où les défis sont l’apprentissage de la reconnaissance de l’environnement et l’apprentissage de la conduite de façon interactive avec l’environnement, dont les autres véhicules, qu’ils soient
autonomes ou pas.

Les champs de recherche de la vision par ordinateur et du traitement automatisé du langage semblent se rapprocher, un parallèle pouvant être fait entre les séquences vidéo et les phrases. Comment l’expliqueriez-vous à nos lecteurs ?

Les approches dans les deux domaines, vision par ordinateur et traitement automatisé du langage, reposent sur des méthodes traditionnellement basées sur des caractéristiques fabriquées « à la main » (hand-crafted features) et très spécifiques au problème.

Depuis quelques années, ces deux domaines ont adopté le paradigme de l’apprentissage à partir de données supervisées telles que « il y a un chat dans l’image ». Si dans un premier temps les approches d’apprentissage étaient propres au domaine : des réseaux de neurones récurrents en traitement automatisé du langage et des réseaux de neurones à convolution en vision par ordinateur, aujourd’hui les approches dites transformer sont utilisées pour modéliser des séquences de mots dans un texte et des séquences d’images
dans des vidéos, où le mot correspond à l’image et la phrase à la séquence vidéo.

Pour aller plus loin, des projets comme VideoBert, ouvrent des portes vers un apprentissage croisé. Ce type d’approche peut aider la vision artificielle à s’appuyer sur
les dialogues, et inversement, permettre aux modèles de TAL de tenir compte des expressions faciales pour détecter, par exemple, l’ironie, dans le langage… quelles sont les dernières avancées et limites en la matière ?

En effet, plus récemment les approches dites transformer ont permis l’apprentissage à partir de données multimodales (bande son et/ou texte et images d’une vidéo). Par exemple, l’approche VideoBERT utilise les données vidéo représentées par un ensemble de
descripteurs temporels, chacun extrait sur une seconde, et les dialogues sont transcrits automatiquement par une approche de reconnaissance automatique de la parole pour obtenir une représentation plus riche de la vidéo.

Une telle approche permet ainsi d’aider autant la vision artificielle que les modèles de TAL. Par ailleurs, elle permet l’apprentissage sans exemples annotés à la main. Un tel apprentissage est appelé « faiblement supervisé » (zeroshot recognition).

Les dernières avancées portent sur des architectures logicielles plus performantes, rendues possibles grâce à l’évolution de la puissance de calcul et des architectures matérielles, et des manières nouvelles de collecter des données représentatives du problème.
En effet, ces modèles, tels que VideoBERT, ont besoin d’une grande quantité de données pour que l’apprentissage converge. Ceci est dû au nombre important de paramètres définissant le modèle. Ce paramétrage est à la fois une force puisque beaucoup
d’information peut être stockée dans le modèle et une limite puisque cela rend
l’approche coûteuse et difficilement applicable à des domaines comportant peu de données. En fonction des données utilisées, ces modèles peuvent montrer des biais importants. L’étude de ces biais et comment les éviter est un des nouveaux sujets de recherche.

Que doit-on conclure du développement de l’apprentissage multimodal ? Nous rapprochons-nous d’une intelligence artificielle générale ?

Nous avons fait des progrès significatifs dans le domaine de l’intelligence artificielle depuis dix ans. En vision artificielle par exemple, de nombreuses tâches, la détection d’objets et l’identification de personnes, sont possibles aujourd’hui et ne l’étaient pas il y a dix ans. Par ailleurs, la recherche en IA commence à se pencher sur des problèmes qui adressent plusieurs modalités et domaines, comme l’apprentissage croisé qui apprend à partir de données multimodales (vision, audio et texte) et l’exploration autonome par un robot doté d’un système de vision.

Toutefois, nous sommes encore très loin de ce que l’on appelle « l’intelligence artificielle générale », c’est-à-dire pouvoir raisonner et agir dans un environnement inconnu. Un exemple de test pour voir si une machine possède une telle intelligence est le “coffee test
(Wozniak): a machine is required to enter an average American home and figure out how to make coffee : find the coffee machine, find the coffee, add water, find a mug, and brew the coffee by pushing the proper buttons.” Nous sommes encore loin d’une telle capacité d’apprentissage et il s’agit d’une question ouverte en recherche.

Dans et hors du champ pur de la recherche, quels sont vos sujets d’intérêt et de préoccupation liés à l’IA dans sa globalité ?

Mes recherches actuelles portent tout d’abord sur la conception d’algorithmes de vision par ordinateur, notamment pour améliorer la compréhension des vidéos. Au-delà, mes sujets d’intérêt concernent les problèmes d’apprentissage faiblement supervisés à partir de données multimodales, donc en combinant vision, son et texte.

À plus long terme l’une de mes préoccupations sera d’apprendre des modèles interagissant avec l’environnement et donc apprenant de façon autonome en fonction de leur échec et de leur réussite. Nous pouvons citer comme exemple récent AlphaGo, même si dans un contexte de vision par ordinateur, le problème est plus complexe. J’ai par exemple commencé récemment à examiner des problèmes de type « vision, langage, navigation » qui demandent à un agent de se déplacer dans un environnement naturel avec des instructions en langue naturelle. Un autre exemple est celui de l’utilisation
de l’apprentissage pour guider un robot manipulateur. Une application intéressante me semble être le robot cuisinier. Il est regrettable qu’il n’existe pas déjà. Lors d’une pandémie comme celle que nous vivons actuellement, un tel robot serait fort utile pour les « nuls en
cuisine ». Côté recherche il s’agit d’un problème complexe qui nécessite à la fois la planification, la reconnaissance visuelle et une interaction précise avec
des objets.

À titre personnel, quelles sont les applications concrètes de l’intelligence artificielle qui ont le plus attiré votre attention dernièrement ?

À titre personnel, ce sont la voiture autonome et les systèmes d’accompagnement des personnes handicapées (dont celles à vision réduite). Selon moi, le but de l’intelligence artificielle est d’aider un humain à réaliser des tâches fastidieuses ou dangereuses
ou de lui faire gagner du temps. La voiture autonome permet de gagner
les heures passées au volant, de réduire l’accidentologie, de fluidifier la circulation et de rendre celle-ci accessible à des personnes n’y ayant pas accès (handicap, âge…). Côté recherche, le problème m’intéresse de par la très grande quantité de données supervisées accessible.

Ces données prises dans des environnements relativement bien structurés permettent d’évaluer des algorithmes d’apprentissage dans des environnements nouveaux avec des
moyens d’évaluations des échecs et des réussites non ambigus. Concernant les systèmes d’accompagnement des personnes handicapées, il s’agit de comprendre l’environnement pour alerter l’humain et interagir avec lui, une combinaison de plusieurs sources de données.

 

Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :

Entretien avec Cordelia Schmid
  • ✇ActuIA
  • Performance et santé : le sport à l’ère de l’intelligence artificielle
    Courir en utilisant une application qui analyse nos performances et nous fait des recommandations est devenu courant. Les solutions technologiques autour du sport de loisir ou professionnel se sont développées, contribuant à faire évoluer l’industrie du sport et les métiers qui s’y rattachent. L’intelligence artificielle fait partie des outils mis en œuvre. Parfois avec plus ou moins de bonheur : en novembre dernier, l’équipe de football écossaise Inverness Caledonian Thistle FC retransmettait u

Performance et santé : le sport à l’ère de l’intelligence artificielle

Par : ActuIA
25 juillet 2024 à 14:58

Courir en utilisant une application qui analyse nos performances et nous fait des recommandations est devenu courant. Les solutions technologiques autour du sport de loisir ou professionnel se sont développées, contribuant à faire évoluer l’industrie du sport et les métiers qui s’y rattachent. L’intelligence artificielle fait partie des outils mis en œuvre. Parfois avec plus ou moins de bonheur : en novembre dernier, l’équipe de football écossaise Inverness Caledonian Thistle FC retransmettait un match en direct grâce au système Pixellot utilisant des caméras avec technologie IA intégrée de suivi de balle… or l’algorithme a confondu le ballon avec la tête, chauve, d’un juge de touche pendant une grande partie du match !


Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.


Les algorithmes déployés vont du recrutement au marketing, de l’entraînement à la fidélisation des fans. Détection, vision par ordinateur, interaction homme-machine, prédiction, visualisation et analyse de données, ou encore traitement automatique du langage ont trouvé leur place dans l’analyse de la performance sportive et plus généralement du mouvement humain. Les solutions et les projets de recherche sont nombreux pour le sport professionnel autant qu’amateur, tout comme pour les Jeux olympiques et paralympiques.

IA et sport, un enjeu français pour les Jeux olympiques et paralympiques de Paris 2024

À l’occasion des Jeux olympiques et paralympiques qui se tiendront en 2024 à Paris, plusieurs projets ont été lancés pour mettre les sciences au service des sportifs de très haut niveau. De cet objectif de réussite, de rayonnement international pour le sport français, d’un doublement du nombre de médailles pour les JO, de l’obtention de quinze médailles d’or pour les Jeux paralympiques, est né « Sciences 2024 ». Ce programme, porté par le CNRS, le Centre national des sports de la défense (CNSD) et avec l’appui de onze grandes écoles françaises, veut répondre aux défis tricolores et mobiliser chercheurs et étudiants pour soutenir les athlètes, leurs entraîneurs et les fédérations. Neuf défis thématiques couvrant tous les champs de la performance sportive de très haut niveau ont été présentés, parmi lesquels la prévention et le traitement des facteurs de risque, les interactions homme-matériel et l’optimisation du matériel, l’apprentissage et l’optimisation du geste sportif, ou encore les big data et l’intelligence artificielle au service de la performance.

L’Agence nationale du sport (ANS) et l’INSEP ont également développé un programme national sur les données dans le sport de haut niveau nommé Plan national data (PND) et lancé le « Sport Data Hub », plateforme de service dédiée à la data, dans le but de détecter les potentiels sportifs, de réaliser une veille et une analyse de la concurrence, d’optimiser la préparation individuelle ou collective, et d’améliorer la performance du sport français. Atteindre la plus haute performance possible chez les sportifs de haut niveau en mobilisant la communauté scientifique est également au cœur du Programme prioritaire de recherche (PPR) « Sport de très haute performance » (STHP), doté de vingt millions d’euros et piloté scientifiquement par le CNRS. Plusieurs projets ont d’ores et déjà été sélectionnés et financés par l’Agence nationale de la recherche (ANR).

Objets connectés, portabilité et systèmes embarqués pour la collecte de données

À l’évocation des termes intelligence artificielle, surgit l’idée de données, utilisées depuis de nombreuses années dans le sport. Chacun se souvient du film Le Stratège de Bennett Miller, sorti en 2011, avec Brad Pitt dans le rôle de Billy Beane, manager général de l’équipe de baseball des Oakland Athletics, connu pour avoir révolutionné la pratique de ce sport en s’appuyant sur l’approche statistique, dite sabermétrique (de Society for American Baseball Research – SABR). Les avancées en matière de capteurs et d’objets connectés, la réduction des coûts de stockage et le développement de l’IA permettent aujourd’hui d’aller bien plus loin dans la collecte et l’analyse des données.

Selon les disciplines, les capteurs s’intègrent dans les équipements, les vêtements et le matériel. Les sociétés Catapult Sports et STATSports travaillent avec la Fédération française de football, le Real Madrid ou encore Manchester United pour développer des vêtements connectés et des dispositifs portables afin de collecter des données sur les joueurs. C’est aussi le cas de la startup PIQ Sport Intelligence qui utilise PIQ Robot et son IA baptisée Gaia dans de nombreux sports comme le ski, le kitesurf, la boxe, le golf ou encore le tennis. Force de frappe, vitesse de service, précision, les capteurs mesurent et analysent les performances et mouvements pour fournir en temps réel des données pertinentes aux sportifs concernant leurs winning factors.

SensiML, filiale de QuickLogic, propose depuis décembre dernier le SensiML Analytics Toolkit, plateforme de développement pour des capteurs intelligents permettant de collecter et de traiter les données nécessaires au machine learning au plus « bas niveau ». Le sport automobile, notamment la F1, a lui aussi investi dans l’IA. Les voitures sont désormais équipées de plusieurs capteurs à objectifs multiples : amélioration des performances, en amont et durant les courses, détection des anomalies, etc. Les données obtenues permettent également de concevoir des stratégies optimales durant les arrêts aux stands, le choix des pneumatiques, etc. Pour renforcer sa compétitivité, Red Bull mise par exemple sur les capacités d’apprentissage automatique et d’analyse des données d’Oracle Cloud Infrastructure pour optimiser l’utilisation de ses données, lors des opérations sur la piste ou durant le partage d’informations avec sa communauté mondiale de fans. Autre exemple chez Williams F1, la direction a confié l’exploitation de ses données à Acronis, qui utilise ses solutions pour lutter contre les cyberattaques et apporter une cyberprotection à l’équipe.

L’image, un outil crucial

Mais il ne s’agit pas seulement de systèmes embarqués et de capteurs, l’image est également centrale. Gipsa-lab, unité de recherche CNRS – université de Grenoble-Alpes, travaille par exemple sur les thématiques de la reconstruction du mouvement à partir de captures vidéo sans marqueur (image, géométrie), de l’utilisation d’approches d’intelligence artificielle pour l’analyse du geste (apprentissage, optimisation), de l’utilisation de la robotique volante (drones) pour la capture du mouvement humain ou animal et de la convergence monde numérique – monde réel (réalité virtuelle, augmentée). Aux États-Unis par exemple, le dataset de NBA.com/Stats permet de remonter à la saison NBA 1996-97. La fédération collecte et partage depuis 2013 un grand nombre de variables grâce à des systèmes de tracking installés directement dans ses arénas.

Bien sûr, le sport de haut niveau utilise également l’analyse vidéo, grâce à la vision par ordinateur et le machine learning, notamment comme vecteur de communication et outil d’analyse de jeu. Patrick Sayd du CEA-LIST a présenté cette approche au cours de la Journée du GDR Sport et IA, le 27 janvier dernier.

« Au niveau technique, l’image tient une place à part parmi les données que peut traiter l’IA. En effet, le volume de données est conséquent et les informations y sont hétérogènes et non structurées. Les algorithmes doivent détecter, extraire, cumuler et interpréter ces informations pour remonter à la connaissance, à la compréhension des situations observées […]. Les progrès fulgurants apportés par les techniques d’apprentissage profond permettent d’envisager de nouvelles formes d’analyse du jeu encore plus ciblées, plus approfondies et réellement au service des entraîneurs ». L’analyse vidéo au service du football est le fer de lance de la startup parisienne SkillCorner. Créée en 2016, elle fournit de la data sportive de manière automatique et développe des algorithmes de tracking et de détection en temps réel des objets mouvants (joueur, ballon, arbitre) sur l’image : les localiser, les suivre image après image et les reconnaître. Plusieurs clubs de football, comme le Liverpool FC, utilisent ces outils qui permettent de collecter des données, mais également de mettre en lumière des points-clés pouvant améliorer l’aide à la décision. SkillCorner n’est pas l’unique startup travaillant dans ce domaine, citons également FootoVision et son logiciel d’exploration de données, à destination des professionnels et des fans. Celui-ci opère à partir des images retransmises et fournit des statistiques sur les matchs telles que la vitesse et les déplacements des joueurs sur le terrain Ou encore Seattle Sports Science, spécialisée dans l’analyse vidéo. Grâce aux algorithmes de machine learning de sa solution ISOTechne, l’entreprise utilise des caméras 4K pour collecter et analyser les variables des matchs.

Dans le cadre de sa collaboration avec l’équipe espagnole de football de Malaga, l’outil a pu analyser la rotation du ballon, les passes réussies et ratées, les réceptions, le jeu collectif, les compétences individuelles, etc.

Pour être précis, ce type de logiciel doit être entraîné sur le plus grand nombre d’images possible, dans toutes les conditions météorologiques et d’éclairage, avec différents types de vêtements, de ballons et de physiques des joueurs. À Pau, la startup ST37 s’est spécialisée dans le vidéo-arbitrage en proposant une caméra intelligente et robotisée qui s’applique à l’escrime, au canoë-kayak et aux sports équestres. Elle a également déployé des solutions autonomes et abordables de vidéo-training et de vidéo-streaming sur la même logique que celle du vidéo-arbitrage : IA, robotisation, temps réel, interprétation du geste sportif. La société paloise a aussi présenté au CES 2021 (en virtuel) la plateforme PaaSport permettant de partager des activités sportives au sein d’une communauté. Grâce à un arbitre et un entraîneur pilotés par l’IA, les athlètes peuvent ainsi s’affronter à distance. Ces outils de collecte de données ont de nombreuses applications. Détection de talents, aide à la décision pour les entraîneurs et les athlètes, systèmes prédictifs, lors des entraînements mais aussi en temps réel. Oscar, le robot intelligent qui a équipé les skippers du Vendée Globe 2020 a permis, grâce à ses caméras, de repérer les objets pouvant provoquer une collision. L’IA permet également d’anticiper les dysfonctionnements, comme dans les courses de NASCAR, afin d’améliorer la sécurité dans ce sport automobile à risque.

Témoignage d’Ilyes Talbi, Data scientist freelance :

« Le tracking vidéo se fait généralement à l’aide de petites caméras installées dans les stades à l’occasion de matchs importants. Je trouve regrettable que ces données ne soient pas ouvertes, c’est un énorme gâchis. Je travaille sur un outil qui s’appuie sur les vidéos de retransmission TV des matchs, qui consiste en un enchaînement de modèles de computer vision : YOLO pour la reconnaissance de joueurs, un modèle de détection de keypoints pour retrouver les lignes du terrain, un algorithme qui permet de calculer l’homographie pour passer des coordonnées des joueurs en pixels aux coordonnées 2D et enfin un modèle de réidentification pour tracker les joueurs et retrouver leur trajectoire complète. Évidemment, cette approche a ses limites : pas de données sur les joueurs non visibles à l’écran, et pas d’informations sur la hauteur du ballon par exemple. Elle permet néanmoins de démocratiser l’analyse vidéo. »

Des outils automatiques de détection de talents

Dans le sport professionnel, le marché des transferts génère des milliards. En football, la FIFA a évalué les dépenses en 2019 à 6,7 milliards d’euros, soit 5,8% de plus qu’en 2018. Les fédérations et les clubs professionnels s’intéressent donc de plus en plus aux outils IA pour le recrutement, dont la détection de talents automatique, plus connue sous l’appellation scouting.

L’analyse des données de performance et la prédiction permettent d’obtenir selon les experts des résultats plus fiables et de déterminer à la fois le potentiel de l’athlète, son impact potentiel sur le club et sa valeur marchande. En cyclisme, plusieurs équipes utilisent des programmes de détection de talents s’appuyant sur le nettoyage et l’analyse de données issues de data lakes et de remontées d’informations d’entraînements. C’est par exemple le cas d’Arkéa-Samsic qui a fait signer deux jeunes coureurs à partir d’une liste de dix coureurs établie par le programme développé en collaboration avec AWS / Teamwork. La société britannique Sentient Sport, soutenue par l’université de Southampton, propose elle aussi des outils basés sur l’IA pour optimiser les recrutements de talents et proposer des techniques d’analyse des tactiques à utiliser dans les sports collectifs. Concrètement, il s’agit de créer une base de données à partir des données individuelles des athlètes et de leurs performances et de l’enrichir avec d’autres statistiques et métriques précises et pertinentes. L’intelligence artificielle va permettre d’une part d’ajouter des informations grâce à l’analyse des activités, des entraînements et de créer un modèle pour détecter certains comportements afin de cibler tel ou tel athlète en fonction de ses performances et de son potentiel.

L’identification et l’évaluation des potentialités de performance de l’ensemble des sportifs français a été définie comme un enjeu prioritaire en vue des Jeux olympiques et paralympiques de Paris 2024. Le projet DETECT (DETection et Estimation des Champions et des Talents) de l’INSEP, réalisé en collaboration avec l’ANS, s’articule autour de la création, la validation d’outils d’estimation et de visualisation des potentiels, et l’estimation de l’obtention de médailles des athlètes.

Outils d’aide à la décision pour la progression et la performance individuelle et collective

Au-delà de la détection de talents, l’IA s’est progressivement imposée comme un outil d’accompagnement pour les athlètes de tous niveaux et de toutes disciplines. En course à pied, on a vu apparaître ces dernières années des produits permettant aux coureurs de se perfectionner. Grâce à des capteurs de semelles comme ceux de Digitsole ou à des applications spécifiques, les sportifs peuvent mieux analyser leur course, les mouvements de leurs pieds, leurs appuis, et être coachés en fonction de leurs objectifs. Les outils prédictifs développés pour cette pratique sont intéressants car plus simples à développer que des outils pour des sports où les mouvements sont moins stéréotypés. De nombreux sports ont vu les bénéfices de ce type d’outils, comme le golf avec l’exemple du caddie intelligent Hello Birdie qui propose aux golfeurs une stratégie de jeu personnalisée pour qu’ils puissent progresser. Gautier Stauffer, professeur de gestion des opérations et supply chain à l’école de commerce Kedge, travaille également sur un projet de jumeaux numériques pour les golfeurs professionnels, un exemple d’évaluation et d’optimisation des performances pour les professionnels du PGA Tour.

Le sport à l'ère de l'IA

Autre exemple : la natation, où les performances des athlètes sont scrutées à la milliseconde près, avec le projet de recherche NePTUNE – Natation et Paranatation, porté par Ludovic Seifert (Université de Rouen-Normandie) et Rémi Carmignani (École nationale des ponts et chaussées) et qui porte sur la performance des nageurs autour de l’apprentissage et de l’optimisation du geste sportif, l’utilisation des données et l’intelligence artificielle. Également lauréat de l’appel à projets STHP, son objectif est d’accompagner les entraîneurs et de maximiser les chances de médailles pour l’équipe de France de natation.

L’IA est également de plus en plus utilisée lors de l’entraînement des athlètes, notamment dans l’aide à la décision en temps réel dans les matchs. En football, l’aide à la décision est évidemment un sujet récurrent depuis plusieurs années. En 2019 l’École polytechnique et le Paris Saint-Germain ont proposé le Sports Analytics Challenge pour développer un algorithme d’analyse pouvant prédire la suite d’un match. Les entraîneurs ont désormais des outils pour élaborer leur stratégie à partir d’une part de l’analyse des performances, forces et faiblesses de leurs athlètes, individuellement ou collectivement, et d’autre part de l’analyse de celles de leurs adversaires.

Le coaching traditionnel tend donc à évoluer. En analysant des variables comme l’historique des matchs, les statistiques individuelles et collectives, les conditions etc. et en calculant des scénarios prévisionnels, puis en passant par de la simulation statistique, ce type d’outils pourrait proposer des stratégies et permettre à un entraîneur d’interagir avec le programme via la reconnaissance vocale automatique et le traitement du langage naturel.

Ces algorithmes pourraient également permettre aux utilisateurs de simplement poser une question au programme pour obtenir une réponse quant à la meilleure stratégie à adopter en temps réel ou aux changements à mettre en place. Ces statistiques deviennent fondamentales pour l’optimisation des entraînements, utiles pour les entraîneurs comme pour les athlètes.

L’IA au service de l’e-santé grâce à l’aide au diagnostic et à la prédiction des blessures

sport et intelligence artificielle, préparation physique

La santé des sportifs, professionnels et amateurs, est une question centrale qui intéresse de près les chercheurs et les entreprises. Grâce aux données recueillies par les capteurs et les applis, des algorithmes de deep learning permettent désormais d’analyser des variables aussi différentes que les performances, les entraînements, les antécédents de blessures, l’hygiène de vie pour en extraire de l’analyse de santé prédictive. La modélisation du risque de blessure chez les sportifs professionnels est au cœur des recherches de Pierre Druilhet, du Laboratoire de mathématiques Blaise Pascal (CNRS et université Clermont-Auvergne), qui indique : « Les sportifs professionnels font l’objet d’un suivi longitudinal rigoureux de leur condition physique. Les données générées permettent de construire des modèles de prévisions de blessure s’appuyant sur les données de la littérature et les données individuelles.

À partir du suivi d’une équipe de football professionnelle, nous comparons différents modèles de prévision en évitant à la fois le sur-apprentissage et l’utilisation de modèles trop rigides.

Les techniques d’IA ou d’apprentissage automatique permettent d’améliorer les qualités prédictives des modèles classiques surtout lorsque la proportion de blessure est relativement faible ». Citons également le système de Sparta Science, utilisé par plusieurs équipes et qui s’intéresse lui aussi à la prédiction de blessures afin de les anticiper.

Ces techniques sont également intéressantes pour les sportifs amateurs. En matière de running par exemple, de plus en plus d’entreprises travaillent sur la prédiction des blessures, comme l’application Running Care qui propose d’identifier les diagnostics les plus probables parmi les pathologies liées à la pratique du running.

L’entreprise compte aller plus loin dans l’analyse de santé prédictive et utiliser le machine learning pour optimiser les diagnostics, prédire les blessures en fonction de l’historique et du profil des coureurs et leur proposer des exercices adaptés, des conseils et programmes santé.

Témoignage de Jérémy Cheradame, Data scientist en thèse CIFRE à la Fédération Française de Rugby :

Jérémy Cheradame est le seul Datascientist de la Fédération française de Rugby, il travaille en collaboration avec des sport scientists, spécialistes du sport formés à la data, afin d’accompagner clubs et équipes de France dans leur projet de performance.

« J’ai à la fois une activité de recherche sur la prévention des blessures dans le rugby avec des laboratoires auxquels je suis rattaché, et une activité de datascientist au sein de la fédération, pour laquelle je travaille sur tous les sujets entourant la performance. La prévention de blessures est un sujet assez complexe. Nous utilisons des méthodes de Machine Learning pour tenter d’anticiper certaines blessures et adapter au mieux la charge de travail. La difficulté tient tant à la nécessité d’obtenir suffisamment de données à l’échelle des clubs qu’aux particularités de ce sport, qui rend les blessures difficilement prévisibles. Les modèles sur lesquels nous travaillons nous permettent de tenir compte de données tel que le poste, âge, certaines fragilités et caractéristiques des joueurs. Le rugby est un sport précurseur dans l’utilisation de la Data sur le terrain : les clubs utilisent les capteurs GPS depuis plus d’une dizaine d’années pour suivre les joueurs, que ce soit en entraînement ou en match. Ces capteurs incluent également un accéléromètre et un cardiofréquencemètre. De récentes avancées dans les algorithmes de traitement des données des capteurs nous permettent d’obtenir une quantification des contacts. Suite à une consultation récente, une harmonisation des capteurs a été décidée, ce qui va beaucoup faciliter les échanges au niveau de la fédération pour des projets tels que celui de la prévention des blessures. Bien sûr, les joueurs et leur ressenti ont une place centrale, nous nous appuyons donc sur des questionnaires subjectifs d’état de forme avant séance et de ressenti après séance. Nous nous appuyons également sur des données de tests physiques et de marqueurs biologiques permettant de connaître les dommages musculaires des joueurs. Le tracking vidéo est également employé, mais nous sommes plus limités que des sports comme le football, car il est difficile d’identifier et conserver le tracking des joueurs lors de contacts ; ces technologies offrent cependant elles aussi de nombreuses opportunités : Nous travaillons notamment avec le CEA sur la détection des postures telles que les mains sur les hanches, sur les genoux ou sur la tête, qui peuvent être les premiers signes de fatigue ou des signes parasites auxquels les coachs sont très attentifs. Enfin, la vidéo a pour intérêt de nous fournir des informations sur les équipes adverses, puisque nous n’avons pas accès à leurs données GPS : distances de passes, catégorisation de patterns afin de détecter les séquences qui aboutissent à un franchissement, etc.. ce qui nous permet de créer des dashboards à destination des analystes et de répondre aux questions des coachs. »

Un essor qui n’est pas exempt d’ambiguïtés et de questionnements

Le marché des solutions technologiques, que ce soit pour le sport loisir, le développement personnel ou le sport professionnel, a connu un véritable essor, dans le lancement de sports innovants, comme les courses de drones, ou en matière d’optimisation des performances, d’entraînement, etc. La perspective des Jeux olympiques et paralympiques de Paris 2024 a évidemment créé une forte émulation en France mais la recherche dans ce domaine n’est pas récente et la France n’est pas un cas unique, loin s’en faut.

Les chercheurs, entreprises et incubateurs qui s’intéressent au sujet voient émerger en parallèle de nouvelles questions et ambiguïtés, notamment éthiques, quant à la monitorisation et l’utilisation des données personnelles et corporelles, leur exploitation à grande échelle, par des adversaires par exemple ou encore le cadre légal de ces informations liées au corps individuel.

Car le sport, outre sa rentabilité au sein d’un marché en croissance, est aussi un spectacle ultra médiatisé, composé de gagnants et de perdants, mais aussi de plaisir, de talent, de surprise et d’abnégation, et bien sûr d’émotion.

Sans oublier l’importance de l’intuition et de ce que les statistiques et les données n’analysent peut-être pas. Peut-on tout modéliser ? Peut-on modéliser ce que certains appellent la beauté du sport ? L’intelligence artificielle appliquée au sport, comme à tous les domaines, pose des questions philosophiques et éthiques autant qu’elle apporte à des pratiques en les réinventant.

 

Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :

 

velo
  • ✇ActuIA
  • Suivez la troisième journée de VivaTech en direct avec Vivatech News
    Après une deuxième journée de VivaTech riche en émotion avec notamment la présence d’Elon Musk qui nous a laissé la petite phrase du jour : “My biggest hope in one word would be Mars. My biggest fear in one word: AI.”, voici la troisième journée ! ActuIA, en partenariat avec la chaîne officielle VivaTech News, est fière de vous proposer une retransmission en direct de cet événement majeur. Connectez-vous sur notre site pour vivre une expérience immersive et informative, confortablement installé

Suivez la troisième journée de VivaTech en direct avec Vivatech News

Par : ActuIA
22 mai 2024 à 08:42

Après une deuxième journée de VivaTech riche en émotion avec notamment la présence d’Elon Musk qui nous a laissé la petite phrase du jour : “My biggest hope in one word would be Mars. My biggest fear in one word: AI.”, voici la troisième journée ! ActuIA, en partenariat avec la chaîne officielle VivaTech News, est fière de vous proposer une retransmission en direct de cet événement majeur. Connectez-vous sur notre site pour vivre une expérience immersive et informative, confortablement installé chez vous ou au bureau.

Programme de la journée

Dès l’ouverture des portes, vous aurez accès à des interviews exclusives avec des experts et visionnaires qui transforment nos industries et notre quotidien à travers le numérique. Des panels de discussion aux démos technologiques, chaque moment clé sera couvert pour vous offrir une vue d’ensemble complète et détaillée des dernières innovations.

Pourquoi regarder VivatechNews ?

  • Bénéficiez de commentaires et d’analyses exclusives par notre équipe d’experts en intelligence artificielle et technologie.
  • Découvrez des angles de vue originaux et des insights approfondis sur les tendances et les produits qui feront demain.

Comment nous rejoindre ?

La retransmission sera accessible directement sur cette page chaque jour dès 9H. Assurez-vous de vous y connecter dès l’ouverture pour ne rien manquer de cette journée exceptionnelle.

Vivatech
  • ✇ActuIA
  • NVIDIA GTC 2024 : un rendez-vous incontournable pour les professionnels de l’IA du 18 au 21 mars
    Depuis 2009, NVIDIA organise chaque année la NVIDIA GTC, une conférence offrant un éclairage pointu sur les dernières avancées technologiques. Créé à San Jose, en Californie, NVIDIA GTC est un événement international majeur dans le domaine de l’IA. Cette année, la conférence prendra place au San Jose Convention Center et en ligne, du 18 au 21 mars. Destinée aux développeurs, professionnels de l’informatique et décideurs, cette édition mettra en lumière les technologies qui dessinent le futur de

NVIDIA GTC 2024 : un rendez-vous incontournable pour les professionnels de l’IA du 18 au 21 mars

Par : ActuIA
29 février 2024 à 09:09

Depuis 2009, NVIDIA organise chaque année la NVIDIA GTC, une conférence offrant un éclairage pointu sur les dernières avancées technologiques. Créé à San Jose, en Californie, NVIDIA GTC est un événement international majeur dans le domaine de l’IA. Cette année, la conférence prendra place au San Jose Convention Center et en ligne, du 18 au 21 mars. Destinée aux développeurs, professionnels de l’informatique et décideurs, cette édition mettra en lumière les technologies qui dessinent le futur de l’informatique et de l’intelligence artificielle. 

Au programme de cette nouvelle édition, plus de 900 sessions, plus de 200 exposants et de nombreuses occasions de networking. La GTC a été pensée pour s’adapter à tous les niveaux techniques et à tous les centres d’intérêts. Cette conférence est ainsi accessible à un large public. De l’IA générative à l’IA conversationnelle, en passant par la cybersécurité et la robotique, les sujets abordés pendant cette conférence seront multiples. Et si la plupart des sessions seront en anglais, NVIDIA accordera cette année une grande importance à la France.

L’accent sera bien évidemment mis sur l’IA générative, avec de nombreuses sessions dédiées à ce sujet. Des entreprises partageront leurs retours d’expérience sur ces technologies. De plus, un nouveau programme de certification en IA générative multimodale sera introduit, visant à valider les compétences des développeurs dans la création et la gestion de systèmes d’IA traitant des données textuelles, d’image et audio.

Voici 3 bonnes raisons d’assister à la NVIDIA GTC 2024 :

Inspiration : les plus grands experts du secteur partageront leurs vision et analyse

NVIDIA s’est installée comme l’une des entreprises les plus importantes dans le monde de l’intelligence artificielle. Son expertise technologique est au cœur des plus grandes innovations de ces dernières années, et alimente les laboratoires de R&D internationaux.

Les leaders technologiques des sociétés les plus avancées en matière d’intelligence artificielle viendront partager leur vision de l’évolution de l’IA. Voici une liste non exhaustive des conférenciers qui seront présents cette année :

Sans oublier le discours d’ouverture de Jensen Huang, dont la vision a propulsé NVIDIA au premier rang des entreprises innovantes dans les domaines de l’IA et du deep learning, qui promet d’être un moment fort de la conférence. L’année dernière, de nombreuses annonces avaient été faites par le PDG et fondateur de NVIDIA lors de la GTC et il y a fort à parier que ce sera encore le cas cette année. En effet, cette conférence est devenue, pour la société californienne, une plateforme pour dévoiler ses dernières innovations. Mais au-delà des annonces qui pourront être faites, l’événement se présente d’ores et déjà comme l’un des grands carrefours de l’innovation de cette année 2024 en réunissant un panel d’intervenants prestigieux.

Une journée dédiée à l’IA en France

C’est l’une des grandes nouveautés de cette année. NVIDIA consacrera une journée virtuelle à la France et son rapport à l’IA, l’impact que cette dernière peut avoir sur le territoire et les possibles développements envisagés pour le futur. Des discussions animées par différents experts français avec comme point central l’IA. 

Une session de cette journée portera notamment sur la place prépondérante de l’IA dans l’organisation des grandes rencontres sportives attendues sur le territoire. Un sujet passionnant qui concentre en lui seul de nombreux cas d’usages : comment l’IA renforce la sécurité, améliore l’expérience des spectateurs, facilite l’organisation d’événements à grande échelle, permet de gérer les mouvements de foule…

Jumeaux numériques et HPC seront également à l’honneur avec la participation de Sylvain Duchêne, Cofondateur & CTO de Check & Visit et de Stéphane Requena, Directeur de la Technologie et de l’Innovation de GENCI.

Inscrivez-vous à la journée dédiée à l’IA en France

Des ateliers et sessions techniques sur les technologies les plus convoitées actuellement : IA générative, LLM, RAG, Jumeau numérique…

Plus de 40 laboratoires de formation de deux heures seront proposés, couvrant divers sujets tels que les modèles de fondation en IA générative, les pipelines accélérés par GPU, et la gestion des clusters d’IA. Ces sessions promettent d’offrir des expériences pratiques et approfondies aux participants.

En outre, des sessions innovantes exploreront l’utilisation de l’IA dans diverses industries. Par exemple, la manière dont Verizon et AWS fusionnent les technologies 5G et XR avec les GPU NVIDIA, ainsi que l’intégration de l’IA dans l’expérience de conduite par des constructeurs automobiles comme Polestar et Lucid Motors.

Cette année, la GTC revient dans un format présentiel et distanciel. Dans les deux cas, l’expérience est enrichissante et novatrice dans le milieu de l’IA. Il sera également possible d’échanger avec de nombreux partenaires de NVIDIA tels que : Amazon Web Services, Dell Technologies, Google Cloud, Microsoft Azure, Oracle, Samsung, IBM, Accenture, Asus, Core Weave ou encore Run AI.

Inscrivez-vous et retrouvez le programme complet de l’événement sur le site de la NVIDIA GTC.

conférence NVIDIA GTC 2024

Article partenaire

conférence NVIDIA GTC 2024

Offre exclusive : Recevez le guide pratique de l’intelligence artificielle en entreprise gratuitement avec votre abonnement à ActuIA

Par : ActuIA
15 février 2024 à 11:25

Dans un effort conjoint pour encourager et faciliter l’intégration de l’intelligence artificielle dans le monde des affaires, nous sommes ravis d’offrir en partenariat avec AI Builders, un exemplaire gratuit du “Guide Pratique de l’intelligence artificielle en Entreprise”, disponible aux éditions Eyrolles au prix public de 23€, pour tout nouvel abonnement au magazine ActuIA depuis la France métropolitaine. (offre limitée à 1000 exemplaires).

Ce guide qui vient de faire l’objet d’une réédition est une ressource incontournable pour les dirigeants et décideurs d’entreprise. Il fournit des insights précieux, des études de cas, et des stratégies pratiques pour intégrer efficacement l’intelligence artificielle dans les différentes sphères de l’entreprise.

En vous abonnant à ActuIA, vous ne recevrez pas seulement ce guide précieux, mais aussi un accès continu à une mine d’informations, d’analyses, d’interviews d’experts, et de reportages exclusifs sur le monde en constante évolution de l’intelligence artificielle. ActuIA est le magazine de choix pour rester à la pointe de l’innovation en IA.

Deux formules possibles :

1 an d’abonnement électronique au Magazine
+ Guide pratique de l’IA en entreprise 23€ offert
20€ au lieu de 43€

J’en profite

1 an d’abonnement papier au Magazine
+ Guide pratique de l’IA en entreprise 23€ offert
27,60€ au lieu de 50,60€

J’en profite

Pour profiter de cette offre exceptionnelle, abonnez-vous à ActuIA dès aujourd’hui en version papier ou numérique, et plongez dans le monde fascinant de l’IA, tout en vous équipant des outils et connaissances nécessaires pour transformer votre entreprise. Le guide sera automatiquement ajouté à votre panier !

Ne manquez pas cette opportunité unique de vous tenir informé des dernières tendances en IA tout en recevant un guide expert pour naviguer dans le paysage complexe de l’adoption de l’IA en entreprise. Abonnez-vous maintenant !

A propos de Stéphane Roder, auteur du guide pratique de l’intelligence artificielle en entreprise :

Stéphane Roder, diplômé de Télécom Paris et de l’Université Paris VI avec une spécialisation en intelligence artificielle, est un expert reconnu dans le domaine de la technologie et de l’IA. Ayant débuté sa carrière chez Sagem, il a cofondé e-Brands et dirigé des entreprises innovantes comme Streamezzo et Magic Recycle, démontrant une capacité exceptionnelle à piloter des projets technologiques d’envergure. Sa participation en tant que Partner chez Dhatim Holding et son rôle de directeur de la stratégie dans l’entreprise spécialisée en IA attestent de son expertise approfondie. Actuellement à la tête d’AI Builders, il conseille les entreprises sur l’intégration de l’IA dans leur stratégie, s’appuyant sur une solide expérience dans le domaine de l’innovation technologique et de l’intelligence artificielle.

offre-stephane-roder
❌
❌