Les xénobots attirent aujourd’hui l’attention. Cette nouvelle catégorie de « robots vivants », fabriqués à partir de cellules d’amphibien et conçus grâce à des algorithmes, est capable de se déplacer, de se réparer et même, dans certaines expériences, de se reproduire en assemblant de nouveaux agrégats cellulaires. Ces entités questionnent la frontière entre machine et organisme. Des études récentes détaillent mieux leur fonctionnement moléculaire et ravivent les débats éthiques sur le contrôle
Les xénobots attirent aujourd’hui l’attention. Cette nouvelle catégorie de « robots vivants », fabriqués à partir de cellules d’amphibien et conçus grâce à des algorithmes, est capable de se déplacer, de se réparer et même, dans certaines expériences, de se reproduire en assemblant de nouveaux agrégats cellulaires. Ces entités questionnent la frontière entre machine et organisme. Des études récentes détaillent mieux leur fonctionnement moléculaire et ravivent les débats éthiques sur le contrôle de ces formes de vie programmables.
Le 13 janvier dernier, la Fondation Grenoble INP et le Groupe Artelia ont annoncé la création de la chaire de recherche et d’enseignement AugmentIA. Soutenu par un mécénat d’Artelia d’une durée de trois ans, son objectif est de transformer les pratiques industrielles et ouvrir de nouvelles perspectives dans les secteurs de l’aménagement et de la construction.
La création de cette chaire s’inscrit pleinement dans la mission de la Fondation qui soutient depuis 2010 Grenoble INP, l’Institut d’ingén
Le 13 janvier dernier, la Fondation Grenoble INP et le Groupe Artelia ont annoncé la création de la chaire de recherche et d’enseignement AugmentIA. Soutenu par un mécénat d’Artelia d’une durée de trois ans, son objectif est de transformer les pratiques industrielles et ouvrir de nouvelles perspectives dans les secteurs de l’aménagement et de la construction.
La création de cette chaire s’inscrit pleinement dans la mission de la Fondation qui soutient depuis 2010 Grenoble INP, l’Institut d’ingénierie et de management de l’Université Grenoble Alpes (UGA). Le Groupe Artelia, acteur de référence dans les secteurs de la mobilité, de l’eau, de l’énergie, du bâtiment et de l’industrie, apporte non seulement son financement, mais également son expertise multidisciplinaire ainsi que son engagement en faveur de l’innovation technologique et de la performance éthique.
AugmentIA, comme son nom l’indique, explore le concept de “l’humain augmenté” : son objectif est d’intégrer l’IA dans l’ingénierie pour améliorer les capacités humaines et non de le remplacer.
Didier Schwab, titulaire de la Chaire, chercheur au LIG et professeur à l’UGA, souligne :
“AugmentIA incarne la rencontre entre expertise industrielle et recherche académique d’excellence. Cette chaire ouvre une voie prometteuse vers une ingénierie augmentée, plus performante, mais aussi plus responsable.”
Trois axes d’innovation au cœur du projet
AugmentIA, qui a pour mission de favoriser un transfert de compétences vers les élèves ingénieurs et les partenaires industriels, se concentre sur trois axes principaux :
Maîtriser les grands modèles de langage multilingues et multimodaux :
AugmentIA développe des outils pour transformer la gestion des projets industriels, de la rédaction des appels d’offres à l’analyse de données massives non structurées ;
Explorer le potentiel de l’IA générative : des solutions technologiques innovantes seront testées pour optimiser les processus métiers, tout en adressant des défis majeurs : la réduction des hallucinations de l’IA, le respect des contraintes éthiques et l’empreinte environnementale des systèmes ;
Lever les verrous technologiques : la chaire s’attaque aux défis complexes de la gestion des données multilingues et de l’adaptation des modèles d’IA aux besoins spécifiques des secteurs de l’aménagement et de la construction.
Pierre Carlotti, Directeur scientifique, Artelia, explique :
“L’intelligence artificielle générative est un sujet en vogue dans beaucoup de secteurs. Grâce à la chaire AugmentIA, je suis très heureux de pouvoir, avec la Fondation Grenoble INP, dépasser l’effet de mode et contribuer ainsi à la mise en place opérationnelle de tels outils dans les métiers de l’ingénierie. En effet, des évolutions au départ purement technologiques posent de nombreux défis de recherche. Les grands modèles de langue doivent être perfectionnés pour répondre au mieux aux enjeux spécifiques de nos métiers, afin de nous permettre d’utiliser au mieux leur potentiel malgré des verrous scientifiques réels comme l’apprentissage continu ou la capacité à justifier les résultats obtenus.
La chaire AugmentIA s’attache à dépasser ces limites en explorant deux axes essentiels : d’une part, la consommation énergétique et l’impact carbone des modèles actuels, un enjeu crucial dans nos métiers où l’exemplarité environnementale est une exigence incontournable, et d’autre part l’éthique et la place de l’humain dans les usages de ces techniques, afin de garantir une intégration responsable et respectueuse des valeurs humaines. Je suis convaincu que cette démarche contribuera à transformer ces défis en opportunités pour nos métiers et notre société.”
La chaire AugmentIA sera officiellement inaugurée le 27 mars prochain à Grenoble.
Frédéric Bardolle, à la tête de l’incubateur numérique du ministère des Armées, considère que « la qualité des intervenants est incroyable, et les sujets évoqués sont très variés et toujours passionnants. »
Mehdi Benhabri, haut fonctionnaire spécialiste des questions scientifiques et technologiques, résume sa participation en ces termes : « Le Paris Machine Learning est rapidement devenu l’un des plus grands rassemblements de France sur les thématiques de l’intelligence artificielle en général e
Frédéric Bardolle, à la tête de l’incubateur numérique du ministère des Armées, considère que « la qualité des intervenants est incroyable, et les sujets évoqués sont très variés et toujours passionnants. »
Mehdi Benhabri, haut fonctionnaire spécialiste des questions scientifiques et technologiques, résume sa participation en ces termes : « Le Paris Machine Learning est rapidement devenu l’un des plus grands rassemblements de France sur les thématiques de l’intelligence artificielle en général et du machine learning en particulier. Le dynamisme de ses animateurs a permis de mobiliser des compétences de haut niveau dans un cadre original et peu formel afin d’échanger de manière libre et approfondie, sans les rigidités et les contraintes du monde académique. »
Dans le cadre des jeux olympiques 2024, nous vous offrons chaque jour un article issu du magazine ActuIA n°4, dont le dossier principal est “Le sport à l’ère de l’IA”. Afin de découvrir le magazine ActuIA, nous vous invitons à vous rendre sur notre boutique. Tout nouvel abonnement d’un an vous donne droit à l’ensemble des archives au format numérique.
Une identité et une charte
Au cours des réunions suivantes, nous peaufinons les valeurs de notre groupe et esquissons notre charte. À savoir une structure plate, sans cooptation. Son but est de donner aux membres le point de vue des chercheurs les plus prometteurs du domaine, d’éviter les discours de vendeurs de solutions techniques, de couper les pitchs et les présentations éclair à la mode dans les startups numériques. Mais également de filtrer et de rejeter sans ambiguïté les tentatives d’exploitation douteuses des algorithmes, parmi lesquelles : les algorithmes de détection d’orientation sexuelle, la recherche des traits du visage caractéristiques des criminels, ou encore la façon de dessiner un visage à partir de la voix.
L’Eurovision du machine learning chez Google
Un an plus tard, forts de nos mille premiers membres, Google nous ouvre les portes de son immense salle de conférence parisienne et met toute son infrastructure à disposition pour une soirée. Le défi ? Retransmettre les interventions des spécialistes IA en direct à Paris, Londres, Berlin et Zurich.
Le point d’orgue de la soirée est Andrew Ng, cofondateur de Google Brain, professeur à Stanford et star mondial de l’IA. Son credo ? « L’IA est une nouvelle électricité. Elle s’immisce dans tous les objets comme l’électricité l’a fait au début du siècle. »
Après cette première saison, le ton est donné. S’enchaînent au fil des sept saisons différents formats et déclinaisons, présentations à distance avec des chercheurs à l’autre bout du monde, hackathons, concours de code et hors-série thématiques : data journalism par le responsable data du New York Times, attaques adverses, finance algorithmique, automatic machine learning, robotique et IA, calcul haute performance.
Andrew Ng, professeur à Stanford, cofondateur de Google Brain (division de recherche fondamentale IA de Google) a très largement contribué à populariser les méthodes et les techniques de l’intelligence artificielle, particulièrement à travers son célèbre cours en ligne Coursera, passage obligé pour tous les codeurs d’IA.
Partage d’expertise
Cas d’usage d’entreprises et algorithmes data
En France et dans le monde, des communautés d’experts data et IA se constituent. Toulouse, Marseille, Nantes. Amsterdam, Stockholm, New York, Boston, San Francisco. Aucune ville n’est en reste. Pour quelle raison ? Parce que l’accélération prodigieuse du rythme d’apparition de technologies déstabilisantes provoque un besoin de formation et une soif de compréhension immédiate, peu en adéquation avec le rythme des formations longues.
En effet, ce que désirent les ingénieurs, les programmeurs et les entrepreneurs est de comprendre immédiatement ce qui est en train de se jouer et qui chamboule l’économie. Comment appliquer les algorithmes à leur métier ?
Quant à l’offre d’expertise, elle est tout aussi abondante.
Facteur H, l’humain dans la boucle
Au-delà d’une soif de connaissances techniques, le plaisir des rencontres informelles et du réseautage est un élément important. Gautier Marti, un Français spécialiste des algorithmes machine learning travaillant à Abou Dabi pour un fonds souverain nous confiait que « les rencontres du Paris Machine Learning sont une source de veille technologique. Elles permettent de découvrir de nouveaux outils et de confronter ses idées à la réalité ou à l’expérience d’autres experts. »
Lors de ces rencontres, des fondateurs d’entreprise se sont rencontrés et ont créé leur entreprise. Nicolas Gaude, cofondateur de la startup Prevision.io, fait part de son expérience en ces termes : « Ce fut pour moi un vrai déclic. Avec l’aide de Franck Bardol, d’Igor Carron et les conseils des experts présents, j’ai pu vraiment progresser techniquement et donner corps à mon projet. »
Jacques-Henri Gagnon, directeur adjoint des services culturels et chef des relations universitaires à l’ambassade du Canada à Paris, ajoute : « Le Paris Machine Learning m’a donné accès à ce large réseau et a aussi été le point de départ d’échanges franco-canadiens ce qui, dans mon sec-teur d’activité, est le cœur de métier. » Le groupe a fait office de facilitateur pour nombre de ses membres, des ingénieurs y ont été recrutés, des sociétés ont initié des partenariats et des rachats.
Pour conclure, cette phrase de Théodore Levitt, le père fondateur du marketing s’adressant à ses étudiants, résume bien l’esprit de cette communauté : « Le client ne veut pas une mèche de perceuse. Il veut un trou dans le mur. »
Jürgen Schmidhuber, découvreur des LSTM au début des années 2000, a rendu cet apprentissage possible grâce à des données temporelles, ordonnées et horodatées. Ses réseaux récurrents temporels LSTM analysent désormais les données de capteurs des chaînes de production d’usines et permettent de prédire les valeurs futures. On lui doit le traitement efficace des motifs temporels à l’aide de réseaux de neurones spécialisés. Il était revenu sur la genèse de sa découverte dans une réunion et avait partagé les voies d’amélioration de ses méthodes. L’avenir lui a donné raison. Depuis lors, les architectures transformers ont révolutionné la traduction automatique et tout le traitement du langage par des algorithmes.
Gaël Varoquaux, Alexandre Gramfort et Olivier Grisel : ce trio d’ingénieurs et scientifiques français est la tête pensante de la librairie machine learning la plus utilisée au monde, dont les statistiques sont impressionnantes.
C’est la seconde librairie la plus téléchargée au monde derrière la célèbre TensorFlow de Google, avec 700 000 utilisateurs et 42 millions de visites sur le site internet. Son nom ? Scikit-learn. Tous les codeurs du machine learning ne jurent que par elle. Son mérite est de mettre à disposition de n’importe quel programmeur des millions de lignes de code optimisées, pensées et calibrées par les plus grands spécialistes de l’ingénierie. Son prix ? Inestimable. Elle est gratuite et en open source. Elle représente la plus grande réussite de démocratisation du machine learning.
De nombreuses années en arrière, ces trois chercheurs étaient venus initier les membres du Paris Machine Learning au fonctionnement de leur outil Scikit-learn dès la première réunion.
Alexandre Gramfort nous confiait que « cela a été pour moi une belle opportunité de présenter ma recherche. » Depuis, Alexandre, Gaël et Olivier ont été récompensés par le prix Inria – Académie des sciences.
François Chollet, malgré son jeune âge, est une star de l’IA. Et pour cause, ce Français, chercheur chez Google Brain, a écrit la librairie de deep learning nommée Keras. L’avantage de cette librairie est de simplifier et masquer la complexité du deep learning. Le même esprit que Scikit-learn en somme. La reconnaissance ne s’est pas fait attendre. Désormais, Keras est livrée par Google en même temps que les autres programmes deep learning de cette société. Nous l’avions reçu dans une réunion hors-série qui lui était consacrée. François Chollet est également l’auteur d’un ouvrage de référence sur le deep learning. Jacqueline Forien a traduit cet ouvrage en français¹ et poursuit ainsi la démocratisation des algorithmes IA.
Yoshua Bengio, un des co-découvreurs du deep learning, avait évoqué dans une réunion les difficultés d’apprentissage ainsi que les solutions envisagées.
À cette période, le deep learning était encore balbutiant. Ce n’est désormais plus le cas et nous le devons en grande partie à ses travaux.
Les algorithmes de ces découvreurs fonctionnent au quotidien et inspirent les logiciels IA d’entreprises. Leur passage par le Paris Machine Learning a été une source profonde d’inspiration.
Les algorithmes d’apprentissage ont révolutionné des pans entiers de l’ingénierie et rendu possible ce qui tenait jusqu’alors du domaine du rêve des ingénieurs.
La robotique dans tous ses états
La robotique figure en bonne position dans ce chamboulement. Pierre Sermanet, jeune chercheur français dans le groupe robotique de Google² y avait consacré plusieurs conférences. « Mes recherches explorent l’intersection du langage³ et du jeu et mobilisent de multiples mécanismes pour l’apprentissage robotique ». Interrogé sur l’avenir de sa discipline, il répond : « Les avancées récentes autour de l’apprentissage sur des données massives de langage non labellisées (notamment les modèles GPT d’OpenAI) sont impressionnantes et prometteuses, le même type d’approche appliquée à la vidéo et à la robotique me paraît très prometteur ».
Le coup de force du deep learning
S’il est un domaine qui a connu une véritable révolution, c’est bien l’analyse d’images.
Impossible de ne pas évoquer l’apport du machine learning dans l’analyse et la compréhension des images. Le point de bascule a lieu au moment de la fondation du Paris Machine Learning. Grâce à sa nouvelle méthode de réseaux de convolution, Geoffrey Hinton réalise un tour de force dans la compétition ImageNet. Il écrase les méthodes traditionnelles d’analyse d’images et y impose les techniques de deep learning comme nouveau standard.
Dominique Cardon, directeur du Médialab de Sciences Po et auteur d’un des ouvrages de référence⁴ sur le sujet, était venu nous en faire un récit épique au cours de la centième réunion du groupe tenue dans les locaux inspirants de la startup Scaleway. Voici quelques morceaux choisis de son récit publié depuis dans un article intitulé La revanche des neurones⁵.
« L’épisode est en passe de devenir légendaire dans l’histoire de l’informatique ». Un chercheur interrogé par Dominique Cardon se souvient : « En 2012, Hinton débarque dans la compétition ImageNet et crée un véritable séisme !
Il ne connaît rien au domaine de la vision par ordinateur et il embauche deux petits gars pour tout faire sauter !
À l’époque, les ingénieurs de computer vision s’excitent sur ImageNet depuis deux ou trois ans. Le meilleur d’entre eux était à 27 % d’erreurs. Hinton, lui, marque dix points à tout le monde ! Ce jeune geek arrive et annonce le résultat devant une salle bondée. Un ado qui ne comprend rien à ce domaine, enfermé dans ses algorithmes !
Tous les grands manitous du computer vision essaient de réagir : En fait c’est pas possible, ça va pas marcher… Au final, les mecs étaient tous abasourdis parce que grosso modo cela foutait en l’air dix ans d’intelligence, de tuning et de sophistication. »
Ce récit savoureux nous fait vivre de l’intérieur la révolution initiée par les algorithmes d’apprentissage. Les méthodes d’expertise manuelle fine sont balayées par la science “à la Google” qui allie big data et algorithmes IA.
Du laboratoire à la startup
Depuis, les ingénieurs et docteurs en IA ont transformé ces algorithmes encore balbutiants en produits finis redoutables d’efficacité. Des exemples ? LightOn, startup technologique cofondée par Igor Carron, révolutionne l’informatique grâce à sa puce optique. Le résultat ? Des calculs à la vitesse de la lumière et une empreinte énergétique minime grâce à sa technologie de rupture. Le meilleur des mondes en somme.
Meero, une autre pépite technologique, automatise la retouche photo grâce à ses algorithmes AI entraînés sur des millions de photographies. Jean-François Goudou, son directeur R&D nous avait décrit l’algorithme machine learning de restauration et d’amélioration automatique d’images lors d’une réunion au siège de Samsung. « Les premiers retours clients sont très très positifs. » nous confia-t-il.
Tony Pinville, fondateur, aux côtés de Charles Ollion, de Heuritech, une startup spécialiste de ces mêmes algorithmes IA d’analyse d’images, avait ouvert pour nous le capot de ses algorithmes. Il nous confie : « Le meetup Paris Machine Learning a été un mouvement précurseur de l’IA que Heuritech a eu la chance de rejoindre au tout début. », et ajoute : « Pour notre part, nous utilisons une technologie de reconnaissance visuelle qui analyse chaque jour plusieurs millions d’images de consommateurs et d’influenceurs sur les réseaux sociaux et les traduit en informations riches et pertinentes pour les marques de mode et de luxe.
Pour mieux créer leurs collections, ces marques ont besoin d’informations sur la prévision de tendances et de ventes. Heuritech souhaite combiner ces deux types de prédictions pour mieux les accompagner. » Depuis, la récompense est venue naturellement. Heuritech a reçu le prix LVMH de l’innovation des mains de Bernard Arnault.
Déplacement de l’expertise
Malgré ces succès et avancées spectaculaires, la fabrication des programmes de machine learning demeure artisanale et reste une affaire de spécialistes et d’experts. Les data scientists procèdent le plus souvent par tâtonnements et essais-erreurs lorsqu’ils élaborent un algorithme de machine learning.
C’est à ce déplacement de l’expertise auquel nous assistons depuis dix ans. Auparavant, le cœur de la création de valeur dans les entreprises était la production de règles métiers par les experts. Désormais, ces règles émergent des données grâce aux algorithmes auto-apprenants.
L’expertise des ingénieurs IA qui les conçoivent consiste à choisir l’algorithme le plus approprié pour un jeu de données particulier, puis à l’étalonner et à le dimensionner à la bonne puissance. Pour les entreprises qui mobilisent des technologies IA, la sélection d’algorithmes et d’architectures matérielles et logicielles s’est substituée à la conception des règles métiers traditionnelles.
Les programmes d’IA proposent une mécanisation de l’intuition et de la connaissance métier de l’expert humain. Nous en sommes au premier stade. Un courant de recherche visant à automatiser tout ou partie de la chaîne de fabrication des programmes d’IA s’est mis en place. Il s’agit du second stade, celui qui consiste à « automatiser l’automatisation ». En effet, en induisant la production automatique des règles par un programme d’ordinateur, le machine learning représente une automatisation de la pensée d’experts. Cette voie se nomme AutoML, pour Automatic Machine Learning.
L’AutoML, futur du machine learning ?
Le Paris Machine Learning a participé à l’organisation de concours et de hackathons AutoML. Ce fut le cas du concours RAMP du Paris-Saclay Center for Data dirigé par Balázs Kégl, intervenant lors d’une rencontre consacrée à l’apport du machine learning pour la physique théorique au laboratoire européen du Cern, la data au service des particules atomiques. Ou encore du concours ChaLearn organisé par Isabelle Guyon et du défi européen See.4C assorti d’un prix de deux millions d’euros pour les gagnants. Le laboratoire d’innovation ouverte La Paillasse hébergeait ces rencontres grâce au soutien énergique d’un de ces dirigeants, Sébastien Treguer.
Isabelle Guyon confie que le Paris Machine Learning « a facilité l’organisation de hackathons et la diffusion des challenges en machine learning. »
L’histoire ne s’arrête pas là. « La série de challenges AutoML a permis la création d’Auto-Sklearn⁶ ». En ce qui concerne le deep learning, « la série de challenges AutoDL a abouti à un self-service de deep learning automatisé. »
Pour nous, l’AutoML constitue un axe de développement majeur pour les années à venir. Tous les acteurs importants sont désormais entrés dans la course. Parmi les avancées récentes, citons les méthodes Neural Architecture Search (NAS), en particulier Neural Network Intelligence (NNI) de Microsoft, ou encore Evolved Transformer de Google.
Dans un futur proche, l’expertise technique du data scientist ne sera donc plus nécessaire pour construire des programmes auto-apprenants. Le programme de recherche intitulé Automatic statistician et conduit par Zoubin Ghahramani de l’université de Cambridge, en collaboration avec le MIT, illustre parfaitement cette vision. Ghahramani nous en avait partagé les méthodes et les enjeux.
À terme, seule sera nécessaire une équipe restreinte de data scientists chargés d’améliorer les procédés automatiques de découvertes de règles. Tous les autres redeviendront des programmeurs traditionnels. Ils fourniront des données d’entraînement et obtiendront en retour, sans aucune expertise en la matière, le meilleur programme IA imaginable.
Parmi ceux qui mettent au point ce type de service automatisé de haut niveau, Nicolas Gaude, précédemment cité, nous décrit son activité en ces termes : « Mon métier consiste avant tout à démocratiser l’usage de l’A en apportant aux entreprises à la fois les innovations techniques et la capacité de les mettre en production. Ce qui nous préoccupe, et de loin, est de rendre accessible et opérable le machine learning sur le long terme. »
Quand les algorithmes deviennent un sujet de société
Les algorithmes de machine learning interprètent le monde avec un filtre statistique afin de nous guider dans nos choix.
Ce faisant, ils agissent sur la société et en transforment les pratiques et les usages. Ainsi, lorsqu’un algorithme de GPS suggère aux automobilistes pressés un itinéraire secondaire moins encombré, il peut créer simultanément un problème d’aménagement du territoire, l’itinéraire secondaire n’étant pas dimensionné, par nature, à subir cette augmentation de trafic. De plus, les nuisances sonores et la pollution engendrées par ce dernier touchent les riverains. L’algorithme crée donc également un problème de santé publique.
Dominique Cardon résumait ces points en 2017 lors d’une conférence consacrée aux biais des algorithmes à l’institut Henri Poincaré. Selon lui, « les algorithmes deviennent un sujet de société. » Ajoutons qu’ils deviennent un sujet politique. Un exemple frappant ? Le Zimbabwe a vendu une base de données contenant les visages de ses citoyens à la Chine.
Son but ? Entraîner les algorithmes de reconnaissance faciale sur des visages noirs. En échange de cette masse de données, le Zimbabwe sera bientôt équipé de caméras à reconnaissance faciale dernier cri…
Lors de cette conférence, Cédric Villani proposait une réflexion sur l’apport des algorithmes prédictifs dans l’entreprise. Il notait avec pertinence que les algorithmes devaient au préalable être acceptés avant d’être utilisés. En effet, un algorithme sans accompagnement ne sert à rien, un travail doit être effectué en amont. Cédric Villani nous rapportait une expérience réussie au cours de laquelle des salariés valident les décisions du programme IA et gardent ainsi la main sur la machine. Dans le cas contraire ? Il n’est pas rare de voir les salariés entrer en lutte “souterraine” contre ces programmes en les nourrissant, par exemple, de fausses données.
En somme, c’est l’illustration du fossé qui sépare l’IA capacitante de l’IA substitutive. Pour l’une, il s’agit de remplacer le salarié, pour l’autre il s’agit de le renforcer.
Franck Bardol pour sa part prolongeait cette réflexion autour de l’IA de confiance et précisait les points-clés de transparence et de loyauté des algorithmes. Depuis, ces thèmes émergent dans l’actualité du secteur et sont devenus un sujet d’inquiétude.
Pour Pierre Saurel, professeur associé à la Sorbonne, intervenant dans cette conférence, le domaine de l’éducation est également concerné par cette transformation numérique. De plus, les biais algorithmiques y sont tout aussi présents. Il ajoute que « L’analyse de ces biais est un point particulièrement important. Elle permet d’accompagner les enseignants pour identifier, par exemple, des spécificités dans les documents qu’ils peuvent utiliser en classe. »
Dans les coulisses de la conférence NeurIPS
Les grandes conférences scientifiques internationales sont des opportunités d’échanges intenses pour la communauté, mais aussi de moments, qui comme des œuvres d’art, sont révélateurs de tendances fortes.
Le Paris Machine Learning s’est associé avec la conférence NeurIPS afin de mettre à l’honneur quelques-uns des chercheurs francophones sélectionnés pour cette grand-messe. La forme ? Un panel quotidien de cinq intervenants durant la semaine de conférence. Des présentations éclair dans des visioconférences de dix minutes. Du concentré d’état de l’art. Ce qui émerge de cette sélection de chercheurs ? Beaucoup d’efforts consacrés à l’amélioration des méthodes d’apprentissage mais aussi des tentatives d’explorer des pistes totalement inédites.
Les neurosciences et l’explicabilité des algorithmes figurent aussi en bonne place. En somme, une dense semaine de mathématiques et d’algorithmique de haut niveau par des chercheurs de l’INRIA, l’École normale, Telecom Paris, Criteo, Google Brain et Facebook. Mais aussi venant des startups technologiques les plus avancées en recherche, parmi lesquelles LightOn, Hugging Face et Prophesee.
Des groupes de data scientists de Strasbourg, Timisoara en Roumanie et du Cameroun participaient également à cette semaine de mise en valeur de la recherche francophone. Robert Maria, organisateur du groupe de Strasbourg et de Timisoara, ainsi qu’Alain Nkongweni, organisateur du groupe du Cameroun, ont rejoint Jacqueline Forien et Claude Falguière dans l’organisation. Jacqueline est par ailleurs Meetup Chair à NeurIPS.
L’IA en lutte contre la Covid-19
Dès les premiers signes de la pandémie de Covid-19, la recherche scientifique s’est mobilisée. Le machine learning fait partie de l’arsenal mis en œuvre. C’était pour nous une évidence qui s’est traduite par une série d’interventions exclusives sur ce thème durant l’année 2020.
La recherche d’un remède définitif contre la Covid-19 complète la politique sanitaire du Tester – Alerter – Protéger. Chacun de ces éléments est décliné à base de machine learning, depuis les applications de traçage aux tests en masse, en passant par le suivi personnalisé de centaines de milliers de patients, la prévision du nombre de cas, l’estimation de la dangerosité du virus (le fameux R0) ou encore l’équilibre confinement – détection des cas, sans oublier la conception de molécules médicamenteuses.
Ces différents aspects ont été évoqués par Lenka Zdeborová, professeur à l’EPFL, Maximilien Levesque, fondateur de la startup Aqemia, Alexandre Gramfort de l’INRIA, Dror Baron de l’université de North Carolina et Arthur Charpentier de l’UQAM.
Avant de conclure, rappelons des points fondamentaux. Un algorithme ne remplace pas une infirmière. Un robot désinfectant ne se substitue pas à un accueil des patients à l’hôpital. Une application de traçage ne protège de rien. Aucune technique, méthode ou algorithme ne peut se substituer à l’action politique. Franck Bardol avait insisté sur ce point dans une intervention lors de la sortie de l’application de traçage nommée Stop Covid. Tous les éléments pour un fiasco étaient réunis. On connaît la suite. L’IA n’est pas de la magie qui résout tout. Aucune personne sérieuse n’y croit plus. Evgeny Morozov et son ouvrage de référence sur le techno-solutionnisme est passé par là et a balayé ce mythe.
Quel message retenir du Paris Machine Learning ?
Pour conclure, prêtons-nous à un exercice de synthèse difficile. Tentons de prendre du recul sur plusieurs centaines d’heures de prises de parole.
En premier lieu, ce qui frappe est la vitesse d’adoption des algorithmes IA. Yann LeCun, précurseur du domaine, relevait ce point dans sa leçon inaugurale du Collège de France consacrée aux algorithmes IA. Les ingénieurs ont adopté les méthodes du deep learning à une vitesse stupéfiante. Le décalage du cycle innovation-production n’existe pour ainsi dire plus !
Les avancées spectaculaires du deep learning en ce qui concerne le traitement des images et du langage ont très fortement facilité l’adoption du machine learning dans le tissu économique et dans les entreprises.
Au-delà de l’efficacité pure des algorithmes, d’autres préoccupations émergent. Notamment pour tout ce qui concerne le fonctionnement de ces algorithmes. Quelles sont les ressources nécessaires en données, en énergie, en matériel informatique pour entraîner ces algorithmes ? Hormis ces questions liées à la parcimonie des algorithmes, les mathématiciens s’interrogent toujours : « Pourquoi ces algorithmes fonctionnent-ils aussi bien ? » La recette est désormais connue de tous et a fait ses preuves mais la question de pourquoi elle fonctionne si bien reste entière.
Parallèlement à ces enjeux de recherche pure, le grand public, les ingénieurs, les décideurs politiques s’inquiètent du retentissement considérable de ces algorithmes sur nos sociétés. Les data scientists qui en écrivent le code informatique ne peuvent désormais plus se contenter d’être de purs techniciens, pour reprendre les termes de Cathy O’Neil, célèbre mathématicienne data scientist. Les algorithmes sont devenus un objet politique, l’éthique n’est plus une option mais un devoir.
Cet article est extrait du magazine ActuIA. Afin de ne rien manquer de l’actualité de l’intelligence artificielle, procurez vous ActuIA n°16, actuellement en kiosque et sur abonnement :
Le groupe Ametra a récemment dévoilé son nouveau plan stratégique de développement : “Ignition”. Ce plan ambitieux, d’une durée de trois ans, vise à renforcer la filière Ametra Engineering à travers de nouveaux partenariats, le développement des compétences internes, et le rééquilibrage des métiers.
Membre du Groupement des industries françaises de défense et de sécurité terrestres et aéroterrestres (GICAT), le groupe Ametra, à travers ses filières Ametra Engineering et Ametra Integration, est r
Le groupe Ametra a récemment dévoilé son nouveau plan stratégique de développement : “Ignition”. Ce plan ambitieux, d’une durée de trois ans, vise à renforcer la filière Ametra Engineering à travers de nouveaux partenariats, le développement des compétences internes, et le rééquilibrage des métiers.
Membre du Groupement des industries françaises de défense et de sécurité terrestres et aéroterrestres (GICAT), le groupe Ametra, à travers ses filières Ametra Engineering et Ametra Integration, est reconnu pour son savoir-faire en ingénierie de produits et moyens mécaniques, en ingénierie et intégration de systèmes électriques et électroniques. Créée en 1978, cette ETI qui compte aujourd’hui 750 collaborateurs a pour clients des grands noms des secteurs de l’aéronautique, de la défense et du nucléaire : Dassault, Airbus, Ariane Group, Safran, Thales…
Les quatre piliers du plan “Ignition”
Ce nouveau plan stratégique vise à multiplier par deux l’effectif de la filière Engineering, ce qui fera franchir au groupe Ametra la barre symbolique des 1 000 employés d’ici a trois ans.
Pour y parvenir, le groupe se concentre sur 4 axes principaux :
Développement de la force commerciale : Création de synergies avec des entreprises similaires pour répondre aux enjeux d’innovation secteur par secteur.
Renforcement du maillage national : Amélioration de la proximité avec les clients sur l’ensemble du territoire français.
Expansion internationale : Déploiement de projets en Europe, suivant l’exemple de la filière Ametra Integration déjà présente en Tunisie et récemment en Inde.
Recrutement et formation des talents : Renforcement des équipes RH et partenariats avec des écoles d’ingénieurs pour attirer et former les meilleurs talents
Rééquilibrage des métiers au sein du cycle de vie du produit avec l’apparition de nouveaux grands métiers, tels que l’ingénieur support et l’ingénieur de production, le renforcement important de la filière logiciel et système embarqué, ainsi que le développement des formations internes pour faire monter en compétence les collaborateurs du groupe.
Anne-Charlotte Fredenucci, Présidente du groupe Ametra, souligne :
“Ce plan de croissance à horizon 2027 doit donner un nouvel élan à notre filière Engineering sur un marché européen à fort potentiel. Dans la défense par exemple, le retour de conflits à grande intensité aux portes de l’Union Européenne nous oblige à penser autrement notre filière. La notion d’économie de guerre pose un certain nombre de défis à la Supply Chain, notamment en termes de recrutement, d’innovation et d’accompagnement du ramp-up des grands maitres d’œuvre. Avec ce plan, nous avons l’ambition de développer de nouvelles expertises de pointe et de proposer une gamme de services plus étendue et spécialisée. L’atteinte de ces objectifs élevés reposera notamment sur notre capacité à attirer les jeunes talents issus des meilleures écoles d’ingénieurs”.
Partenariat avec l’ECE
Ametra a également annoncé un partenariat avec l’ECE, école d’ingénieurs multiprogrammes spécialisée dans l’ingénierie numérique du groupe OMNES Education. Ce partenariat s’inscrit dans le cadre de la création de l’Intelligence Lab de l’ECE, une plateforme pédagogique de recherche et d’innovation dédiée à l’IA générative, avec une application spécifique au secteur de la défense, qui sera opérationnelle à la rentrée prochaine et ouverte à tous les étudiants de l’ECE.
Ils seront également associés pour le lancement du cycle ingénieur Majeure Défense & Technologie d’une durée de 2 ans sur le campus parisien de l’ECE.
Les étudiants pourront ainsi travailler sur des projets concrets en collaboration avec Ametra.
François Stephan, Directeur Général de l’ECE, commente :
” L’intelligence Lab est une plateforme inédite en France. Nous avons l’ambition de devenir un centre d’excellence pour la pédagogie, la recherche et l’innovation en IA, offrant à nos partenaires comme Ametra l’opportunité de participer à des projets innovants, de recruter des talents, et de tisser des liens avec d’autres acteurs clés sur le marché. La force de ce projet réside dans notre capacité à faire corréler ces nouvelles technologies pour des cas d’application pragmatiques. Nous sommes fiers de compter Ametra parmi nos partenaires pour contribuer aux formations d’excellence de nos étudiants, en lien avec la réalité du terrain”.
Les technologies d’IA, de ML et d’automatisation sont en train de remodeler en profondeur les industries. Une récente enquête de Deloitte indique que 93 % des entreprises manufacturières estiment que l’IA sera une technologie clé pour stimuler la croissance et l’innovation.
L’industrie manufacturière a tout à gagner car elle s’appuie sur différents systèmes d’ingénierie qui génèrent de grandes quantités de données, lors de la curation des données, de la conception, ou encore lors de la création
Les technologies d’IA, de ML et d’automatisation sont en train de remodeler en profondeur les industries. Une récente enquête de Deloitte indique que 93 % des entreprises manufacturières estiment que l’IA sera une technologie clé pour stimuler la croissance et l’innovation.
L’industrie manufacturière a tout à gagner car elle s’appuie sur différents systèmes d’ingénierie qui génèrent de grandes quantités de données, lors de la curation des données, de la conception, ou encore lors de la création de modèles d’IA dans la fabrication des produits. Ces systèmes peuvent être liés à la gestion du cycle de vie des produits (PLM), la planification des ressources de l’entreprise (ERP), ou encore le pilotage de la production (MES). En outre, il existe une grande diversité de données dans l’écosystème des fournisseurs, des équipementiers, des régulateurs et d’autres parties prenantes.
D’autre part, les fusions et acquisitions courantes dans cette industrie, entraînent la nécessité d’intégrer constamment de nouveaux concepts, de nouvelles données et une nouvelle culture au sein des entreprises.
L’IA et le Machine Learning (ML) au service des résultats de l’entreprise
Au cours des dernières années, l’IA et l’automatisation ont eu un impact significatif sur l’industrie manufacturière en offrant la possibilité d’examiner les données historiques, de les nettoyer et de les rationaliser. L’IA peut supprimer les informations en double et réduire le nombre de biais afin d’assurer la normalisation de la base de données.
Les systèmes traditionnels d’ingénierie ont permis jusqu’à aujourd’hui de traiter, conserver et réutiliser les connaissances existantes. Ces systèmes transitent vers l’IA de nouvelle génération. Ils offrent une plus grande précision et une meilleure traçabilité, qui sont des atouts importants pour la recherche et le développement de la plupart des chaînes de valeur des produits. Les grands modèles de langage permettent désormais d’apporter l’échelle nécessaire au traitement et à l’extraction des connaissances à chaque fois que cela est nécessaire.
Les algorithmes d’IA peuvent piloter des analyses prédictives de la demande et de l’offre en utilisant des modèles ML simples, des modèles de réseaux neuronaux ou des réseaux neuronaux profonds.
Intégration et centralisation des données
Les outils alimentés par l’IA peuvent collecter et intégrer des données provenant de divers systèmes d’enregistrement, tels que les logiciels de CAO/FAO, les appareils IoT, les systèmes ERP, et plus encore, et compléter les entreprises grâce à leurs capacités d’IA. Par exemple, un réseau neuronal artificiel a été utilisé pour une entreprise aérospatiale mondiale afin d’aider à équilibrer les moteurs d’avion.
Nettoyage et préparation des données
L’automatisation peut contribuer au nettoyage et à la préparation des données pour l’analyse, en réduisant les efforts manuels et le temps requis pour le nettoyage des données. Par exemple, une classification et un résumé de documents juridiques ont été fournis à une entreprise d’informatique et d’électronique grand public.
Maintenance prédictive
Les modèles de maintenance prédictive pilotés par l’IA analysent les données provenant de capteurs et d’appareils IoT pour prédire quand un équipement ou une machine est susceptible de tomber en panne. Par exemple, une société minière mondiale utilise des camions lourds de type mammouth pour transporter le minerai. Un travail a été mené avec leurs équipes pour développer les modèles de diagnostic et de pronostic pour les camions afin d’identifier et de prédire les défaillances. L’ensemble du processus a été développé dans le cadre d’un projet de retour sur investissement.
Recommandations contextuelles et optimisation des performances
L’ingénierie des connaissances peut être utilisée pour développer des systèmes de recommandation qui fournissent aux utilisateurs des contenus, des produits ou des services pertinents en fonction de leurs préférences et de leur comportement. Cela peut grandement améliorer l’expérience de l’utilisateur en rendant les interactions plus efficaces et plus satisfaisantes.
Le contrôle et l’optimisation des performances des produits par le biais de tests utilisateurs permettent d’identifier et de résoudre les problèmes qui ont une incidence sur l’expérience des utilisateurs, ce qui débouche sur des conceptions plus accessibles.
Les ingénieurs logiciels peuvent développer des solutions logicielles personnalisées et des outils d’automatisation qui rationalisent divers processus de fabrication. Cela permet de réduire le travail manuel, de minimiser les erreurs et de garantir une qualité constante des produits, ce qui améliore l’expérience des opérateurs et des utilisateurs finaux.
Maximiser le potentiel de l’IA
Il n’est pas facile pour les fabricants d’intégrer les capacités de l’IA dans leurs systèmes et infrastructures existants. Il existe une résistance culturelle, un manque de talent et l’incapacité d’absorber les nouveaux algorithmes d’IA dans les systèmes existants. Ainsi, il est essentiel de préparer l’organisation à surmonter les obstacles, à conduire le changement et à favoriser une culture de l’innovation pour que l’adoption de l’IA soit couronnée de succès. Les chefs d’entreprise doivent ainsi identifier les freins technologiques qui entravent l’adoption de l’IA, telles que l’infrastructure obsolète, le manque de talents qualifiés ou les problèmes de cybersécurité, la croissance future de l’entreprise, et y remédier par le biais d’investissements et de formations.
Les leaders du secteur doivent ainsi devenir les fers de lance de l’innovation et du changement. Il se doivent de créer des espaces et des processus qui encouragent les employés à réfléchir, à expérimenter et à proposer des idées novatrices. Aussi, ils doivent mettre en place les formations nécessaires pour leurs employés et tirer ainsi pleinement parti des nouvelles technologies pour prendre les devants sur le secteur.