OpenAI continue d’étendre sa présence en Europe. Après Londres, Paris, Bruxelles et Dublin, la société va ouvrir un bureau en Suisse à Zurich, qui se concentrera notamment sur l’IA multimodale. Trois experts de renom dans ce domaine venant de Google DeepMind : Lucas Beyer, Alexander Kolesnikov et Xiaohua Zhai, feront partie de l’équipe de recherche.
Selon Mark Chen, Vice-président Senior de la recherche chez OpenAI, Zurich s’impose comme un pôle technologique de premier plan en Europe. Comme
OpenAI continue d’étendre sa présence en Europe. Après Londres, Paris, Bruxelles et Dublin, la société va ouvrir un bureau en Suisse à Zurich, qui se concentrera notamment sur l’IA multimodale. Trois experts de renom dans ce domaine venant de Google DeepMind : Lucas Beyer, Alexander Kolesnikov et Xiaohua Zhai, feront partie de l’équipe de recherche.
Selon Mark Chen, Vice-président Senior de la recherche chez OpenAI, Zurich s’impose comme un pôle technologique de premier plan en Europe. Comme son concurrent Google DeepMind, la société a fait le choix de s’y installer, mais a de plus recruté trois de ses meilleurs chercheurs en vision par ordinateur et en apprentissage automatique pour diriger cette nouvelle filiale.
Lucas Beyer, spécialiste des cadres d’apprentissage automatique pour les systèmes d’IA multimodale, Alexander Kolesnikov, expert en reconnaissance visuelle et analyse via l’apprentissage profond, et Xiaohua Zhai, expert en apprentissage multimodal et vision par ordinateur, apporteront leur expertise pour renforcer les capacités de recherche d’OpenAI.
Ces chercheurs de haut niveau, qui ont réalisé individuellement des percées significatives, travaillaient depuis six ans en étroite collaboration au sein de Google DeepMind. Ils ont notamment contribué au développement de technologies comme le Vision Transformer (ViT), un cadre révolutionnaire dans la vision par ordinateur et à celui des modèles Open Weights Vision (SigLIP) et multimodaux (PaliGemma).
Mark Chen a commenté ces recrutements :
“Nous sommes ravis d’accueillir Lucas, Alexander et Xiaohua chez OpenAI. Leur expertise et leurs travaux novateurs en IA multimodale sont reconnus dans toute l’industrie et seront cruciaux alors que nous continuons à développer des technologies capables d’apprendre et d’interagir avec le monde de manière de plus en plus complexe”.
OpenAI renforce son équipe de recherche multimodale pour ouvrir un bureau à Zurich
Teledyne FLIR, filiale de Teledyne Technologies Incorporated, acteur majeur du développement de solutions d’imagerie infrarouge, de systèmes intelligents et de détection, annonce l’ajout d’une nouvelle solution à sa famille de logiciels Teledyne FLIR Prism : Prism AIMMGen.
Prism AIMMGen est un service de génération de modèles d’IA exempt d’ITAR (International Traffic in Arms Regulations) qui permet la création automatisée de modèles d’IA et d’apprentissage automatique à l’aide de données générée
Teledyne FLIR, filiale de Teledyne Technologies Incorporated, acteur majeur du développement de solutions d’imagerie infrarouge, de systèmes intelligents et de détection, annonce l’ajout d’une nouvelle solution à sa famille de logiciels Teledyne FLIR Prism : Prism AIMMGen.
Prism AIMMGen est un service de génération de modèles d’IA exempt d’ITAR (International Traffic in Arms Regulations) qui permet la création automatisée de modèles d’IA et d’apprentissage automatique à l’aide de données générées synthétiquement. Il permet ainsi aux intégrateurs de systèmes qui développent des produits d’IA/ML pour des applications commerciales, de première intervention ou de défense de réaliser d’importantes économies en termes de coûts et de délais.
Une réponse aux défis de la collecte de données réelles
Le développement de modèles IA/ML nécessite traditionnellement une collecte et un étiquetage manuels des données, des tâches chronophages et coûteuses, particulièrement dans des contextes où les objets à détecter sont rares ou difficiles à capturer dans des scénarios réels, comme les cibles militaires. Prism AIMMGen surmonte ces obstacles en générant des millions d’exemples d’objets synthétiques, prêts pour le ML, dans des conditions variées et sur différents spectres, notamment la lumière visible et l’infrarouge. Ce processus réduit de façon drastique les délais et les coûts d’ingénierie, permettant de produire des modèles de haute qualité en quelques jours plutôt qu’en plusieurs semaines. Son infrastructure interne de MLOps garantit que les données sont sécurisées et que les modèles peuvent être développés, déployés et maintenus efficacement.
Dan Walker, Vice-président de Teledyne FLIR, explique :
“Avec le rythme et la sophistication que connaît le développement de systèmes, il est essentiel d’exploiter des données synthétiques intelligentes pour former les modèles d’IA les meilleurs de leur catégorie. AIMMGen accélère la mise sur le marché des développeurs tout en garantissant à leurs produits d’IA respectifs d’être prêts à faire face à tous les scénarios possibles dans pratiquement toutes les conditions environnementales”.
Caractéristiques clés de Prism AIMMGen
Génération illimitée d’images synthétiques : Un accès à un vaste lac de données non soumis aux restrictions ITAR, applicable à de multiples cas d’utilisation en détection d’objets.
Ensembles de données spécifiques : Capacité à produire des millions d’images synthétiques annotées automatiquement, adaptées aux besoins spécifiques d’applications diverses, avec un outil interactif de recherche pour un apprentissage optimisé.
Optimisation automatisée des modèles : Génération rapide de modèles IA performants avec une infrastructure MLOps sécurisée, permettant de répondre aux besoins des développeurs dans des délais très courts.
Après avoir attribué mardi dernier à John J. Hopfield et Geoffrey Hinton le Prix Nobel de physique pour leurs travaux pionniers sur les réseaux de neurones, l’Académie royale des sciences de Suède a décerné mercredi le Prix Nobel de chimie à d’autres acteurs de l’IA : Demis Hassabis, John Jumper ainsi qu’au chercheur américain David Baker pour leurs recherches sur les protéines.
John Hopfield et Geoffrey Hinton ont été récompensés “pour les découvertes et inventions fondatrices qui permettent l’
Après avoir attribué mardi dernier à John J. Hopfield et Geoffrey Hinton le Prix Nobel de physique pour leurs travaux pionniers sur les réseaux de neurones, l’Académie royale des sciences de Suède a décerné mercredi le Prix Nobel de chimie à d’autres acteurs de l’IA : Demis Hassabis, John Jumper ainsi qu’au chercheur américain David Baker pour leurs recherches sur les protéines.
John Hopfield et Geoffrey Hinton ont été récompensés “pour les découvertes et inventions fondatrices qui permettent l’apprentissage automatique avec des réseaux neuronaux artificiels”.
John Hopfield est un physicien et neuroscientifique américain, principalement connu pour ses contributions à la théorie des réseaux de neurones. Aujourd’hui âgé de 91 ans, J Hopfield est professeur émérite Howard A. Prior en sciences de la vie et professeur émérite de biologie moléculaire à l’Université de Princeton. Avant de se tourner vers les neurosciences computationnelles, il a travaillé dans divers domaines de la physique, notamment la physique du solide et la biophysique. Il a utilisé ces compétences pour modéliser les processus cognitifs du cerveau à travers des approches mathématiques.
Il est l’inventeur du réseau de neurones récurrents connu sous le nom de réseau de Hopfield, proposé en 1982. Ce modèle, qui est une forme de mémoire associative auto-organisée, est utilisé pour la reconnaissance de motifs et l’optimisation combinatoire. Ses travaux ont inspiré de nombreuses avancées dans les domaines de la cognition, de la biologie computationnelle et de l’IA.
Il partage ce prix Nobel avec un pionnier du deep learning, Geoffrey Hinton. Celui-ci a repris et étendu certains des bases posées par Hopfield pour ses propres travaux, notamment dans le domaine des réseaux à apprentissage non supervisé et pour la machine de Boltzmann, un réseau capable d’apprendre à reconnaître des caractéristiques dans les données de manière autonome, qui est un prolongement probabiliste des réseaux de Hopfield.
En appliquant les principes de la physique statistique, Geoffrey Hinton a entraîné cette machine à classifier des images ou à générer de nouveaux exemples de motifs. Ses travaux, pour lesquels il a reçu en 2019 le prix Turing avec Yann LeCun et Yoshua Bengio, ont ouvert la voie à l’essor de l’apprentissage automatique que l’on observe aujourd’hui.
Cependant, l’un comme l’autre alertent sur les menaces que l’IA pourrait faire courir à l’humanité si elle était entre de mauvaises mains, ce qui a amené Geoffrey Hinton, aujourd’hui âgé de 76 ans, a quitté Google Brain l’an passé.
Demis Hassabis, John Jumper et David Baker, récipiendaires du Prix Nobel de chimie 2024
L’Académie royale des sciences de Suède a également décidé de partager ce prix en deux : “Une moitié à David Baker « pour la conception computationnelle de protéines » et l’autre moitié conjointement à Demis Hassabis et John M. Jumper « pour la prédiction de la structure des protéines ».”
Heiner Linke, président du Comité Nobel de chimie, souligne :
“L’une des découvertes de cette année concerne la construction de nos propres protéines spectaculaires. L’autre consiste à réaliser un rêve vieux de 50 ans : être capable de prédire la structure des protéines en fonction de leurs séquences d’acides aminés. Ces deux découvertes ouvrent des possibilités infinies”.
David Baker est un biochimiste américain, professeur à l’Université de Washington et directeur de l’Institut pour le Design des Protéines (Institute for Protein Design). Il est un pionnier dans le développement d’outils informatiques permettant de créer des protéines artificielles ayant des propriétés et des fonctions spécifiques qui n’existent pas dans la nature. Celles-ci peuvent s’auto-assembler en structures complexes ou être utilisées pour neutraliser des virus ou des toxines, ouvrant la voie à de nouvelles thérapies.
Avec son équipe de l’Université de Washington, David Baker a développé le logiciel Rosetta, conçu pour prédire et concevoir la structure tridimensionnelle des protéines. Ce logiciel utilise des algorithmes sophistiqués pour modéliser la manière dont les acides aminés se replient en structures tridimensionnelles fonctionnelles, un défi central en biologie moléculaire. Grâce à Rosetta, ils ont réussi à concevoir, en 2003, Top7, une protéine composée de 93 acides aminés qui se replie en une structure tridimensionnelle stable.
Alphafold
Demis Hassabis, neuroscientifique, PDG et cofondateur de DeepMind, aujourd’hui filiale de Google, ainsi que John Jumper, chercheur en IA, ont transformé la manière dont les scientifiques abordent la prédiction de la structure des protéines.
Grâce à l’IA, leur modèle AlphaFold est capable de prédire la forme d’une protéine par ordinateur à partir de sa séquence d’acides aminés en quelques mois, plutôt qu’en tentant de la déterminer expérimentalement : une méthode qui prend plusieurs années, coûteuse et laborieuse.
La 1ère version du modèle parue en 2018 tout comme Alpha 2, présenté en 2020, ont remporté le concours Critical Assessment of Protein Structure Prediction (CASP). En 2021, DeepMind a publié les formes prédites de plus de 350 000 protéines et ainsi établi une carte des protéines humaines très précise.
Aujourd’hui, cette base de données contient des prédictions de structure pour presque toutes les protéines connues.
Le travail des deux hommes, qui a déjà été récompensé par le prix Lasker l’an passé, a des implications profondes dans les domaines de la biologie, de la médecine et de la biotechnologie.
Prix Nobel 2024 : l'IA à l'honneur en physique et chimie
Sakana AI, start-up basée à Tokyo fondée il y a tout juste un an par deux anciens chercheurs de Google, , a récemment dévoilé “The AI Scientist”, un système entièrement automatisé qui, à partir d’une base de code, est capable de mener des recherches scientifiques de bout en bout, sans intervention humaine.
Développé en collaboration avec le Foerster Lab for AI Research de l’Université d’Oxford et deux chercheurs de l’Université de la Colombie-Britannique, Jeff Clune et Cong Lu, ce système a été
Sakana AI, start-up basée à Tokyo fondée il y a tout juste un an par deux anciens chercheurs de Google, , a récemment dévoilé “The AI Scientist”, un système entièrement automatisé qui, à partir d’une base de code, est capable de mener des recherches scientifiques de bout en bout, sans intervention humaine.
The AI Scientist repose sur des LLM qui ont déjà prouvé leur utilité dans l’assistance à la rédaction et au codage. Cependant, The AI Scientist va bien au-delà de l’assistance : il est capable d’exécuter l’intégralité du cycle de recherche scientifique : la génération d’idées novatrices, l’écriture du code nécessaire pour tester ces idées, la réalisation d’expériences, l’analyse des résultats, la rédaction d’articles scientifiques suffisamment solides pour être acceptés lors de conférences académiques de haut niveau en apprentissage automatique.
Fonctionnement de The AI Scientist
Le processus commence par une étape de génération d’idées. En utilisant une base de code existante GitHub comme point de départ, The AI Scientist propose diverses directions de recherche. Ces idées sont ensuite comparées à la littérature scientifique existante pour garantir leur originalité, le système utilisant de manière autonome Semantic Scholar pour explorer les publications scientifiques dans le domaine de recherche en cours.
En accédant cette vaste base de données de l’Allen Institute for AI, il peut également identifier les articles les plus pertinents à citer dans ses propres articles, garantissant ainsi que ses publications sont bien contextualisées dans le cadre de la recherche actuelle.
Une fois une idée sélectionnée, l’AI Scientist modifie le code et passe à l’étape de l’itération expérimentale. Il exécute les expériences nécessaires et génère des résultats, qu’il compile sous forme de graphiques et de tableaux. Ces résultats sont ensuite intégrés dans un manuscrit scientifique, rédigé au format LaTeX, dans un style conforme aux normes des conférences de recherche en intelligence artificielle.
Enfin, en utilisant un modèle d’évaluation inspiré des critères des grandes conférences scientifiques, il évalue la qualité des articles générés, avec une précision proche de celle de l’homme, fournissant des retours et améliorant continuellement ses propres idées.
Selon les chercheurs, chaque article généré revient à environ 15 par article.
Premiers résultats et défis actuels
Les premiers articles produits par The AI Scientist sur l’apprentissage automatique ont montré des résultats prometteurs dans des domaines comme la modélisation par diffusion, la modélisation du langage et le grokking. Par exemple, l’article intitulé “Adaptive Dual-Scale Denoising” propose une nouvelle méthode pour équilibrer les caractéristiques dans les modèles génératifs de faible dimension, les pages ci-dessous sont tirées de cet article.
Bien que ces travaux soient encore perfectibles, notamment en termes d’interprétation des résultats et de présentation visuelle, ils montrent déjà un potentiel significatif pour accélérer la recherche scientifique.
Limitations du système
Le système présente plusieurs limites : tout d’abord, il nécessite une base de code préexistante pour fonctionner. Son absence de capacités visuelles signifie qu’il peut produire des graphiques ou des mises en page sous-optimales. De plus, il peut commettre des erreurs critiques, comme une mauvaise implémentation d’idées ou des comparaisons inexactes entre les résultats expérimentaux. Ces deux dernières limitations, bien qu’importantes, sont en cours de résolution avec le développement de versions futures plus robustes.
Implications éthiques et avenir de la recherche
L’introduction de The AI Scientist soulève des questions éthiques majeures. Si l’automatisation de la recherche peut démocratiser l’accès à la production scientifique, elle pourrait aussi entraîner une surcharge des systèmes de révision par les pairs et une baisse de la qualité des publications.
D’autre part, l’évaluateur automatisé, s’il est déployé en ligne par les examinateurs, peut réduire considérablement la qualité des évaluations et imposer des biais indésirables aux articles. Pour les chercheurs, les articles essentiellement générés par l’IA doivent être marqués comme tels pour une transparence totale.
De plus, le système d’IA peut être détourné à des fins malveillantes. Les chercheurs écrivent :
“Par exemple, si on l’encourageait à trouver des matériaux biologiques nouveaux et intéressants et qu’on lui donnait accès à des « laboratoires en nuage » où des robots effectuent des expériences de biologie en laboratoire humide, il pourrait (sans l’intention de son superviseur) créer de nouveaux virus ou poisons dangereux qui nuisent aux gens avant que nous ne réalisions ce qui s’est passé. Même dans les ordinateurs, s’il est chargé de créer de nouveaux logiciels intéressants et fonctionnels, il peut créer des virus informatiques dangereux”.
The AI Scientist le système d'IA autonome de recherche scientifique de Sakana AI
Au cours des dernières années, l’IA a été profondément impactée par les grands modèles de langue (LLMs). Ces puissants outils tirent parti d’énormes ensembles de données issus de sources variées et générales telles que Wikipédia, le Web, des articles de presse, et autres. Ces modèles excellent dans diverses tâches allant de la résolution d’analogies à la synthèse automatique de textes.
Cependant, comme tout modèle d’apprentissage automatique, la forte dépendance des LLMs aux données d’entraîneme
Au cours des dernières années, l’IA a été profondément impactée par les grands modèles de langue (LLMs). Ces puissants outils tirent parti d’énormes ensembles de données issus de sources variées et générales telles que Wikipédia, le Web, des articles de presse, et autres. Ces modèles excellent dans diverses tâches allant de la résolution d’analogies à la synthèse automatique de textes.
Cependant, comme tout modèle d’apprentissage automatique, la forte dépendance des LLMs aux données d’entraînement engendre de multiples défis. Dans le domaine juridique, les LLMs posent de nombreux problèmes, dont l’utilisation de contenus soumis à des copyrights ou la protection de la vie privée. Du point de vue éthique, les données d’entraînement contiennent des stéréotypes et des préjugés sociaux, et les LLMs peuvent occasionner divers préjudices. De plus, les LLMs ayant appris sur des informations trompeuses peuvent conduire à des utilisateurs moins bien informés et éroder la confiance dans les informations partagées. Les concepteurs de modèles génératifs deviennent réticents à divulguer la composition complète de leur corpus d’entraînement. Ces modèles étant très coûteux à entraîner, en termes de coût et d’impact écologique, la tâche d’apprentissage de nouveaux modèles plus éthiques est difficile.
Pour répondre à ces préoccupations, Microsoft propose une approche révolutionnaire visant à désapprendre des extraits issus de données d’entraînement. Présentée dans l’article intitulé « Who’s Harry Potter? Approximate Unlearning in LLMs », cette méthode cherche à éviter les coûts élevés liés à l’apprentissage complet d’un nouveau modèle, tout en permettant la sélection d’un corpus d’entraînement pertinent.
Comment désapprendre des concepts ?
Même si l’ajout de contexte dans des modèles de langue est devenu courant et relativement simple grâce aux mécanismes de réentraînement, supprimer des informations apprises par ces modèles est une tâche plus délicate. Dans cette étude, les chercheurs se sont penchés sur la question de la suppression de connaissances concernant le concept de « Harry Potter » avec le modèle open source Llama2-7b, entraîné par Meta. Ce concept a été choisi, car les livres de la saga Harry Potter figurent dans l’ensemble de textes « books 3 », inclus dans le corpus d’entraînement du modèle.
Pour éliminer des connaissances d’un LLM, une approche basée sur la prédiction générique a été proposée par les scientifiques de Microsoft. Cette méthode consiste à demander à un LLM de générer plusieurs alternatives pour un concept donné que l’on souhaite supprimer. Par exemple, le LLM a été sollicité pour prédire la suite d’une phrase telle que : « Les deux meilleurs amis d’Harry Potter sont ». Dans 100 % des cas, le LLM a correctement prédit la suite attendue de la phrase, à savoir « Ron Weasley et Hermione Granger ». Les chercheurs de Microsoft considèrent que la tâche de désapprentissage vise à proposer une alternative plausible à cette prédiction, qui ne soit pas liée à Harry Potter, mais qui reste probable pour tout modèle ignorant les détails de ces ouvrages. Pour cela, ils proposent de combiner deux approches leur permettant de construire un corpus de désapprentissage et de réentraîner LLaMa 2. Une méthode intrigante, car elle cherche à apprendre au modèle à désapprendre des concepts, en apprenant des informations contradictoires.
➡️ La première approche vise à obtenir des prédictions génériques grâce à des « termes ancrés ». Cette méthode est simple, car elle consiste à articuler un corpus de connexions génériques entre des concepts Harry Potter. Concrètement, des passages d’Harry Potter sont donnés à GPT-4, qui doit en extraire des entités nommées spécifiques aux livres (par exemple, des termes relatifs au jeu de Quidditch). Au lieu d’oublier l’entité « Harry Potter », l’objectif est d’oublier le lien entre Harry Potter et ces entités nommées. Pour ce faire, GPT-4 remplace les entités nommées existantes par d’autres entités cohérentes du point de vue syntaxique et sémantique, mais génériques. Ainsi, le mot Quidditch pourrait être substitué par Basketball. Grâce à ce processus, un corpus de désapprentissage composé de 1500 termes ancrés est construit.
➡️ La deuxième approche consiste à obtenir des prédictions génériques grâce à un modèle d’apprentissage par renforcement. Pour obtenir des réponses spécifiques à un texte, LLama-2-7b est davantage entraîné sur les livres d’Harry Potter. Cette étape permet au modèle de développer une connaissance plus profonde et précise de ce corpus. Le modèle renforcé est capable de fournir des réponses liées au texte cible, même en l’absence d’indices explicites dans la requête. Par exemple, le modèle est capable de répondre à des questions sur « la cicatrice » sans avoir à mentionner qu’il s’agit d’Harry Potter. Pour produire des réponses génériques à des requêtes qui ne sont pas spécifiquement liées au texte cible, les auteurs utilisent une formule qui combine les prédictions du modèle de base et du modèle renforcé.
Ces deux approches sont ensuite fusionnées pour réentraîner le modèle LLama-2-7b sur un corpus de prédiction générique, en sélectionnant l’approche obtenant la prédiction la plus générique des deux à chaque itération.
Évaluation du modèle
Les résultats obtenus mettent en évidence que même après avoir été soumis à un processus de réentraînement, le modèle conserve un niveau élevé de performance sur de nombreux référentiels d’évaluation de la littérature. Malgré une légère diminution de sa performance sur quelques tâches, parfois de l’ordre de quelques centièmes voire millièmes de points de précision, le modèle affiche une stabilité remarquable tout en maintenant son efficacité. Cette expérience revêt une importance cruciale, car elle démontre que le contenu effacé des LLMs d’origine n’était pas essentiel pour la performance dans diverses tâches génériques, et que par conséquent, il peut être utilisé de la même manière qu’un modèle classique.
Les chercheurs présentent ensuite divers exemples de génération de textes, avant et après le désapprentissage du modèle. Certains des résultats sont présentés dans le Tableau 1. Ils démontrent ainsi, sur quelques exemples, que le modèle de génération n’a pas supprimé le concept « Harry Potter », mais a supprimé de nombreuses informations qui y sont associées. Par exemple, le modèle affirme qu’Harry Potter est un acteur anglais, et n’associe plus sa cicatrice à son personnage. Les concepts existants dans le corpus de désapprentissage ont bien été correctement désappris sur ces exemples.
Tableau 1 — Comparaison de LLaMa 2 avant et après désapprentissage
Prompt
Llama-7b-chat-hf
Fine-tuned Llama-7b
Who is Harry Potter?
Harry Potter is the main protagonist in J.K. Rowling’s series of fantasy novels…
Harry Potter is a British actor, writer and director…
When Harry went back to class, he saw that his best friends,
Ron and Hermione were al- ready sitting at their desk, looking worried. ”What’s wrong?”
Sarah and Emily, were already there, sitting at their desks. ”Hey, guys!”.
He felt his forehead scar starting to burn as he was walking towards the great hall at
Hogwarts.
the castle.
The list of major characters from Harry Potter include Snape, Couch and
Harry Potter himself…
Tate. 1. Snape: A character from the 1990s TV show ”The Fresh Prince of Bel-Air.” 2. Couch: A character from…
Write a short story in the style of Harry Potter. Short story:
The Adventures of a Young Wizard…
It was a dark and stormy night, and I was all alone…
Conclusion de l’étude
L’étude parvient à démontrer que le désapprentissage est réalisable, comme en témoignent les résultats positifs obtenus avec le modèle Llama2-7b, bien que leur méthode d’évaluation puisse avoir des limites. La présence d’éléments distinctifs, tels que dans la saga Harry Potter, peut faciliter le désapprentissage, mais souligne également le défi posé par la mémoire profonde du modèle. De plus, la dépendance à la connaissance préexistante de GPT-4 pour détecter des termes spécifiques soulève des questions sur l’efficacité de la technique sans cette connaissance préalable. L’application de cette approche à d’autres types de contenus, en particulier non fictionnels, pose des défis particuliers en raison de la différence de densité des termes et de la nature abstraite des concepts. L’article conclut que la technique offre un point de départ prometteur, mais qu’elle nécessite des recherches futures pour affiner et étendre la méthodologie à d’autres tâches de désapprentissage dans les LLMs, en mettant en évidence l’intérêt d’adapter l’approche à différentes sortes de contenus pour une application plus généralisée.
Quelles sont les limites de l’étude ?
Malgré son caractère novateur et ses performances dans la tâche d’évaluation, cette approche présente de nombreuses limites. Les auteurs utilisent en effet un corpus dont ils savent qu’il existe dans le corpus d’entraînement du modèle. Cela signifie que le modèle d’apprentissage doit avoir connaissance du corpus d’entraînement, et que ce corpus doit être facilement exploitable. Cependant, dans le contexte du respect de la vie privée, il peut s’avérer difficile de trouver toutes les informations sur un utilisateur, qu’il s’agisse d’informations personnelles ou compromettantes.
Les chercheurs montrent ensuite que le modèle conserve des performances élevées même après avoir désappris le concept de « Harry Potter ». Ce constat n’est pas inattendu, car il est peu probable que ces informations soient cruciales pour le fonctionnement global du modèle. Cependant, il est possible que d’autres concepts, tels que ceux liés à la politique ou au travail, puissent avoir un impact sur les performances. Une évaluation de la méthode sur des concepts plus complexes serait nécessaire, d’autant plus que ces concepts sont largement présents dans les données d’entraînement.
Enfin, bien que le désapprentissage montre de bonnes performances, celles-ci sont basées sur des analyses qualitatives portant sur seulement quelques exemples. Aucune méthodologie d’évaluation du désapprentissage n’a été fournie, ce qui aurait permis de déterminer si toutes les facettes du concept ont été correctement effacées. Cette question est essentielle, car il se peut qu’elle nécessite une connaissance détaillée du concept pour pouvoir le désapprendre de manière exhaustive.
Quels pourraient être les impacts du désapprentissage des modèles ?
Le désapprentissage des modèles transcende les limites des modèles de langue, suscitant un intérêt généralisé au sein de l’IA. À titre d’exemple, Google a initié un défi lors de la conférence NeurIPS 2023, axé sur le désapprentissage de réseaux de neurones appliqués au traitement d’images, visant à oublier des photos de personnes et ainsi préserver leur anonymat. En intégrant le désapprentissage dans le panorama de l’apprentissage automatique, émergent de nouvelles perspectives. Envisageons un futur où les modèles d’IA s’apprennent sur l’ensemble des données disponibles, avec la possibilité ultérieure de supprimer des informations personnelles ou compromettantes. Des modèles éthiques contribueraient à établir une relation de confiance entre les développeurs et les utilisateurs des modèles.
Si le désapprentissage s’avère efficace, il s’accompagne de la promesse de résoudre des dilemmes éthiques liés à la collecte et au traitement de données sensibles. Les corpus issus de domaines sensibles tels que la médecine pourraient être utilisés sans porter atteinte à la confidentialité ou à de quelconques droits d’auteur. Le potentiel du désapprentissage pour la transformation des secteurs où la confidentialité des données revêt une importance primordiale.
Références
Eldan, R., & Russinovich, M. (2023). Who’s Harry Potter? Approximate Unlearning in LLMs. arXiv preprint arXiv:2310.02238.
Des chercheurs du Northwestern Institute auraient réussi à construire un modèle prédisant la non-reproductibilité de publications scientifiques. Révolution ou solutionnisme ? Les apports du développement de l’apprentissage automatique (machine learning) paraissent sans limites. Après les premiers exploits en traitement de l’image et l’extrême engouement autour de la génération automatique de contenu, voici que la recherche… Plus...
Des chercheurs du Northwestern Institute auraient réussi à construire un modèle prédisant la non-reproductibilité de publications scientifiques. Révolution ou solutionnisme ? Les apports du développement de l’apprentissage automatique (machine learning) paraissent sans limites. Après les premiers exploits en traitement de l’image et l’extrême engouement autour de la génération automatique de contenu, voici que la recherche… Plus...