Cal, application de planification parmi les plus importantes de l'écosystème open source, abandonne sa licence ouverte. En cause : la capacité des IA à analyser du code à la recherche de failles. Un signal qui en dit long sur l'état du logiciel libre.
Cal, application de planification parmi les plus importantes de l'écosystème open source, abandonne sa licence ouverte. En cause : la capacité des IA à analyser du code à la recherche de failles. Un signal qui en dit long sur l'état du logiciel libre.
Tous les jours, les agents IA résolvent les mêmes problèmes en boucle, sans jamais partager ce qu'ils ont appris. Un ingénieur de Mozilla veut y remédier avec cq, un projet open source venu prendre le relais de Stack Overflow, la plateforme similaire délaissée par les humains.
Tous les jours, les agents IA résolvent les mêmes problèmes en boucle, sans jamais partager ce qu'ils ont appris. Un ingénieur de Mozilla veut y remédier avec cq, un projet open source venu prendre le relais de Stack Overflow, la plateforme similaire délaissée par les humains.
Disponible sur le Google Play Store, l'application « Nearby Glasses », développée par un amateur, attire l’attention. Elle permet à ses utilisateurs d’être avertis si des personnes à proximité portent des lunettes « intelligentes », comme les lunettes Ray-Ban de Meta.
Disponible sur le Google Play Store, l'application « Nearby Glasses », développée par un amateur, attire l’attention. Elle permet à ses utilisateurs d’être avertis si des personnes à proximité portent des lunettes « intelligentes », comme les lunettes Ray-Ban de Meta.
Développé par une équipe de chez ByteDance (mais si, TikTok, votre réseau social préféré), ce modèle baptisé PuLID va vous permettre de créer des images sur-mesure à partir de photos existantes et tout ça en un clin d’œil.
Basé sur le principe d’alignement contrastif, PuLID vous offre une customisation d’identité ultra rapide et de haute qualité. Pour cela, il utilise une architecture qui apprend à la volée les caractéristiques clés d’une identité source (des photos de vous) pour les transp
Développé par une équipe de chez ByteDance (mais si, TikTok, votre réseau social préféré), ce modèle baptisé PuLID va vous permettre de créer des images sur-mesure à partir de photos existantes et tout ça en un clin d’œil.
Basé sur le principe d’alignement contrastif, PuLID vous offre une customisation d’identité ultra rapide et de haute qualité. Pour cela, il utilise une architecture qui apprend à la volée les caractéristiques clés d’une identité source (des photos de vous) pour les transposer efficacement sur de nouvelles images cibles (images générées par IA). On obtient alors des visuels uniques générés en quelques secondes à peine, tout en préservant la cohérence des photos d’origine.
Bon, ok, ça peut paraître un peu barbare dit comme ça mais c’est super simple à utiliser. Si vous êtes flemmard, vous pouvez aller directement sur Huggingface ou pour les plus courageux, l’installer sur votre machine. Tout ce dont vous avez besoin, c’est d’un bon vieux Pytorch (version 2.0 minimum svp) et de quelques lignes de code pour démarrer l’entraînement.
PuLID (Pure and Lightning ID Customization via Contrastive Alignment) fonctionne en utilisant des techniques de machine learning pour aligner des représentations latentes en comparant des paires d’images ou d’identités. L’objectif est de maximiser la similarité pour des identités similaires et de minimiser la similarité pour des identités différentes. En ajustant ces représentations grâce à l’alignement contrastif, PuLID permet de créer des images uniques avec une grande précision et rapidité.
Si vous bossez dans la comm et que ous avez déjà quelques concepts arts sympas d’un personnage, mais vous aimeriez voir à quoi il ressemblerait dans différents environnements ou avec des styles graphiques variés, pas de souci ! Vous balancez vos images dans PuLID avec les bonnes instructions et le tour est joué. Vous obtiendrez alors tout un tas de variations stylées de votre personnage, tout en gardant son visage reconnaissable.
L’équipe de ByteDance a pensé à tout : PuLID est 100% open-source et disponible sur GitHub. Vous pouvez donc bidouiller le code comme bon vous semble pour l’adapter à vos besoins. Y’a même des tutoriels et des exemples pour vous aider à prendre en main le bouzin rapidement.
Et pour les plus impatients d’entre vous, voici un petit tuto d’installation pour commencer à jouer avec PuLID :
Installer PyTorch : Suivez les instructions sur le site de PyTorch pour installer la version compatible avec votre système. Par exemple, pour CUDA 11.7 :
Pour en savoir plus sur PuLID et récupérer le code source, rendez-vous sur le repo GitHub.
Allez, je vous laisse vous amuser avec votre nouveau jouet. Un grand merci à Lorenper pour l’info. Grâce à toi, on va pouvoir personnaliser nos avatars comme jamais.
Vous connaissez OpenELM ? Non, normal, ça vient de sortir. Et c’est une famille de modèles IA open-source made in Apple conçus pour tourner directement sur vos appareils, sans passer par le cloud. En gros, c’est de l’IA maison dans nos iPhone, iPad et Mac…etc.
OpenELM combine plusieurs modèles de langage naturel (LLMs) utilisant des algorithmes évolutionnistes qui exploitent les principes techniques suivants :
Layer-wise scaling strategy : Cette stratégie consiste à allouer les paramètr
Vous connaissez OpenELM ? Non, normal, ça vient de sortir. Et c’est une famille de modèles IA open-source made in Apple conçus pour tourner directement sur vos appareils, sans passer par le cloud. En gros, c’est de l’IA maison dans nos iPhone, iPad et Mac…etc.
OpenELM combine plusieurs modèles de langage naturel (LLMs) utilisant des algorithmes évolutionnistes qui exploitent les principes techniques suivants :
Layer-wise scaling strategy : Cette stratégie consiste à allouer les paramètres dans les couches d’un modèle transformeur pour améliorer l’exactitude. Les modèles sont pré-alourés avec un budget de paramètres de 270 millions, 450 millions, 1,1 milliard et 3 milliards.
Pré-entraînement : Les modèles ont été pré-entraînés à l’aide d’une combinaison de datasets, incluant une sous-ensemble de Dolma v1.6, RefinedWeb, deduplicated PILE et une sous-ensemble de RedPajama. Ce dataset contient environ 1,8 trillion de tokens.
Evolutionary algorithms : Les algorithmes évolutionnistes sont utilisés pour combiner les modèles LLM et améliorer l’exactitude. Cela permet d’exploiter les forces combinées des modèles pré-alourés et d’améliorer leur précision.
Alors évidemment, Apple arrive un peu après la bataille dans l’IA, pendant que Microsoft et Google déboulent à fond la caisse. Mais bon, mieux vaut tard que jamais, et puis ils compensent avec du lourd, soit 8 modèles OpenELM au total, dont 4 pré-entraînés avec CoreNet et 4 fine-tunés. Et avec leur stratégie de scaling par couche ça optimise à fond l’allocation des paramètres.
Allez, je traduits… En gros, ça veut dire qu’ils sont hyper efficaces et précis. Prenez le modèle à 1 milliard de paramètres et bien bah il explose un modèle équivalent comme OLMo de 2,36% en précision, avec 2 fois moins de tokens en pré-entraînement. Et ce qui est top, c’est qu’Apple balance tout : code, logs d’entraînement, configuration…etc et pas juste le modèle final. Et vu qu’ils utilisent des datasets publics, c’est top en matière de transparence et vérification des biais.
En tout cas, une chose est sûre, avec OpenELM, Apple nous prouve qu’ils sont dans la course, et qu’ils comptent bien mettre le paquet sur l’IA
Et Merci à Letsar pour l’info, c’est lui qui m’a mis la puce à l’oreille sur OpenELM. Tu gères !
PyTorch, le framework chouchou des bidouilleurs d’IA, vient de nous pondre un petit truc cool : Torchtune ! 💎 Cette nouvelle bibliothèque native, encore en phase alpha mais déjà disponible en open-source sur GitHub, va vous permettre de fine-tuner les gros modèles de langage (LLM) comme un pro, sans vous prendre la tête.
Torchtune est donc une boîte à outils hyper flexible et modulaire qui va vous permettre de vous éclater à customiser des modèles pour vos propres besoins, le tout avec des
PyTorch, le framework chouchou des bidouilleurs d’IA, vient de nous pondre un petit truc cool : Torchtune ! 💎 Cette nouvelle bibliothèque native, encore en phase alpha mais déjà disponible en open-source sur GitHub, va vous permettre de fine-tuner les gros modèles de langage (LLM) comme un pro, sans vous prendre la tête.
Torchtune est donc une boîte à outils hyper flexible et modulaire qui va vous permettre de vous éclater à customiser des modèles pour vos propres besoins, le tout avec des recettes mémoire efficaces qui tournent même sur une bête carte graphique de gamer, comme les NVidia 3090/4090.
Son secret ?
Une architecture bien pensée qui mise sur l’interopérabilité avec l’écosystème des LLM, qu’ils soient open-source ou non. Concrètement, ça veut dire que vous allez pouvoir brancher Torchtune à tout un tas d’outils et de frameworks que vous adorez déjà, comme Hugging Face 🤗, PyTorch FSDP 🪢, Weights & Biases 📈, et plein d’autres.
Grâce à des recettes simples et bien documentées pour les modèles populaires comme Llama 3, Mistral ou Gemma 7B, même les débutants vont pouvoir se lancer dans l’aventure sans flipper. Bon OK, il faudra quand même un peu de bagage en PyTorch et en LLM, mais rien d’insurmontable ! Et si vous êtes un pro, vous allez pouvoir hacker le code à volonté pour l’adapter à vos besoins spécifiques.
Rien de plus simple, mon cher Watson ! Il vous suffit d’installer la dernière version stable de PyTorch (2.2.2 au moment où j’écris ces lignes), puis de télécharger Torchtune depuis PyPI avec un petit
pip install torchtune
Et voilà, vous êtes prêt à en découdre avec les LLM !
Pour vous faire les dents, je vous conseille de jeter un œil au tutoriel sur le fine-tuning de Llama2 7B. C’est le parfait point de départ pour comprendre comment Torchtune fonctionne et comment l’utiliser pour vos propres projets.
En gros, ça se passe en 4 étapes :
Téléchargez le modèle pré-entraîné et le tokenizer depuis Hugging Face Hub avec tune download.
Choisissez une recette de fine-tuning (LoRA, QLoRA, full…) et customisez-la avec un fichier de config en YAML.
Lancez l’entraînement avec tune run en précisant votre recette et votre config. Vous pouvez même faire du multi-GPU avec torchrun !
Admirez le résultat et testez votre modèle fine-tuné avec une inférence locale. Si tout se passe bien, exportez-le avec ExecuTorch pour le déployer en prod, ou utilisez les API de quantification de Torchao pour l’exporter en int4 ou int8 et l’utiliser sur mobile ou en edge.
Facile, non ? 😄
Bon OK, j’avoue, j’ai un peu simplifié. En vrai, il y a pas mal de subtilités et de paramètres à régler pour obtenir les meilleurs résultats, comme le learning rate, le nombre d’époques, la taille du batch, le ratio de LoRA, et tout un tas d’autres trucs, mais c’est justement sa flexibilité qui vous permet d’expérimenter à l’infini pour trouver la combinaison parfaite.
Bref, si vous êtes dev et que vous aimez jouer avec les LLM c’est à tester.
Ça y est les amis, c’est la grande nouvelle de la semaine dans le monde de l’IA ! Elon Musk, le grand patron de xAI, a balancé sur Twitter que son chatbot Grok va passer en open-source dans les prochains jours. Et ça, c’est pas rien, surtout quand on sait que ce petit bijou est capable, selon ses dires, de rivaliser avec ChatGPT !
Faut dire que depuis sa sortie l’an dernier, Grok a pas chômé. Il a été boosté avec des fonctionnalités de fou, comme l’accès à des infos en temps réel et la pos
Ça y est les amis, c’est la grande nouvelle de la semaine dans le monde de l’IA ! Elon Musk, le grand patron de xAI, a balancé sur Twitter que son chatbot Grok va passer en open-source dans les prochains jours. Et ça, c’est pas rien, surtout quand on sait que ce petit bijou est capable, selon ses dires, de rivaliser avec ChatGPT !
Faut dire que depuis sa sortie l’an dernier, Grok a pas chômé. Il a été boosté avec des fonctionnalités de fou, comme l’accès à des infos en temps réel et la possibilité de s’exprimer sans filtre, même si ça plait pas à tout le monde. 😅 Pour l’instant, seuls les abonnés premium de X (anciennement Twitter) peuvent en profiter pour la modique somme de 16 dollars par mois. Mais ça, ça risque bien de changer !
Parce que voilà, Elon est pas content. Il y a quelques jours, il a carrément attaqué OpenAI en justice, l’accusant d’avoir trahi ses principes d’ouverture et de transparence. Faut savoir qu’à la base, Musk avait co-fondé OpenAI avec Sam Altman il y a presque 10 ans, justement pour contrer la domination de Google dans l’IA. Mais depuis, OpenAI est passé en mode closed-source et s’est rapproché de Microsoft, son nouveau meilleur pote. Forcément, ça passe mal auprès d’Elon qui n’hésite pas à balancer : « OpenAI est devenu une filiale de facto de Microsoft, la plus grande entreprise technologique au monde ». Aïe, ça pique ! 😬
Résultat, ça a foutu un sacré bordel dans le milieu. Des pointures comme Vinod Khosla (un des premiers investisseurs d’OpenAI) et Marc Andreessen (co-fondateur d’Andreessen Horowitz) s’en sont mêlés, alimentant le débat sur les avantages et les risques de l’open-source dans l’IA. Pendant ce temps-là, Elon persiste et signe : « OpenAI est un mensonge », a-t-il tweeté lundi. Ambiance ! 🔥
Mais revenons-en à nos moutons. Si Grok passe effectivement en open-source comme promis, ça va faire du bruit. xAI rejoindrait ainsi le club select des boîtes comme Meta et Mistral qui ont déjà publié le code de leurs modèles. Et c’est pas la première fois qu’Elon joue la carte de la transparence : Tesla a déjà open-sourcé plein de brevets, et même X (ex-Twitter) a rendu publics certains de ses algorithmes l’an dernier.
Alors, qu’est-ce que ça va donner concrètement ? 🤔
On peut imaginer que des développeurs du monde entier vont pouvoir mettre les mains dans le cambouis de Grok, l’améliorer, le customiser à leur sauce. Ça pourrait donner lieu à des utilisations vraiment cool, comme par exemple intégrer Grok à des apps ou des sites web pour proposer une assistance ultra-performante aux utilisateurs. Ou encore s’en servir comme base pour créer des chatbots spécialisés dans des domaines pointus, type médecine, droit, finance… Les possibilités sont quasi infinies !
Après, faudra quand même rester vigilant. Parce que l’open-source, c’est chouette, mais ça peut aussi ouvrir la porte à des dérives si c’est mal encadré. Genre des mecs mal intentionnés qui se serviraient du code de Grok pour créer des chatbots malveillants, des spambots, ou pire encore. 😱 Espérons qu’Elon et son équipe ont prévu des garde-fous solides pour éviter ça (j’en doute…).
En attendant, on a hâte de voir ce que ça va donner ! Et vous, vous en pensez quoi ? Vous croyez que l’open-source peut vraiment révolutionner le monde de l’IA, ou bien c’est juste un énième coup de com’ de notre cher Elon ?
Allez, je vous laisse cogiter là-dessus, et rdv très vite pour la suite des aventures ! 😉
En France, on a un gros souci niveau santé. Dès qu’on doit voir un spécialiste, que ce soit un ophtalmo, un kiné, un dermato, passer une radio ou que sais-je, il y en a pour des mois et des mois d’attente, parfois une année. Si bien qu’au moment de passer l’examen, on est soit déjà guéri, soit en phase terminale.
Bref, c’est désespérant et ce n’est pas prêt de s’arranger.
Alors que peut-être qu’à terme, l’IA pourra nous aider un peu à soulager notre peine, notamment grâce à ce projet nom
En France, on a un gros souci niveau santé. Dès qu’on doit voir un spécialiste, que ce soit un ophtalmo, un kiné, un dermato, passer une radio ou que sais-je, il y en a pour des mois et des mois d’attente, parfois une année. Si bien qu’au moment de passer l’examen, on est soit déjà guéri, soit en phase terminale.
Bref, c’est désespérant et ce n’est pas prêt de s’arranger.
Alors que peut-être qu’à terme, l’IA pourra nous aider un peu à soulager notre peine, notamment grâce à ce projet nommé Doctor Dignity qui est un LLM (un modèle de langage de grande capacité), open-source et surtout capable de réussir l’examen de licence médicale américain.
Incroyable, non ?
Ce logiciel utilise Llama2 de Meta, fine-tuné avec du lexique médical, et peut être utilisé sur iOS, Android ou en version Web. L’avantage, c’est que ce docteur de poche est gratuit, accessible instantanément et capable de garder le secret médical. Par contre, je ne sais pas où en sera le projet au moment de la publication de cet article, mais on est encore loin d’un truc facilement utilisable par le commun des mortels.
Et évidemment, on est encore loin d’un truc auquel vraiment confier sa santé ou sa vie (quoique quand on se fait soigner par certains internes aux urgences, c’est pas pire), mais vu que Doctor Dignity est capable de passer l’examen de licence médicale américain, on se dit qu’il connait quand même un peu son sujet. Et surtout, il peut apprendre grâce aux retours que lui font les humains en évaluant ses réponses.
Voilà, ce n’est que le début du « médecin virtuel« , peut-être de quoi diagnostiquer 90% des petits bobos habituels, pour ainsi soulager les vrais toubibs. Ou les remplacer s’ils sont moins bons que l’IA ^^. Allez savoir…
En tout cas, le fait d’avoir ce genre d’application accessible à tout moment pour n’importe quelle question médicale viendra soulager les plus hypocondriaques d’entre nous.