Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal
  • ✇ActuIA
  • Les chercheurs de Hugging Face invitent la communauté open source à contribuer au projet Open-R1
    Dix jours après son lancement, DeepSeek R1, qui a suscité l’émoi de la Silicon Valley et perturbé le marché de Wall Street, continue d’alimenter la une des médias internationaux. L’entreprise éponyme qui dit l’avoir mis open source pour soutenir la communauté IA n’a cependant pas révélé tous les éléments qui lui ont permis de développer ce modèle, notamment les ensembles de données et le code d’entraînement. Hugging Face, loin des polémiques, lance le projet Open-R1 et propose à la communauté de

Les chercheurs de Hugging Face invitent la communauté open source à contribuer au projet Open-R1

30 janvier 2025 à 14:00

Dix jours après son lancement, DeepSeek R1, qui a suscité l’émoi de la Silicon Valley et perturbé le marché de Wall Street, continue d’alimenter la une des médias internationaux. L’entreprise éponyme qui dit l’avoir mis open source pour soutenir la communauté IA n’a cependant pas révélé tous les éléments qui lui ont permis de développer ce modèle, notamment les ensembles de données et le code d’entraînement. Hugging Face, loin des polémiques, lance le projet Open-R1 et propose à la communauté de l’aider à construire les pièces manquantes du pipeline R1.

Mené par Leandro von Werra, directeur de la recherche chez Hugging Face, Elie Bakouch et Lewis Tunstall, le projet Open-R1 se veut un exemple de transparence et de partage des connaissances, permettant à chacun de contribuer et d’améliorer le modèle pour des applications variées, allant de la médecine à l’éducation, en passant par la recherche fondamentale.

Ils expliquent le but de leur démarche dans un blog :

“Le projet Open-R1 est une initiative visant à reconstruire systématiquement le pipeline de données et de formation de DeepSeek-R1, à valider ses affirmations et à repousser les limites des modèles de raisonnement ouvert. En créant Open-R1, nous visons à fournir de la transparence sur la façon dont l’apprentissage par renforcement peut améliorer le raisonnement, partager des informations reproductibles avec la communauté open source et créer une base pour de futurs modèles permettant d’exploiter ces techniques.”

Un plan en trois étapes

Pour les trois hommes, “la sortie de DeepSeek-R1 est une aubaine incroyable pour la communauté”.

DeepSeek-R1 est un modèle de raisonnement construit sur la base de DeepSeek-V3, présenté par la start-up chinoise fin décembre dernier, dont les performances sont comparables, à celles de principaux modèles à source fermée, comme GPT-4o ou Claude 3.5 Sonnet, et ce, malgré un coût d’entraînement nettement inférieur.

Le modèle compte 2 versions : DeepSeek-R1-Zero, entraîné par apprentissage par renforcement (RL) sans réglage fin supervisé (SFT), a montré de solides performances. Cependant, il présente des défis tels que la répétition sans fin et la mauvaise lisibilité. Pour résoudre ces problèmes, DeepSeek-R1 intègre des données de démarrage à froid avant l’application du RL et de plusieurs étapes de raffinement qui rejettent les résultats de mauvaise qualité et produisent des réponses polies et cohérentes.

DeepSeek a mis ces 2 versions et six modèles denses distillés à partir de DeepSeek-R1 basés sur Llama et Qwen à la disposition de la communauté.

Les chercheurs de Hugging Face proposent à ceux qui voudront contribuer au projet de les aider à :

  • Étape 1 : Répliquer les modèles R1-Distill en distillant un ensemble de données de raisonnement de haute qualité à partir de DeepSeek-R1.
  • Étape 2 : Répliquer le pipeline RL pur que DeepSeek a utilisé pour créer R1-Zero. Cela impliquera la conservation de nouveaux ensembles de données à grande échelle pour les mathématiques, le raisonnement et le code.
  • Étape 3 : Montrer qu’il est possible de passer du modèle de base → SFT (Supervised Fine-Tuning)→ RL via une formation en plusieurs étapes.

Les chercheurs d’Hugging Face concluent :

“Cette initiative ne consiste pas seulement à reproduire les résultats, mais aussi à partager des idées avec la communauté. En documentant ce qui fonctionne, ce qui ne fonctionne pas et pourquoi, nous espérons éviter à d’autres de perdre du temps et de calculer sur des chemins improductifs.”

Le projet, hébergé sur GitHub, compte plus de 12 000 étoiles, ce qui démontre l’intérêt qu’il suscite.

Les chercheurs de Hugging Face invitent la communauté open source à contribuer au projet Open-R1
  • ✇ActuIA
  • Repenser l’IA pour l’intérêt général : les recommandations du CESE
    En amont du Sommet mondial de l’IA de Paris, le Conseil économique, social et environnemental (CESE) a adopté hier à 99 voix pour, 22 abstentions et 10 voix contre, l’avis “Pour une IA au service de l’intérêt général”. Ce document propose un cadre d’acceptabilité inédit pour le déploiement de l’IA dans la société française. Élaboré par une commission temporaire composée de conseillers issus de la société civile organisée et de 10 citoyens tirés au sort, cet avis offre une contribution sur l’impa

Repenser l’IA pour l’intérêt général : les recommandations du CESE

15 janvier 2025 à 11:12

En amont du Sommet mondial de l’IA de Paris, le Conseil économique, social et environnemental (CESE) a adopté hier à 99 voix pour, 22 abstentions et 10 voix contre, l’avis “Pour une IA au service de l’intérêt général”. Ce document propose un cadre d’acceptabilité inédit pour le déploiement de l’IA dans la société française. Élaboré par une commission temporaire composée de conseillers issus de la société civile organisée et de 10 citoyens tirés au sort, cet avis offre une contribution sur l’impact de l’IA dans des domaines clés tels que le travail, la santé, l’éducation et les services publics.

Troisième assemblée constitutionnelle de la République française, le CESE assure le lien entre les pouvoirs publics et les citoyens. Ses 175 membres, répartis en divers groupes de travail, sont désignés pour 5 ans par des syndicats, des organisations patronales, des associations ou des ONG. Il peut également associer à ses travaux des citoyens tirés au sort et organiser des conventions citoyennes ou des consultations en ligne.

Les travaux adoptés par le Bureau sont ensuite publiés au Journal Officiel et transmises au Gouvernement et au Parlement afin de les éclairer dans l’élaboration des politiques publiques.

Quatre critères pour une IA à l’écoute de la société

Le CESE souligne l’importance de garantir que l’IA soit déployée de manière responsable, éthique et durable. Pour garantir que l’IA serve réellement l’intérêt général, il identifie quatre critères fondamentaux :

  • Compatibilité avec les limites planétaires : Intégrer l’impact environnemental dans la conception et l’usage des technologies d’IA ;
  • Progrès social : Promouvoir une IA qui améliore les conditions de vie et réduit les inégalités ;
  • Enjeux économiques : Soutenir la création de valeur tout en évitant les effets pervers tels que la précarisation de l’emploi ;
  • Respect des droits fondamentaux : Garantir libertés individuelles, transparence et équité.

Des recommandations concrètes et inclusives

Le CESE propose 32 préconisations clés, parmi lesquelles :

  • Prioriser l’utilité sociétale

L’IA doit être d’abord envisagée comme un outil au service de besoins essentiels (santé, éducation, accessibilité). Son impact sur les conditions de travail, qu’il ait des effets positifs (automatisation de tâches répétitives, optimisation de l’efficacité…) ou négatifs (sentiment de perte de compétence, surveillance excessive…), doit être mesuré et régulièrement discuté.

Le CESE préconise donc d’inclure l’IA dans le dialogue social et recommande la mise en place d’un accord national interprofessionnel (ANI) sur les modalités de déploiement de l’IA dans les entreprises. Cet accord, négocié par tous les partenaires sociaux, doit assurer un déploiement maîtrisé de l’IA, au service des travailleurs et en adéquation avec les besoins identifiés.

  • Former et inclure

32% de la population française, soit 16 millions de personnes, se considère éloignée du numérique. Le CESE prône un plan national de formation au numérique et à l’IA, adapté à tous les âges. Les usages et les risques potentiels de l’IA devront par ailleurs être intégrés au plan national de formation du personnel éducatif, des médiateurs numériques, des travailleurs sociaux et des agents publics.

  • Renforcer le choix citoyen

Pour que les citoyens puissent faire des choix éclairés quant au déploiement de l’IA, il est  crucial de les sensibiliser à ses impacts environnementaux, tels que la consommation d’énergie, d’eau et de ressources pour les infrastructures d’IA, et de les former à un usage plus frugal de l’IA. Le CESE souligne la nécessité de prendre en compte les conflits potentiels liés à l’implantation de nouveaux centres de données, appelant à une communication transparente sur les conséquences associées et à une réelle considération des retours citoyens.

L’IA ne doit pas être imposée : les services publics doivent préserver une option humaine, pour garantir l’universalité de l’accès au service public et la liberté de choix de tous.

  • Assurer la transparence et l’explicabilité de l’IA

Selon le CESE, les biais intrinsèques des IA, liés aux jeux de données et aux choix des concepteurs, confèrent à ces technologies une dimension politique. Il appelle à garantir la transparence et l’explicabilité des décisions et des résultats produits par les IA. Il préconise également de renforcer les exigences de la réglementation européenne en matière de transparence des algorithmes et des données d’entraînement, de diversifier ces dernières pour limiter les biais, et de clarifier les règles de protection des données personnelles en conformité avec le RGPD.

Palais_d'Iéna,_hémicycle_(3)
  • ✇ActuIA
  • Pleias : des modèles de langages ouverts pour une IA éthique et transparente
    Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière de transparence, d’éthique et de conformité. Ces modèles compacts, qui s’appuient exclusivement sur des données ouvertes, démontrent que performance technologique, respect du droit d’auteur et open source peuvent aller de pair. Pleias est une start-up parisienne créée en décembre 2023 par Pierre-Carl Langlais, Ivan Yamschikov et Anastasi

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

6 décembre 2024 à 11:00
  1. Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière de transparence, d’éthique et de conformité. Ces modèles compacts, qui s’appuient exclusivement sur des données ouvertes, démontrent que performance technologique, respect du droit d’auteur et open source peuvent aller de pair.

    Pleias est une start-up parisienne créée en décembre 2023 par Pierre-Carl Langlais, Ivan Yamschikov et Anastasia Stasenko. Ses modèles sont élaborés à partir du Common Corpus, un ensemble de données multilingues unique par son ampleur et son ouverture. Ce corpus, qu’elle a publié le 13 novembre dernier, disponible sur HuggingFace, a été soutenu par la start-up d’état Langu:IA, un projet du ministère de la Culture et la DINUM, dans le cadre de la préfiguration de l’offre de services de l’Alliance pour les technologies du langage EDIC (ALT-EDIC).

Son développement a réuni un consortium exceptionnel de partenaires, dont le cluster de supercalculateurs Jean-Zay (Genci, Idris, Eviden), NVIDIA, TractoAI, Wikimedia Entreprise. Il a également bénéficié du soutien de grandes organisations open-source, dont la Mozilla Foundation, l’AI Alliance et Eleuther AI, renforçant son engagement envers la science ouverte et l’innovation collaborative.

Comptant plus de 2 000 milliards de tokens, le Common Corpus est le plus grand ensemble de données d’entraînement pour les LLMs exclusivement composé de textes appartenant au domaine public.

Il se distingue par plusieurs caractéristiques fondamentales :

  • Véritablement ouvert : toutes les données incluses sont sous licences permissives, garantissant une utilisation en conformité avec les droits d’auteur ;
  • Multilingue et diversifié : plus de 30 langues sont représentées, notamment l’anglais (808 milliards de tokens) et le français (266 milliards), ainsi que des langues comme l’espagnol, l’italien et le néerlandais. Les sources incluent des articles académiques, des textes juridiques, du contenu culturel et du code open source ;
  • Qualité optimisée : les contenus ont été rigoureusement filtrés pour éliminer les données nuisibles ou de faible valeur informative.

Une suite adaptée aux besoins européens

Pleias présente trois modèles qui sont, de par leurs données d’entraînement, entièrement conformes au RGPD et à l’AI Act européen :

  • Pleias 1.0 : avec 3 milliards de paramètres, il est spécialisé dans les domaines de la gestion des connaissances et des applications administratives ou juridiques ;
  • Pleias-Nano (1 milliard) et Pleias-Pico (350 millions) : conçus pour des usages plus légers comme la génération augmentée par la récupération (RAG) et l’harmonisation des données.

Ils fonctionnent efficacement sur du matériel grand public, leur petite taille les rendant particulièrement adaptés aux environnements où les ressources informatiques sont limitées ou pour des applications nécessitant une faible latence.

Anastasia Stasenko, PDG de Pleias, conclut :

“Notre approche démontre qu’il est possible de créer des modèles de langage puissants tout en respectant pleinement la loi sur le droit d’auteur, les exigences du RGPD et les principes éthiques de l’IA”.

Pleias : des modèles de langages ouverts pour une IA éthique et transparente
  • ✇ActuIA
  • Etude Capterra : comment l’IA peut optimiser les processus de recrutement
    L’IA continue de transformer le paysage du recrutement, offrant de nouvelles perspectives pour les recruteurs et les chercheurs d’emploi. Une étude récente de Capterra met en lumière la perception des candidats français à l’égard de l’IA dans le cadre de leur recherche d’emploi et révèle des pistes d’optimisation pour les recruteurs, soulignant la nécessité d’une approche humaine et transparente dans le processus. Pour son étude “Job Seeker AI 2024”, Capterra a interrogé en juillet dernier près

Etude Capterra : comment l’IA peut optimiser les processus de recrutement

30 septembre 2024 à 14:00

L’IA continue de transformer le paysage du recrutement, offrant de nouvelles perspectives pour les recruteurs et les chercheurs d’emploi. Une étude récente de Capterra met en lumière la perception des candidats français à l’égard de l’IA dans le cadre de leur recherche d’emploi et révèle des pistes d’optimisation pour les recruteurs, soulignant la nécessité d’une approche humaine et transparente dans le processus.

Pour son étude “Job Seeker AI 2024”, Capterra a interrogé en juillet dernier près de 3 000 chercheurs d’emploi dans le monde, dont 247 en France. La première partie a révélé que 57 % des demandeurs d’emploi français ont utilisé au moins une fois l’IA pour postuler à une offre, la seconde que le même pourcentage des postulants français est favorable à l’usage de l’IA dans les processus d’embauche.

Pour eux, l’IA rend le processus de recrutement plus équitable et plus efficace : 58 % des candidats estiment que l’IA est moins partiale, réduisant les biais humains.

Pour autant, l’automatisation complète des processus de recrutement ne fait pas l’unanimité : 38 % des répondants affirment qu’un processus trop automatisé, sans intervention humaine, serait un frein à leur candidature, ce qui souligne l’importance de trouver un équilibre entre technologie et interaction humaine.

Un autre chiffre clé de l’étude est le nombre de chercheurs d’emploi (30 %) ayant refusé une offre jugée inadéquate, principalement en raison d’un manque de clarté dans la description des missions, 28 % l’ayant décliné en raison d’une rémunération inférieure à leurs attentes.

Les recommandations de Capterra aux recruteurs pour optimiser l’usage de l’IA

L’une des principales forces de l’IA réside dans sa capacité à traiter rapidement de grandes quantités d’informations. Les recruteurs peuvent ainsi se concentrer sur les entretiens de qualité et affiner leurs critères en temps réel. En misant sur une approche combinant automatisation et intervention humaine, les recruteurs ont la possibilité d’améliorer l’efficacité de leurs processus et d’offrir une expérience de candidature plus fluide et engageante.

Pour tirer pleinement parti de l’IA tout en répondant aux attentes des candidats, Capterra identifie trois axes clés pour les recruteurs :

  • Réduction des biais de l’IA : bien que l’IA puisse limiter certains biais humains, les algorithmes basés sur les données historiques peuvent amplifier des discriminations involontaires. Il est donc important de préserver l’intégrité et la cohérence des données produites par l’IA ;
  • Transparence accrue : 53 % des candidats estiment que les entreprises ne sont pas assez transparentes sur l’utilisation de l’IA dans le recrutement. En communiquant davantage sur son usage, les recruteurs pourraient renforcer la confiance des postulants, 51 % d’entre eux se disant plus enclins à postuler en cas de transparence ;
  • Combinaison IA et interaction humaine : 51 % des candidats souhaitent garder un contact humain tout au long du processus de recrutement. Une approche combinée permettrait de répondre à ce besoin, tout en profitant de l’efficacité de l’IA pour des tâches telles que la présélection ou la gestion des tests de compétences, pourrait permettre une expérience positive. Soixante-deux pour cent des répondants estiment par exemple être à l’aise avec l’IA dans la gestion des tests de compétences, et 61 % avec ses capacités à garantir l’égalité des chances.

L’IA, un levier stratégique pour le recrutement

L’étude de Capterra montre que, dans un contexte où 30 % des chercheurs d’emploi refusent des offres en raison d’un décalage entre leurs attentes et celles des recruteurs, l’IA peut jouer un rôle clé pour améliorer l’adéquation entre les deux parties. En aidant à rationaliser les étapes de présélection et en garantissant plus d’équité, cette technologie permet aux recruteurs de se concentrer sur des interactions de qualité avec les candidats les plus qualifiés.

Pour Emilie Audubert, analyste de contenu chez Capterra :

“L’intégration de l’IA dans les processus de recrutement ne signifie pas qu’il faille négliger l’élément humain. D’une part, il est essentiel de reconnaître que l’IA n’est pas infaillible et demande une certaine supervision. D’autre part, cette technologie se présente comme un outil complémentaire qui, utilisé à bon escient, peut compléter les capacités humaines et contribuer à une amélioration de l’expérience proposée aux candidats. En facilitant le traitement de tâches répétitives et de volumes importants d’informations, cette solution est un atout réel permettant aux recruteurs de se concentrer sur des missions à forte valeur ajoutée”.

Vous pouvez retrouver l’étude complète sur le blog de Capterra

Etude Capterra : comment l'IA peut optimiser les processus de recrutement
  • ✇ActuIA
  • Etiquetage du contenu généré par l’IA : les marketeurs s’attendent à un impact positif de l’initiative de Meta
    La première partie de l’étude “GenAI for Social Content Survey” de GetApp se consacrait à l’utilisation par les marketeurs de la GenAI sur les réseaux sociaux. La seconde partie se concentre sur l’adaptation des entreprises aux nouvelles réglementations de Meta concernant l’étiquetage des contenus générés par l’IA et est accompagnée des commentaires de Julien Pibourret, expert en social selling, auteur et formateur en médias sociaux et web marketing. GetApp est une plateforme de recherche et de

Etiquetage du contenu généré par l’IA : les marketeurs s’attendent à un impact positif de l’initiative de Meta

23 septembre 2024 à 12:00

La première partie de l’étude “GenAI for Social Content Survey” de GetApp se consacrait à l’utilisation par les marketeurs de la GenAI sur les réseaux sociaux. La seconde partie se concentre sur l’adaptation des entreprises aux nouvelles réglementations de Meta concernant l’étiquetage des contenus générés par l’IA et est accompagnée des commentaires de Julien Pibourret, expert en social selling, auteur et formateur en médias sociaux et web marketing.

GetApp est une plateforme de recherche et de comparaison d’applications et de logiciels métiers acquise par Gartner en 2015. Son objectif est de permettre aux professionnels, en particulier ceux des petites et moyennes entreprises, de trouver les solutions logicielles qui répondent le mieux à leurs besoins.

Pour cette étude, elle a interrogé en mai dernier 1 680 personnes (135 en France) ayant un rôle dans le marketing, les relations publiques, les ventes ou le service à la clientèle au sein d’entreprises de toutes tailles à travers le monde. Chacune d’entre elles a indiqué utiliser la GenAI pour la gestion des réseaux sociaux de son entreprise au moins une fois par mois.

L’étude révèle une hausse de l’utilisation de la GenAI par les marketeurs : 63 % des marketeurs ont déjà utilisé l’IA générative pour créer du contenu sur les réseaux sociaux.

  • Plus d’un tiers des marketeurs interrogés déclare que 10 % à 25 % du contenu produit sur leurs réseaux sociaux l’a été avec des outils de GenAI ;
  • Un marketeur sur trois anticipe que d’ici à 18 mois, l’IA sera présente dans 25 % à 50 % du contenu publié sur les réseaux sociaux ;
  • Concernant l’efficacité, 45 % des répondants estiment que les contenus assistés par IA surpassent ceux créés exclusivement par des humains, tandis que 61 % ont constaté une hausse (“significative” pour 14 % et “légère” pour 47 %) de l’engagement et des impressions (nombre total de fois où un contenu est affiché) sur leurs réseaux grâce à l’utilisation de la GenAI ;
  • 66 % d’entre eux s’attendent à ce que toutes les tâches de marketing numérique soient assistées par des outils d’IA d’ici les cinq prochaines années.

La transparence, un gage de confiance pour les consommateurs

Selon l’étude, les plateformes de Meta, Instagram et Facebook, sont utilisées respectivement par 81% et 56 % des marketeurs.

47 % des personnes interrogées ont déclaré avoir été “modérément informés” et 31 % “très informées” de l’initiative de Meta visant à étiqueter le contenu généré par l’IA sur Instagram, Facebook et Threads, la majorité d’entre elles s’attendent à ce que cette initiative ait un impact positif.

Selon les données de l’enquête :

  • 16 % des spécialistes du marketing pensent que l’étiquetage de l’IA aura un impact “très positif”, améliorant très probablement la transparence et la confiance avec leur public ;
  • 42 % s’attendent à un impact “plutôt positif”, améliorant potentiellement l’authenticité et l’engagement du contenu.

Cependant, seulement 27 % des entreprises interrogées indiquent systématiquement que leur contenu a été créé ou modifié par l’IA, ce qui souligne un manque de transparence généralisé alors que  44 % l’indiquent parfois et 27 % ne le mentionnent jamais.

Alors que 11 % des répondants anticipent un impact “plutôt négatif” de l’étiquetage de l’IA, probablement en raison des préoccupations liées à la perception du public et à la méfiance envers le contenu généré par l’IA, 40 % ont mis en place une politique formelle et documentée pour encadrer l’utilisation de l’IA générative dans leurs stratégies de création de contenu.

Julien Pibourret insiste sur l’importance de la transparence dans ces nouvelles pratiques :

“En communiquant de manière proactive sur l’utilisation de l’IA, les entreprises peuvent montrer leur engagement envers la transparence et l’éthique de leur stratégie de contenu online.”

Il met également en garde contre les risques d’un manque de transparence :

“Ne pas mentionner que le contenu est généré par l’IA peut compromettre la réputation d’une entreprise, affaiblir l’engagement de sa communauté et même entraîner des conséquences légales.”

La GenAI s’impose progressivement comme un pilier central dans les stratégies de marketing numérique. Mais pour tirer pleinement parti de cette technologie, les entreprises devront non seulement continuer à optimiser son utilisation, mais aussi à s’adapter aux exigences croissantes en matière de transparence et d’éthique. La clé réside dans l’équilibre entre innovation technologique et respect des attentes des consommateurs.

Etiquetage du contenu généré par l'IA : les marketeurs s'attendent à un impact positif de l'initiative de Meta
  • ✇ActuIA
  • IA open source : tout juste dévoilé, Reflection 70B au cœur des controverses
    Le 5 septembre dernier, Matt Shumer, PDG d’Hyperside (OthersideAI), a dévoilé Reflection 70B sur X, le présentant comme le LLM open source le plus performant au monde. Basé sur le modèle de langage Llama 3.1 70B publié par Meta en juillet dernier, ce nouveau LLM utilise un mécanisme innovant d’autocorrection, le reflection-tuning. Si cette annonce a été accueillie avec enthousiasme par la communauté de l’IA, les performances impressionnantes annoncées ont vite été remises en cause par une partie

IA open source : tout juste dévoilé, Reflection 70B au cœur des controverses

11 septembre 2024 à 09:30

Le 5 septembre dernier, Matt Shumer, PDG d’Hyperside (OthersideAI), a dévoilé Reflection 70B sur X, le présentant comme le LLM open source le plus performant au monde. Basé sur le modèle de langage Llama 3.1 70B publié par Meta en juillet dernier, ce nouveau LLM utilise un mécanisme innovant d’autocorrection, le reflection-tuning. Si cette annonce a été accueillie avec enthousiasme par la communauté de l’IA, les performances impressionnantes annoncées ont vite été remises en cause par une partie d’entre elle.

Matt Shumer a expliqué que le modèle est capable de s’autocorriger en temps réel grâce à un processus de raisonnement étape par étape, imitant un type de métacognition, c’est-à-dire la capacité à “penser sa propre pensée”. Le reflection-tuning, d’où le nom du modèle désormais présenté comme “Reflection Llama-3.1-70B” sur Hugging Face, permet à celui-ci de repérer et corriger ses propres erreurs logiques avant de produire une réponse finale. Cette approche permet d’obtenir des réponses plus précises et de surmonter un défi majeur rencontré par les LLM : les hallucinations.

Matt Shumer souligne sur X l’importance du rôle de Glaive, une start-up spécialisée dans la génération de données synthétiques personnalisées, qui a permis au modèle de s’entraîner rapidement sur des ensembles de données de haute qualité, augmentant la précision des résultats tout en raccourcissant les cycles de développement.

Les performances annoncées

Lors de son annonce, Matt Shumer a vanté les performances de Reflection 70B sur plusieurs benchmarks, affirmant qu’il surpassait d’autres LLMs, y compris certains des modèles propriétaires les plus performants. Parmi ces tests figure le MMLU (Massive Multitask Language Understanding), où le modèle se serait distingué par sa polyvalence, ainsi que HumanEval, qui mesure la capacité des modèles à résoudre des problèmes de programmation.

Il a partagé les résultats sur Hugging Face .

Le terrain de jeu Reflection qui permet d’essayer le modèle, indique qu’en raison de la forte demande, la démo est temporairement en panne.

La désillusion

Toutefois, cette révolution annoncée n’a pas tardé à être remise en question. Dès le lendemain du lancement de Reflection 70B, des tests indépendants ont révélé que le modèle n’était pas à la hauteur des attentes. Là où Mat Shumer et son équipe avaient promis une capacité de correction automatique exceptionnelle, le modèle a rapidement montré des faiblesses dans des tâches de base telles que le comptage et le raisonnement logique. Les résultats n’étaient ni constants ni fiables, et Reflection 70B échouait là où d’autres modèles LLM comme GPT-4o et Claude 3,5 Sonnet excellent.

Selon l’évaluation d‘Artificial Analysis, une organisation dédiée à l’analyse indépendante des modèles d’IA et des fournisseurs d’hébergement, du score MMLU de Reflection Llama 3.170B publiée sur X, le modèle obtient le même score que Llama 3 70B et un score nettement inférieur à celui du Llama 3.1 70B.

Pour certains, Reflection 70B pourrait en fait être Llama 3 avec un réglage LoRA (Low-Rank Adaptation) appliqué, plutôt qu’un affinage de Llama 3.1, pour d’autres le modèle de Shumer n’est pas un modèle original, mais un simple wrapper de Claude 3,5 Sonnet d’Anthropic. En d’autres termes, Reflection 70B ne serait pas le produit d’une avancée technologique inédite, mais plutôt une façade, un reconditionnement d’une technologie déjà disponible.

HyperWrite a répondu aux critiques, admettant que les poids du modèle avaient été corrompus lors du téléchargement sur Hugging Face, ce qui a pu entraîner des performances de qualité inférieure. Pour Matt Shumer, cette corruption des poids est la cause des résultats incohérents observés par des évaluateurs tiers.

Il a publié sur Hugging Face la mise à jour suivante :

“Il y a eu un problème avec le modèle lorsque nous l’avons téléchargé pour la première fois. Si vous l’avez essayé et que vous n’avez pas obtenu de bons résultats, veuillez réessayer, nous pensons avoir résolu le problème”.

ajoutant :

“De plus, nous savons à l’heure actuelle que le modèle est divisé en une tonne de fichiers. Nous le condenserons bientôt pour rendre le modèle plus facile à télécharger et à utiliser !”

Cependant, malgré cette mise à jour, beaucoup de scepticisme persiste. La communauté s’interroge sur l’ampleur réelle du problème technique initial. La mention explicite de Glaive dans le post Hugging Face, avec la recommandation de “l’utiliser” pour ceux qui souhaitent entraîner un modèle, est perçue par certains comme une tentative de promouvoir la start-up dans laquelle Matt Shumer a investi.

L’ensemble de données et un rapport détaillant l’entraînement du modèle devraient être publiés dans les prochains jours et apporter plus d’éclaircissements. Ces accusations doivent être vérifiées par des experts en IA avant de jeter l’opprobre sur Matt Shumer et Hyperside.

Un modèle beaucoup plus grand, Reflection 405B, censé surclasser les modèles open sources actuels, devrait être présenté très prochainement. Mais après les controverses autour de Reflection 70B, la communauté attend désormais plus de transparence et des preuves concrètes avant d’accorder sa confiance.

Pour les acteurs de l’IA, cette affaire est un rappel que l’innovation doit toujours être accompagnée de transparence et d’éthique, et qu’il vaut mieux patienter quelque temps pour obtenir des résultats fiables et vérifiables plutôt que de se précipiter vers des annonces spectaculaires.

IA open source tout juste dévoilé, Reflection 70B au cœur des controverses
  • ✇ActuIA
  • Perplexity Publishers : vers un nouveau modèle de partage de revenus
    Les acteurs de la GenAI se sont vus reprocher de puiser sans autorisation dans le contenu des médias pour alimenter leurs modèles. Plutôt que de se retrouver face à des plaintes, ils préfèrent aujourd’hui nouer des collaborations avec ces derniers. Après Open AI pour SearchGPT, c’est une autre start-up californienne basée elle aussi basée à San Francisco, Perplexity AI, qui a conclu des accords avec divers médias afin d’utiliser leurs contenus pour ce qu’elle appelle “son moteur de réponse conve

Perplexity Publishers : vers un nouveau modèle de partage de revenus

2 août 2024 à 11:00

Les acteurs de la GenAI se sont vus reprocher de puiser sans autorisation dans le contenu des médias pour alimenter leurs modèles. Plutôt que de se retrouver face à des plaintes, ils préfèrent aujourd’hui nouer des collaborations avec ces derniers. Après Open AI pour SearchGPT, c’est une autre start-up californienne basée elle aussi basée à San Francisco, Perplexity AI, qui a conclu des accords avec divers médias afin d’utiliser leurs contenus pour ce qu’elle appelle “son moteur de réponse conversationnel”.

Créé en août 2022 par Aravind Srinivas, anciennement chercheur chez OpenAI et DeepMind, Denis Yarats, Johnny Ho et Andy Konwinski, Perplexity AI, voulait, avec “Ask” lancé le mois de décembre suivant, proposer une alternative au moteur de recherche de Google. La start-up affirme avoir atteint 10 millions d’utilisateurs actifs mensuels et répondu à plus d’un demi-milliard de requêtes en 2023. Plus d’un million de personnes ont installé ses applications mobiles, à la fois sur iOS et Android.

L’interface de recherche, un chatbot similaire à ChatGPT ou Bing Copilot, utilisait dans un premier temps GPT 3.5 d’OpenAI et Microsoft Bing pour fournir ses réponses. Perplexity a ensuite développé son propre index de recherche et construit ses propres LLM. En novembre dernier, la start-up a introduit les LLM PPLX “on line” disponibles sur l’API qui exploitent Internet pour fournir des réponses en temps réel et s’appuient sur les modèles open source Llama 2 70B et mistral-7b.

Les réponses formulées sous forme de résumé citent leurs sources, permettant ainsi de vérifier leur véracité. La start-up annonce sur son blog :

“Pour soutenir davantage le travail vital des organisations médiatiques et des créateurs en ligne, nous devons nous assurer que les éditeurs peuvent prospérer à mesure que Perplexity se développe. C’est pourquoi nous sommes ravis d’annoncer le programme Perplexity Publishers et notre premier groupe de partenaires : TIME, Der Spiegel, Fortune, Entrepreneur, The Texas Tribune et WordPress.com”.

Partenariats et partage des revenus

Selon la start-up, le programme Perplexity Publishers vise à promouvoir le succès collectif des éditeurs et à équiper ces derniers de nouvelles technologies pour engager leurs publics. Une des principales composantes de ce programme est le partage des revenus. Dans les mois à venir, Perplexity introduira la publicité par le biais de la fonctionnalité “Questions associées”. Les marques paieront pour que des questions spécifiques, liées à leurs produits ou services, soient intégrées dans l’interface du moteur de réponses et sur les Pages de Perplexity. Ces questions apparaîtront comme des suggestions de suivi pour les utilisateurs, les incitant à en savoir plus sur les sujets en lien avec les marques.

Lorsque Perplexity tirera des revenus d’une interaction utilisant le contenu d’un éditeur, ce dernier recevra une part des revenus générés. Les détails exacts du partage des revenus n’ont pas été dévoilés, mais cette initiative vise à créer un modèle financier durable pour soutenir le journalisme de qualité.

Une réponse aux accusations de plagiat ?

Cette annonce intervient après que plusieurs médias, dont Condé Nast et le magazine Forbes, ont accusé Perplexity de plagiat et d’utiliser sans autorisation leurs contenus pour alimenter son moteur de réponse. Le PDG de Perplexity, Aravind Srinivas, a affirmé que ces nouveaux partenariats permettraient de soutenir financièrement le journalisme de qualité tout en garantissant la transparence de l’IA, mais la société réfute le fait que ces partenariats aient été établis à cause de ces allégations.

Accès aux technologies avancées

Les partenaires bénéficieront également d’un accès gratuit aux API de Perplexity, permettant à chaque éditeur de créer son propre moteur de réponse personnalisé sur son site web. De plus, les employés des partenaires éditeurs auront accès gratuitement à l’offre Enterprise Pro de Perplexity pendant un an, offrant des fonctionnalités améliorées de confidentialité et de sécurité des données.

Collaboration avec ScalePost.ai

Perplexity a également établi une collaboration avec ScalePost.ai, une plateforme facilitant les collaborations entre les éditeurs de contenu et les entreprises d’IA. Elle permettra aux partenaires d’obtenir des analyses plus approfondies sur la manière dont Perplexity cite leur contenu, renforçant ainsi la transparence et l’efficacité des partenariats.

Vision pour l’avenir

Perplexity entend continuer à développer ce programme, d’autres médias auraient d’ailleurs déjà manifesté leur intérêt, et explorer d’autres types de collaborations avec des éditeurs, comme des abonnements groupés où les utilisateurs pourraient payer un forfait pour Perplexity Pro et les abonnements aux éditeurs participants.

Le programme d’édition Perplexity marque une étape cruciale vers l’alignement des intérêts des acteurs de la GenAI et du journalisme de qualité.

Aravind Srinivas conclut :

“Nous avons structuré ce programme pour nous assurer que nous disposons d’un moyen évolutif et durable d’aligner les incitations pour toutes les parties. Nous avons toujours cru que nous pouvions construire un système où tout l’Internet gagne, et ce n’est que la première étape”.

Perplexity Publishers vers un nouveau modèle de partage de revenus
  • ✇ActuIA
  • Rapport Capgemini Research Institute : Le secteur de l’assurance IARD à l’ère de l’IA
    Alors que les pressions inflationnistes s’alourdissent et que les assurés exigent une transparence accrue, une récente étude du Capgemini Research Institute met en lumière les impératifs cruciaux pour une transformation réussie du secteur de l’assurance dommages (IARD – Incendie, Automobile et Risques Divers) confronté à des défis sans précédent.  D’après le rapport sur l’Assurance dommages (World Property and Casualty Insurance Report 2024), les capacités de souscription des assureurs, c’est à

Rapport Capgemini Research Institute : Le secteur de l’assurance IARD à l’ère de l’IA

18 avril 2024 à 09:30

Alors que les pressions inflationnistes s’alourdissent et que les assurés exigent une transparence accrue, une récente étude du Capgemini Research Institute met en lumière les impératifs cruciaux pour une transformation réussie du secteur de l’assurance dommages (IARD – Incendie, Automobile et Risques Divers) confronté à des défis sans précédent. 

D’après le rapport sur l’Assurance dommages (World Property and Casualty Insurance Report 2024), les capacités de souscription des assureurs, c’est à dire leur aptitude à évaluer de manière efficace et précise les risques associés à une police d’assurance, à prendre des décisions appropriées et à fournir une couverture adaptée aux besoins du client, sont limitées par des contraintes organisationnelles.

Seuls 8 % des assureurs sont identifiés comme des “précurseurs” en matière de souscription, exploitant pleinement les capacités de l’IA et de l’automatisation pour prendre des décisions éclairées. Un faible pourcentage d’autant plus surprenant que 62 % des dirigeants reconnaissent que l’IA permet d’améliorer la qualité de la souscription et de réduire la fraude.

Améliorer l’expérience client tout en faisant face à de nouveaux défis

Confrontés à l’inflation, les assurés sont à la recherche de primes abordables : au cours des deux dernières années, 27 % d’entre eux ont opté pour un autre assureur leur ayant proposé des primes moins chères (60 %) et de couvertures plus étendues (53 %). Ils demandent également plus de transparence : 42 % des assurés trouvent le processus de souscription actuel complexe et long.

Malgré l’augmentation des primes, le processus de souscription a rencontré des difficultés : les ratios combinés dépassant les 100 %, les assureurs ont enregistré des pertes. Cette situation découle de plusieurs facteurs, notamment les catastrophes naturelles, l’évolution des risques liés aux avancées technologiques telles que les cybermenaces et l’émergence de l’IA générative, ainsi que la complexité réglementaire.

Les dirigeants du secteur signalent d’importants obstacles organisationnels qui compromettent leur capacité à répondre aux attentes des clients : un accès insuffisant aux données (54 %), des systèmes technologiques obsolètes (51 %) et une pénurie de talents qualifiés (47 %).

Adam Denninger, en charge du secteur de l’assurance chez Capgemini, commente :

“L’assureur opère aujourd’hui dans l’un des environnements les plus instables de ces dernières années. Le secteur doit faire face à cette volatilité en repensant les conditions de souscription. Il faut pour cela s’éloigner des modèles traditionnels et moderniser les systèmes centraux en déployant des technologies avancées qui permettent de meilleurs résultats et une plus grande transparence. Il est crucial pour le secteur de tirer parti des données et de l’automatisation permise par l’IA afin de créer un environnement concurrentiel propice à la rentabilité de la souscription, tout en s’adaptant à l’évolution des risques et des comportements des assurés”. 

Instaurer la confiance des souscripteurs

Bien que pour les dirigeants l’IA améliore la qualité de la souscription et réduise la fraude, une réticence persiste chez les souscripteurs, les professionnels qui évaluent les risques et déterminent les conditions de couverture des polices d’assurance : ils ne sont que 43 % à faire confiance et à accepter régulièrement les recommandations automatisées des outils d’analyse prédictive d’aide à la décision.

Cette hésitation est due à un sentiment de trop grande complexité (67 %) et à des craintes quant à l’intégrité et explicabilité des données (59 %). La solution pour obtenir leur adhésion serait, selon les auteurs du rapport, de les impliquer dès le début du développement des modèles, en conservant l’aspect « humain dans la boucle » (Human-In-The-Loop) pour que les modèles d’IA soient explicables et suffisamment transparents, et en évaluant continuellement les progrès accomplis.

Malgré des efforts prometteurs, peu d’assureurs se distinguent en tant que “précurseurs”, capables de prendre des décisions rapides, impartiales et innovantes, obtenant des gains en efficacité (moins de délais et de dépenses), précision (coûts des sinistres et détection des fraudes) et expérience client (développement commercial et fidélisation des assurés). Le rapport révèle que moins de 13 % d’entre eux n’atteignent pas leurs objectifs commerciaux, contre 21 à 36 % des assureurs traditionnels.

La nécessité d’une exploitation efficace de données sécurisées

Alors que la majorité des assureurs IARD (83%) reconnaissent le rôle essentiel des modèles prédictifs dans l’avenir de la souscription, seuls 27 % déclarent disposer des capacités avancées nécessaires.

Les écarts entre l’importance des différentes sources de données et la capacité des assureurs à les traiter efficacement sont flagrants, mettant en évidence un besoin criant de consolidation et de rationalisation des systèmes de données.

Au niveau mondial, 53 % des assurés se disent préoccupés par la quantité d’informations personnelles collectées par les assureurs. Cependant, près des deux tiers d’entre eux se disent prêts à partager davantage de données pour obtenir plus de transparence et des tarifs préférentiels, à condition que les informations partagées soient sécurisées.

Les assureurs en IARD sont confrontés à un défi majeur pour répondre aux attentes de leurs souscripteurs quant aux données : 49 % des souscripteurs accordent de l’importance aux données issues de clichés pris par des drones, mais très peu d’assureurs sont en mesure de les traiter et de les analyser efficacement. De même, un souscripteur sur deux souhaite disposer de données provenant d’appareils connectés pour obtenir des informations en temps réel sur des biens personnels et commerciaux, mais seuls 12 % des assureurs sont en mesure de capturer ces données de manière efficace.

Pour les experts de CapGemini, le manque de contrôle des données qui en résulte nuit à l’activité principale des assureurs, car 77 % d’entre eux n’évaluent pas complètement les risques. En raison du peu de données disponibles, 73 % des entreprises sont confrontées à une tarification peu précise, ce qui empêche de couvrir les sinistres correctement et peut, à terme, nuire à leur solvabilité. D’autant plus que 70 % des assureurs affirment que le manque de cohérence de décisions en matière de souscription constitue un problème majeur.

Rapport Capgemini Research Institute Le secteur de l'assurance IARD à l'ère de l'IA
❌
❌