Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

  1. Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière de transparence, d’éthique et de conformité. Ces modèles compacts, qui s’appuient exclusivement sur des données ouvertes, démontrent que performance technologique, respect du droit d’auteur et open source peuvent aller de pair.

    Pleias est une start-up parisienne créée en décembre 2023 par Pierre-Carl Langlais, Ivan Yamschikov et Anastasia Stasenko. Ses modèles sont élaborés à partir du Common Corpus, un ensemble de données multilingues unique par son ampleur et son ouverture. Ce corpus, qu’elle a publié le 13 novembre dernier, disponible sur HuggingFace, a été soutenu par la start-up d’état Langu:IA, un projet du ministère de la Culture et la DINUM, dans le cadre de la préfiguration de l’offre de services de l’Alliance pour les technologies du langage EDIC (ALT-EDIC).

Son développement a réuni un consortium exceptionnel de partenaires, dont le cluster de supercalculateurs Jean-Zay (Genci, Idris, Eviden), NVIDIA, TractoAI, Wikimedia Entreprise. Il a également bénéficié du soutien de grandes organisations open-source, dont la Mozilla Foundation, l’AI Alliance et Eleuther AI, renforçant son engagement envers la science ouverte et l’innovation collaborative.

Comptant plus de 2 000 milliards de tokens, le Common Corpus est le plus grand ensemble de données d’entraînement pour les LLMs exclusivement composé de textes appartenant au domaine public.

Il se distingue par plusieurs caractéristiques fondamentales :

  • Véritablement ouvert : toutes les données incluses sont sous licences permissives, garantissant une utilisation en conformité avec les droits d’auteur ;
  • Multilingue et diversifié : plus de 30 langues sont représentées, notamment l’anglais (808 milliards de tokens) et le français (266 milliards), ainsi que des langues comme l’espagnol, l’italien et le néerlandais. Les sources incluent des articles académiques, des textes juridiques, du contenu culturel et du code open source ;
  • Qualité optimisée : les contenus ont été rigoureusement filtrés pour éliminer les données nuisibles ou de faible valeur informative.

Une suite adaptée aux besoins européens

Pleias présente trois modèles qui sont, de par leurs données d’entraînement, entièrement conformes au RGPD et à l’AI Act européen :

  • Pleias 1.0 : avec 3 milliards de paramètres, il est spécialisé dans les domaines de la gestion des connaissances et des applications administratives ou juridiques ;
  • Pleias-Nano (1 milliard) et Pleias-Pico (350 millions) : conçus pour des usages plus légers comme la génération augmentée par la récupération (RAG) et l’harmonisation des données.

Ils fonctionnent efficacement sur du matériel grand public, leur petite taille les rendant particulièrement adaptés aux environnements où les ressources informatiques sont limitées ou pour des applications nécessitant une faible latence.

Anastasia Stasenko, PDG de Pleias, conclut :

“Notre approche démontre qu’il est possible de créer des modèles de langage puissants tout en respectant pleinement la loi sur le droit d’auteur, les exigences du RGPD et les principes éthiques de l’IA”.

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Hub France IA publie un nouveau livrable : “Opérationnaliser la gestion des risques des systèmes d’intelligence artificielle”

Hub France IA a récemment publié le livrable “Opérationnaliser la gestion des risques des systèmes d’intelligence artificielle” élaboré par son groupe de travail Banque et Auditabilité. Regroupant des experts en IA, de la gestion des risques et de l’audit de trois grandes banques françaises : BNP Paribas, La Banque Postale et Société Générale, ce groupe travaille depuis plusieurs années sur la gestion des risques liés à l’IA.

Un contexte réglementaire en évolution

L’entrée en vigueur de l’AI Act, prévue pour 2026, et l’essor rapide de l’IA générative, ont poussé le groupe de travail à répondre à une question essentielle : comment doter la gestion des risques d’outils efficaces pour réduire les coûts de mise en conformité à l’AI Act ?

La mise en conformité exige de prendre en compte l’intégralité du processus de développement d’un système d’IA, allant de la phase d’idéation, de conception, de développement et de mise en production, jusqu’au suivi continu. Les coûts de mise en conformité sont importants : d’après une enquête réalisée par le Hub France IA et ses partenaires européens en décembre 2022, plus de 50% des entreprises interrogées ont estimé ces coûts entre 160 000 et 330 000 euros.

Le groupe de travail fournit dans ce livrable des conseils pour mettre en place les outils nécessaires pour satisfaire à un audit de certification en conformité avec l’AI Act : documents, fichiers Excel, logiciels, outils de gestion de flux de travail… Ces outils pourront également servir de preuves auprès des régulateurs.

Une démarche méthodologique rigoureuse

En s’appuyant sur un livre blanc qu’il a publié en 2022, le groupe de travail décrit le cycle de développement d’un système d’IA dans son intégralité, associant à chaque étape un outil de conformité spécifique. Suite à l’adoption de l’AI Act par le Conseil de l’Union européenne en mai dernier, une analyse approfondie s’avère nécessaire pour aligner les outils proposés avec les attentes de conformité. Un prochain guide viendra détailler cette correspondance.

Le travail présenté dans le livrable ne vise pas à être exhaustif mais souhaite apporter un
cadre méthodologique et de bonnes pratiques.

Ses principaux enseignements incluent :

  • La disponibilité de nombreux outils d’analyse des risques tout au long du processus de mise en œuvre des systèmes d’IA ;
  • Une couverture partielle des solutions logicielles pour l’opérationnalisation du AI Act ;
  • L’émergence de nouveaux risques liés à l’IA générative, accompagnée de nombreuses incertitudes juridiques.

Retrouver le livrable ici.

Hub France IA publie un nouveau livrable Opérationnaliser la gestion des risques des systèmes d’intelligence artificielle

IA et services d’investissement pour les particuliers : les directives de l’ESMA

L’ESMA, l’autorité européenne des marchés financiers, a publié une déclaration à l’adresse des services d’investissement à destination des particuliers, dans laquelle elle leur fournit des orientations initiales pour se mettre en conformité avec la réglementation européenne en vigueur tout en soulignant l’impératif de toujours prioriser les intérêts des clients.

Dans ce document, l’ESMA explore les avantages potentiels de l’IA dans les services d’investissement, les risques associés et les mesures nécessaires pour respecter les exigences de MiFID II.

Selon elle, l’essor de l’IA a le potentiel de transformer le paysage des services d’investissement de détail en offrant des opportunités sans précédent en termes d’efficacité, d’innovation et d’amélioration de la prise de décision. Elle rappelle toutefois que bien que l’IA promette d’améliorer les stratégies d’investissement et les services clients, elle présente également des risques inhérents, notamment des biais algorithmiques, des problèmes de qualité des données et un manque potentiel de transparence.

Cas d’usages potentiel et avantages liés

L’adoption de l’IA par les entreprises d’investissement est encore inégale, mais diverses applications existent déjà que l’ESMA présente :

  • Service et support client : les chatbots et assistants virtuels alimentés par l’IA peuvent fournir un support client en temps réel, répondre aux questions, fournir des informations sur les comptes et améliorer l’expérience utilisateur ;
  • Conseil en investissement et gestion de portefeuille : l’IA peut analyser les informations des clients, y compris leurs connaissances, leur situation financière et leurs objectifs d’investissement, pour offrir des recommandations personnalisées et gérer les portefeuilles de manière plus efficace ;
  • Conformité et gestion des risques : les systèmes d’IA peuvent surveiller et analyser les réglementations financières, détecter les comportements non conformes et évaluer les risques associés aux différentes options d’investissement ;
  • Détection de la fraude : les outils d’IA peuvent identifier des schémas inhabituels dans les données transactionnelles et les communications, aidant ainsi à prévenir les activités frauduleuses ;
  • Efficacité opérationnelle : l’IA peut automatiser des tâches répétitives comme la saisie de données et la génération de rapports, permettant aux employés de se concentrer sur des tâches plus complexes et à valeur ajoutée.

Risques et défis de l’intégration de l’IA

Malgré ces avantages, l’IA présente des risques potentiels que l’ESMA rappelle :

  • Dépendance excessive : une dépendance excessive à l’IA pour la prise de décision peut réduire l’importance du jugement humain, surtout dans les marchés financiers complexes et imprévisibles ;
  • Manque de transparence et d’explicabilité : de nombreux systèmes d’IA sont des “boîtes noires”, rendant difficile la compréhension des processus décisionnels par le personnel, ce qui peut compliquer l’ajustement des stratégies d’investissement ;
  • Sécurité et confidentialité des données : la gestion de grandes quantités de données, y compris les données personnelles, soulève des préoccupations significatives en matière de confidentialité et de sécurité ;
  • Qualité des données et biais algorithmiques : les résultats de l’IA peuvent être biaisés par les données d’entraînement et peuvent parfois produire des résultats incorrects, compromettant ainsi la qualité du service.

Conformité avec MiFID II

MiFID II, ou la Directive sur les marchés d’instruments financiers II (Markets in Financial Instruments Directive II), est une réglementation de l’Union européenne qui vise à améliorer le fonctionnement des marchés financiers et à renforcer la protection des investisseurs. Adoptée en réponse à la crise financière de 2008, elle est entrée en vigueur le 3 janvier 2018, remplaçant la première directive MiFID adoptée en 2007.

Cette déclaration vise à guider les entreprises utilisant ou prévoyant d’utiliser des technologies d’IA afin qu’elles puissent assurer leur conformité aux principales exigences de MiFID II, en particulier celles relatives aux exigences organisationnelles, aux exigences de conduite des affaires et à l’obligation générale d’agir dans le meilleur intérêt du client.

Pour garantir la conformité avec cette directive, les entreprises d’investissement doivent adopter des mesures rigoureuses :

  • Contrôles Ex-Ante et Ex-Post : des contrôles robustes doivent être établis pour garantir l’exactitude des informations utilisées par les systèmes d’IA. Des évaluations fréquentes post-interaction sont nécessaires pour surveiller et évaluer les processus impliquant l’IA ;
  • Formation et sensibilisation : les entreprises doivent mettre en place des programmes de formation adéquats pour le personnel, couvrant non seulement les aspects opérationnels de l’IA, mais aussi les risques potentiels, les considérations éthiques et les implications réglementaires ;
  • Adéquation des services : lors de l’utilisation de l’IA pour fournir des services d’investissement, il est crucial de s’assurer que les recommandations et décisions sont alignées avec la situation financière du client, ses objectifs d’investissement et sa tolérance au risque. ;
  • Protection des données : les entreprises doivent strictement respecter les réglementations de protection des données pour protéger les informations sensibles des clients ;
  • Tenue de registres : il est attendu des entreprises qu’elles maintiennent des dossiers complets sur l’utilisation des technologies d’IA, documentant les processus décisionnels, les sources de données et les modifications apportées aux algorithmes.

IA et services d'investissement pour les particuliers les directives de l'ESMA
❌