Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

INESIA : un nouvel acteur pour la sécurité de l’IA en France

En mai 2024, la France était l’un des pays signataires de la Déclaration de Séoul pour une IA sûre, novatrice et inclusive. Dans le prolongement de cet engagement, Clara Chappaz, ministre déléguée chargée de l’Intelligence artificielle et du Numérique, a annoncé la création de l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA).

Cette initiative vise à renforcer la confiance du public dans les technologies d’IA en France, tout en soutenant l’innovation dans ce domaine stratégique.

Structurer la recherche française en matière d’évaluation

Plutôt que de créer une nouvelle entité juridique, l’INESIA coordonnera les efforts des principaux acteurs nationaux de l’évaluation et de la sécurité de l’IA, notamment l’Agence nationale de la sécurité des systèmes d’information (ANSSI), l’Institut national de recherche en sciences et technologies du numérique (Inria), le Laboratoire national de métrologie et d’essais (LNE) et le Pôle d’expertise de la régulation numérique (PEReN). Copiloté par le Secrétariat général de la défense et de la sécurité nationale (SGDSN) et la Direction générale des Entreprises (DGE), l’Institut n’aura pas de pouvoirs contraignants, mais servira de plateforme de collaboration entre ces institutions existantes.

Elles collaboreront ainsi à l’analyse des risques systémiques liés à l’IA dans le domaine de la sécurité nationale, le soutien à la mise en œuvre de la régulation de l’IA et l’évaluation de la performance et de la fiabilité des modèles d’IA. Leur approche scientifique et la diffusion de bonnes pratiques garantiront que l’IA soit développée et utilisée de manière sécurisée et fiable, en particulier dans des secteurs sensibles tels que la médecine, l’éducation, l’industrie et l’information.

INESIA permettra à la France de jouer un rôle actif au sein du réseau international des AI Safety Institutes, aux côtés de nations telles que le Canada, la Corée du Sud, les États-Unis, le Japon, le Kenya, Singapour et le Royaume-Uni. Elle soutiendra ainsi son ambition : faire de l’IA une technologie de confiance, au service de l’innovation et de la souveraineté nationale.

un nouvel acteur pour la sécurité de l'IA en France

« Bâtir la confiance : anticiper et maîtriser les risques de l’IA » par HEC Hub Digital & Axys

Dans le cadre du Sommet mondial pour l’IA qui se tiendra les 10 et 11 février 2025 à Paris, HEC Alumni (Hub Digital) et Axys organisent un événement officiel réunissant des experts en gouvernance, cybersécurité et éthique pour explorer des approches concrètes en matière d’identification, de hiérarchisation et de gestion des risques liés à l’intelligence artificielle.

 

Organisé au sein de l’HEC Alumni House – Hôtel Le Marois, lieu d’exception situé près des Champs-Élysées, ce rendez-vous rassemblera des acteurs majeurs du secteur industriel, bancaire et académique tels que Thales, le Crédit Agricole et le CNRS :

  • Juliette Mattioli: Experte senior IA chez ThalesPrésidente Hub Data & IA du pôle Systematic Membre de la mission France IA
  • Aldrick Zappellini : Directeur Data & IA et Chief Data Officer Groupe Crédit Agricole
  • Jean-Gabriel Ganascia : Professeur IA à la Sorbonne, Président du comité éthique du CNRS
  • Fazil Boucherit : Directeur, référent expert IA éthique chez Axys

À travers des cas pratiques (détection des biais algorithmiques, sécurité des données, explicabilité des modèles…), cet événement offrira aux participants une boîte à outils opérationnelle pour construire des cartographies de risques dynamiques. Il visera également à encourager l’intégration des bonnes pratiques dans les stratégies de gouvernance et à promouvoir l’adoption de standards permettant d’objectiver et de mesurer les risques liés à l’IA.

 

Une occasion unique d’échanger avec des experts et de renforcer la résilience des organisations face aux défis de l’intelligence artificielle.

Vous pouvez soumettre votre invitation via le lien d’inscription (limite à 90 participants).

« Bâtir la confiance : anticiper et maîtriser les risques de l’IA » par HEC Hub Digital & Axys

IA de confiance et secteurs critiques : retour sur le partenariat LGM-Numalis

LGM, un leader européen en sécurité des systèmes et Numalis, deeptech montpelliéraine spécialisée dans la validation et l’explicabilité des algorithmes d’IA, ont décidé de collaborer afin de promouvoir le développement et l’adoption de solutions d’IA de confiance dans les industries critiques.

Cette alliance stratégique a été dévoilée à l’occasion du salon mondial Eurosatory 2024, dédié à la Défense et à la Sécurité terrestre et aéroterrestre où les deux entreprises ont présenté une conférence commune intitulée “Exploitez la puissance de l’IA en toute confiance dans vos applications !”.

Numalis, start-up visant à rendre l’IA fiable et explicable, créée en 2015 par Arnault Ioualalen, Matthieu Martel et Nicolas Normand, a été sélectionnée dans le cadre de projets nationaux mais également européens s’adressant à la défense et la sécurité, notamment pour le projet de recherche « Machine Learning Application Approval » (MLEAP) de l’Agence de la sécurité aérienne de l’Union européenne (EASA). Le Groupe français LGM, de son côté, compte plus de 30 ans d’expérience dans l’ingénierie et le management de grands projets pour les secteurs de la défense, l’énergie, l’aérospatial et les transports.

Tous deux sont membres de longue date du Groupement des industries françaises de défense et de sécurité terrestres et aéroterrestres (GICAT), groupement professionnel créé en 1978 et qui représente aujourd’hui plus de 380 adhérents (grands groupes, ETI, PME et start-ups).

Elles ont vu leur collaboration facilitée par l’initiative GENERATE du GICAT, visant à soutenir les jeunes entreprises innovantes. “Cette convention illustre l’effort d’accompagnement du programme GENERATE du GICAT en faveur des jeunes acteurs innovants et la collaboration accrue des acteurs de notre écosystème, au service du besoin opérationnel des forces et de l’excellence industrielle”, a déclaré le Général Jean-Marc Duquesne, Délégué Général du GICAT.

IA de confiance et excellence opérationnelle

L’essor rapide de l’intelligence artificielle, en particulier dans les domaines et applications critiques, rend essentielle la formalisation de nouvelles méthodes de conception et de validation des composants d’IA. LGM et Numalis visent à répondre à cette exigence en combinant leurs expertises respectives pour offrir des solutions permettant le déploiement et l’utilisation de l’IA en toute confiance. Cette démarche s’aligne parfaitement avec les objectifs de la Commission Européenne, qui, avec l’AI ACT récemment promulgué, cherche à établir un cadre réglementaire pour garantir la conformité de l’IA.

Un partenariat pour la sécurité et la performance

LGM, reconnu pour son expertise en ingénierie et soutien des systèmes complexes, se concentrera sur l’optimisation de ces systèmes pour qu’ils soient fiables, durables et sûrs, avec un taux de disponibilité optimal et un coût de maintenance réduit. Numalis, quant à lui, assurera la fiabilité, l’explicabilité et la robustesse des modules d’IA via sa solution Saimple, un analyseur statique de pointe.

Nicolas Rémy, Business Development Manager and AI Expert chez LGM, commente :

“LGM est reconnu comme le spécialiste européen en ingénierie et soutien des systèmes et infrastructures complexes ainsi que dans la conception de solutions innovantes et sur mesure, au service des industries de haute technologie. Il était donc naturel de nous rapprocher de Numalis, qui se positionne comme un tiers de confiance sur les problématiques de développement de solutions d’IA. Avec ce partenariat, nous garantissons d’autant plus ces aspects auprès de nos clients, sur la thématique nouvelle qu’est l’implémentation effective de l’IA”.

Arnault Ioualalen, PDG de Numalis, conclut :

“Les secteurs de la Défense et de la Sécurité cherchent à adopter plusieurs innovations, notamment l’Intelligence Artificielle. Au vu des enjeux cruciaux, il est impératif que les industriels se dotent de solutions fiables, robustes et explicables. Numalis fournit un cadre et des outils rigoureux permettant de vérifier mathématiquement ces modèles d’IA. En partenariat avec l’expertise de LGM, nous garantissons aux industriels le déploiement d’une IA de confiance, leur conférant de nombreux avantages opérationnels et stratégiques”.

IA de confiance et secteurs critiques retour sur le partenariat LGM-Numalis

Impact AI renouvelle son conseil d’administration, Christophe Liénard réélu président

Créé en 2018, Impact AI est un collectif de réflexion et d’action dont l’ambition est d’éclairer les enjeux éthiques et sociétaux de l’intelligence artificielle et de soutenir des projets innovants et positifs pour le monde de demain. Il a récemment réélu son conseil d’administration pour la période 2024-2026, Christophe Liénard, conserve son poste de président.

Ce think and do tank compte aujourd’hui plus de 80 membres, grandes entreprises, ESN, sociétés de conseils, acteurs de l’IA, start-ups et écoles. Il vise à créer une approche de l’IA responsable et inclusive, qui réponde aux besoins et attentes des citoyens et à se positionner comme un acteur de référence pour l’utilisation responsable de l’IA en Europe.

La nouvelle gouvernance assurera le bon déroulement des travaux menés durant les deux prochaines années. Ces travaux, incluant fiches pratiques, ateliers interactifs, formations spécialisées, observatoire dédié pour mesurer la perception et l’adoption de l’IA en France… seront alignés sur les enjeux cruciaux du prochain Sommet pour l’action sur L’IA.

Après les Sommets de Bletchley Park de novembre 2023 au Royaume-uni et de Séoul de mai 2024 en Corée du Sud, la France sera l’hôte de la 3ème édition les 10 et 11 février 2025. Cinq thèmes essentiels seront abordés : l’IA d’intérêt public, l’avenir du travail, l’innovation et la culture, la sécurité et la sûreté, ainsi que la gouvernance internationale de l’IA.

Composition du conseil d’administration

Président 

Christophe Lienard, Directeur central de l’Innovation, Bouygues


Vice-Présidents

Hélène Chinal, Executive Vice-Président, directrice de la transformation Europe du Sud, Capgemini

Albert Meige, Directeur associé, Arthur D. Little

Agnès Van De Walle, GM Industry, MICROSOFT

Trésorier

Nicolas Marescaux, Directeur adjoint Réponses Besoins Sociétaires et Innovation, MACIF


Ainsi que :

Marcin Detyniecki, Group Chief Data Scientist, AXA

Ingrid Dufour Bonami, Medical Digital Lead EMEA, Bayer

Denis Gomez, Directeur de projets Innovation Sociétale, Orange

Albane Liger-Belair, Chief Innovation Officer, KPMG

Guy Mamou-Mani, Co-Fondateur, Open

Thierry Taboy, Référent fédéral IA, CFE CGC

Ariane Thomas, Group Tech Director of sustainability and trustworthy AI Lead, L’Oreal

Christophe Liénard, Président d’Impact AI, affirme

“J’ai toute confiance en notre nouveau Conseil d’Administration pour coordonner les ambitieux travaux qui seront menés en concertation par nos équipes de bénévoles experts sur les grands sujets qui structureront l’AI Summit de février 2025. L’avenir du travail, l’IA de confiance, la gouvernance internationale et l’intérêt général sont autant de thèmes pour lesquels Impact AI apportera sa contribution avec, toujours, l’angle de l’IA responsable”.

Impact AI renouvelle son conseil d'administration, Christophe Liénard réélu président

Lancement des travaux du Comité stratégique de filière “Solutions numériques de confiance”

En septembre 2022, lors de l’inauguration du data center d’OVHcloud à Strasbourg, Bruno Le Maire, ministre de l’Économie, des Finances et de la Souveraineté Industrielle et Numérique, annonçait la création d’un Comité stratégique de filière (CSF) “Solutions numériques de confiance”. Marina Ferrari, secrétaire d’État chargée du Numérique, a convié mercredi dernier à Bercy les acteurs de la filière pour la conclusion de la mission de préfiguration du CSF.

Les CSF, éléments centraux de la politique industrielle française, rassemblent l’État, les industriels et les organisations syndicales autour d’une feuille de route commune pour le développement de secteurs stratégiques. C’est à Michel Paulin, directeur général d’OVHcloud. que Bruno Le Maire a confié la mission de préfigurer les contours, les objectifs et les axes de travail prioritaires de ce CSF pour un numérique de confiance qui réunit les éditeurs de solutions à base des technologies du cloud, de l’intelligence artificielle, des technologies immersives et du quantique.

Michel Paulin a donc lancé une consultation préalable pour identifier les besoins des acteurs de la filière, et invité les entreprises, organisations et clients de l’écosystème à participer à l’écriture du contrat de filière.

Un projet ambitieux pour le numérique de confiance

Le CSF s’est donné pour objectifs principaux de :

  • Structurer la filière française du Numérique de confiance ;
  • Reconquérir des parts de marché sur les domaines matures ;
  • Anticiper les prochaines évolutions et positionner les entreprises du numérique de confiance sur tous les secteurs d’innovation.

Après près de deux ans de concertation intense, le contrat de filière dirigé par Michel Paulin voit le jour. Les projets présentés se structurent autour de cinq axes principaux :

  • Développer l’offre et les infrastructures numériques de confiance ;
  • Intensifier la formation et l’innovation durable ;
  • Définir les données sensibles et promouvoir une harmonisation des régulations ;
  • Simplifier l’accès des acteurs à la commande publique et privée ;
  • Favoriser la croissance internationale.

Actions concrètes et perspectives

Les travaux qui débutent viseront notamment à :

  • Déployer des offres intégrées Cloud-Data-IA souveraines et travailler collectivement à des solutions collaboratives compétitives ;
  • Fluidifier le changement de fournisseur numérique afin de rendre le marché des solutions numériques plus ouvert pour les entreprises européennes ;
  • Développer des modules de formation communs à la filière du numérique de confiance pour les mettre à disposition des organismes de formation.

Ces actions seront présentées le 18 juin prochain au Comité exécutif du Conseil National de l’Industrie (CNI) en vue de l’adoption du contrat du CSF.

Le CNI, dont la mission est d’éclairer et conseiller les pouvoirs publics sur les enjeux industriels, contribuant ainsi à la transition écologique et numérique, à la réindustrialisation et à la résilience de la France, sera également en charge de créer des synergies entre ce nouveau CSF et les autres filières industrielles.

Marina Ferrari a également annoncé la tenue de rencontres de matchmaking entre les écosystèmes cloud et IA, le 14 juin à Bercy, qui permettront aux acteurs de la filière de confronter leurs projets et de rechercher des synergies. Organisé par la Direction générale des Entreprises, cet événement s’inscrit dans le cadre des appels à projets “renforcer l’offre de services cloud” et “accélérer l’usage de l’IA générative dans l’économie” de France 2030.

Lancement des travaux du Comité stratégique de filière Solutions numériques de confiance

IA Générative : les intermédiaires de données garants d’un marché de la donnée équilibré et éthique

L’Association pour l’Intermédiation de Données (AID) a été créée en novembre dernier par Agdatahub, Apidae Tourisme, Dawex, Hub One DataTrust, Orange Business et Prometheus-X, avec le soutien de la Banque des Territoires. Face à l’émergence rapide et mondiale de la GenAI, elle affirme l’importance des intermédiaires de données tant sur l’aspect éthique des échanges que sur celui du respect des droits des détenteurs de données et du respect du droit de la concurrence. Une position au cœur de sa contribution à la consultation publique sur l’IA générative lancée par l’Autorité de la Concurrence en février dernier.

Outre rassembler les organisations dont l’activité se rapporte à l’intermédiation de données, l’association AID, que la plateforme de partage de données personnelles MiTrust a rejoint en février dernier, ambitionne en effet de contribuer pleinement aux consultations amont aux politiques publiques favorisant la transaction de données, et ceci au sein d’un système reposant sur la confiance, la transparence et la sécurité.

Dans ce but, elle est organisée autour de 4 collèges de membres :

  • Les prestataires d’intermédiation de données (PSID) regroupant Agdatahub, Hub One DataTrust et Prometheus-X ;
  • Les opérateurs utilisateurs des services d’intermédiation de données (détenteurs et/ou utilisateurs de données) qui comptent Apidae Tourisme et Orange Business ;
  • Les prestataires technologiques nécessaires pour opérer les plateformes d’intermédiation de données, Dawex et Orange Business ;
  • Les membres associés, avec la Banque des Territoires.

Lors de l’annonce de sa création, Sébastien Picardat, Président de AID et Directeur général d’Agdatahub, expliquait :

“Notre volonté partagée est de développer la confiance, la transparence et la sécurité des transactions de données en nous appuyant sur des garanties fortes. Loin de partir d’une feuille blanche, nous nous appuyons sur les bonnes pratiques déjà existantes de chacun des membres de l’association, pour les partager, voire les renforcer et les améliorer si possible”. 

Au-delà des échanges entre membres, AID entend en outre jeter les bases d’un dialogue avec l’ensemble des acteurs professionnels de l’intermédiation de données au niveau européen en vue de favoriser la construction d’un marché unique européen des données.

Les intermédiaires de données : une réponse aux risques de distorsion de la concurrence

En tant que tiers de confiance, les Prestataires de Service d’Intermédiation de Données  répondent aux risques d’un marché asymétrique : celui des détenteurs de données (dont font partie les TPE/PME) face à un nombre très limité d’éditeurs d’IA générative, constituant, de fait, un oligopole.

Apportant une réponse structurelle et technologique aux risques, par exemple, de verrouillage de l’accès aux data ou à leur manque de portabilité, les PSID orchestrent des transactions de données sécurisées et transparentes sur les volets juridiques, commerciaux et techniques.

Intermédiaire de données, un statut régulé

Le statut d’intermédiaire de données est un rôle récent, réglementé en France par l’Arcep dans le cadre du projet de loi “Sécuriser et Réguler l’Espace Numérique” (SREN), adopté par la commission mixte paritaire le 26 mars 2024 puis par le Sénat le 2 avril suivant, qui devrait être définitivement voté par l’Assemblée nationale ce 10 avril. Sa réglementation repose également sur le Data Governance Act, applicable depuis septembre dernier et l’AI Act.

Ce rôle garantit la libre circulation des données au sein de l’Union Européenne, dans le respect des droits des détenteurs de données et du droit de la concurrence entre détenteurs et utilisateurs de données.

Le secteur de l’IA Générative a besoin d’accéder en masse à des données personnelles et non personnelles, mais pour l’AID cela ne peut se faire réglementairement et structurellement qu’au travers d’un cadre sécurisé dans lequel les détenteurs de données acceptent de rendre celles-ci accessibles aux éditeurs d’IA générative (en tant qu’utilisateurs). C’est la raison d’être des Prestataires de Service d’Intermédiation de Données.

Sébastien Picardat commente :

“Les prestataires d’intermédiation de données ont un rôle essentiel à jouer dans la mise en place d’un marché de la donnée équilibré entre détenteurs et utilisateurs de données, à l’heure où la confiance et la transparence sont des éléments clés pour développer ce marché dans le respect de la réglementation et des valeurs européennes”.

pexels-google-deepmind-18069814 (1)

Le CEA, le CNRS et Inria annoncent le lancement du PEPR Intelligence artificielle

Le programme de recherche (PEPR) Intelligence Artificielle, lancé le 25 mars dernier, co-piloté par le CEA, le CNRS et Inria, est doté d’un budget de 73 millions d’euros sur six ans, financé par France 2030 dans le cadre de la stratégie nationale pour l’intelligence artificielle. Il vise à accompagner l’accélération de la France dans le domaine de l’IA à travers trois grandes thématiques de recherche : l’IA frugale et embarquée, l’IA de confiance et distribuée et les fondements mathématiques de l’IA.

Les objectifs du PEPR IA sont multiples, notamment renforcer l’écosystème français de recherche et d’innovation, lever les verrous du déploiement de l’IA, faire émerger des technologies de rupture, et positionner la France et l’Europe comme des leaders sur des thématiques stratégiques. Il vise à passer de la recherche fondamentale aux preuves de concept, en se concentrant sur des domaines tels que l’IA frugale, l’IA embarquée, l’IA de confiance et l’IA distribuée.

Le PEPR IA vise également à faciliter l’interdisciplinarité, attirer les talents notamment en s’appuyant sur Choose France pour encourager l’installation des titulaires de chaires en France et créer des passerelles entre la recherche publique et l’innovation, en collaboration avec les start-ups et les PME. Il s’inscrit ainsi pleinement dans la seconde phase de la stratégie nationale pour l’IA axée sur la formation à l’IA, le développement d’une offre de technologies deeptech sur l’IA embarquée, l’IA de confiance, l’IA frugale et l’IA générative ainsi que le rapprochement de l’offre et de la demande de solutions d’IA.

Neuf projets répartis autour de trois thématiques stratégiques

Les objectifs de ces trois grandes thématiques de recherche correspondant à des problématiques centrales autour de l’IA et de la souveraineté sont :

• La recherche sur l’IA frugale et l’IA embarquée se concentre sur le développement de technologies d’IA qui soient efficaces en termes de ressources et qui puissent être intégrées dans des appareils et des systèmes embarqués. Son ambition est d’identifier les architectures logicielles, les méthodologies d’apprentissage frugal d’entraînement sur des bases de données maîtrisées et l’optimisation avancée des applications pour rationaliser au maximum la consommation énergétique des systèmes d’IA à base d’apprentissage machine.

• La recherche engagée sur l’IA de confiance et distribuée vise à améliorer la compréhension des défis liés à la robustesse, à la confidentialité et à la sécurité des systèmes d’IA, notamment ceux opérant dans des environnements décentralisés. Son objectif est de développer des méthodologies pour renforcer la fiabilité, évaluer et qualifier ces systèmes en conformité avec les normes de confiance et de régulation.

• Les axes de recherche sur les fondements mathématiques de l’IA vont stimuler l’écosystème national de recherche en sciences mathématiques vers la construction et l’analyse des fondements des systèmes d’IA.

Neuf projets répartis autour de ces trois grandes thématiques ont été définis en concertation avec des experts en IA et la communauté de recherche, impliquant plus de 50 équipes françaises réparties sur tout le territoire, favorisant ainsi une dynamique nationale de recherche.

Bruno Bonnell, secrétaire général du plan d’investissement (SGPI), chargé de piloter France 2030, explique :

“Le choix des axes de ce programme repose sur les avantages compétitifs sur lesquels la France peut assurer un leadership avéré. Ce sont surtout les socles sur lesquels reposent les percées technologiques qui façonneront l’IA de demain. Comme pour tous les PEPR, on confie aux pilotes des programmes de recherche eux-mêmes le soin de fédérer leur communauté, autour d’actions « dirigées » et d’excellence scientifique. Ainsi l’Etat oriente, mais fait confiance aux acteurs de la recherche eux-mêmes, aux chercheurs et aux enseignants chercheurs, pour faire avancer la discipline, la recherche, et à terme, ses conséquences pour l’industrie et pour le pays tout entier”. 

Le CEA, le CNRS et Inria annoncent le lancement du PEPR Intelligence artificielle

L’ONU adopte une résolution historique sur l’intelligence artificielle

C’est sans vote que le projet de résolution présenté par les États-Unis visant à promouvoir des systèmes d’intelligence artificielle “sûrs, sécurisés et dignes de confiance”, bénéficiant au développement durable pour tous, a été adopté jeudi dernier par l’Assemblée générale des Nations Unies. 

Coparrainée et soutenue par 124 autres États membres, la résolution avait été présentée la semaine précédente à la presse internationale par l’ambassadrice représentante permanente des Etats Unis auprès de l’ONU, Linda Thomas Greenfield et son homologue marocain Omar Hilale.

Elle appelle les États membres à promouvoir des systèmes d’IA sûrs, sécurisés et fiables pour relever les plus grands défis mondiaux, notamment ceux liés à la pauvreté, la sécurité alimentaire, la santé, l’éducation, l’énergie, et au changement climatique.

Il y a un peu plus d’un an, Volker Türk le Haut-Commissaire de l’ONU aux droits de l’Homme les avait alertés, réclamant la mise en place de garde-fous efficaces​ :

“Les récentes avancées en matière d’intelligence artificielle représentent une grave menace pour les droits humains“.

Cette résolution est présentée comme historique puisque c’est la première fois que les 193 États membres de l’ONU s’entendent pour que les systèmes d’IA soient développés et utilisés dans le respect, la protection et la promotion des droits de l’homme et ce, à l’unanimité.

L’Assemblée générale a également reconnu le potentiel des systèmes d’IA pour accélérer et permettre les progrès vers la réalisation des 17 objectifs de développement durable (ODD).

Les mêmes droits pour tous, en ligne et hors ligne

L’Assemblée générale a appelé tous les États membres et parties prenantes “à s’abstenir ou à cesser d’utiliser des systèmes d’intelligence artificielle qui sont impossibles à exploiter conformément au droit international des droits humains ou qui présentent des risques indus pour la jouissance des droits humains”.

Elle affirme :

“Les mêmes droits dont jouissent les personnes hors ligne doivent également être protégés en ligne, y compris tout au long du cycle de vie des systèmes d’intelligence artificielle”.

L’Assemblée a exhorté tous les États, le secteur privé, la société civile, les organismes de recherche et les médias à élaborer et à soutenir des approches et des cadres de réglementation et de gouvernance liés à une utilisation sûre, sécurisée et fiable de l’IA. Elle les a également incités à coopérer avec les pays en développement et à les soutenir afin qu’ils puissent bénéficier d’un accès inclusif et équitable, réduire la fracture numérique et accroître la culture numérique.

Linda Thomas Greenfield espère que l’adoption de la résolution sera utile à d’autres secteurs, elle a notamment exprimé le souhait que “le dialogue inclusif et constructif qui a conduit à cette résolution serve de modèle pour les conversations futures sur les défis de l’IA dans d’autres domaines, par exemple en ce qui concerne la paix et la sécurité et l’utilisation militaire responsable de l’autonomie de l’IA”.

Concluant :

Aujourd’hui, les 193 membres de l’Assemblée générale des Nations Unies ont parlé d’une seule voix et ont choisi ensemble de gouverner l’intelligence artificielle plutôt que de la laisser nous gouverner”.

ONU-adopte-resolution-historique-ia

Confiance.ai ouvre ses outils et présente ses perspectives au delà du programme

Le 7 mars dernier, lors du Confiance.ai Day 2024, le collectif a annoncé l’ouverture aux communautés scientifiques et industrielles de la méthodologie mise au point ainsi que des composants open source associés. Alors que le programme doit s’achever cette année, les partenaires ont décidé de se concentrer sur l’approfondissement, la pérennisation et l’industrialisation des résultats obtenus. Ils ont également l’intention de créer une fondation afin de fédérer un ensemble d’acteurs à l’échelle internationale autour d’une feuille de route commune.

Confiance.ai, le plus gros programme de recherche technologique du plan #AIforHumanity, est une initiative majeure qui vise à renforcer le leadership technologique des entreprises françaises dans le domaine de l’IA industrielle. Lancé en 2021 dans le cadre de la Stratégie nationale pour l’intelligence artificielle financée par France 2030, il s’est concentré sur le développement d’une méthodologie de bout en bout et d’une série de composants technologiques open source pour intégrer des IA de confiance dans des systèmes industriels critiques, accessibles sur https://bok.confiance.ai/.

La méthodologie développée offre un guide complet, permettant aux industriels de caractériser et de qualifier la confiance des systèmes intelligents dirigés par les données, et ce, dans n’importe quel secteur d’activité.

Ses 126 composants ont été regroupés en neuf ensembles fonctionnels correspondant à des processus d’ingénierie bien précis : ingénierie de bout en bout, gestion du cycle de vie de la donnée, gestion du cycle de vie des modèles et des composants, évaluation des composants d’IA, déploiement des composants IA, gestion des systèmes d’IA en opération, robustesse, explicabilité et quantification de l’incertitude.

Des secteurs clés tels que l’automobile, l’aéronautique, l’énergie et la défense ont déjà bénéficié des avancées de Confiance.ai. Des entreprises du collectif ont mis en œuvre ces nouvelles méthodologies : elles ont permis à Air Liquide d’améliorer la précision des modèles d’IA pour la gestion de l’inventaire, à Thales de valider et de monitorer les performances des algorithmes de détection d’objets, et à Renault Group de vérifier la qualité des soudures sur ses véhicules.

Confiance.ai, moteur du développement de l’écosystème mondial de l’IA de confiance

Précurseur dans le domaine de l’IA de confiance, en plus de son impact sur l’industrie française, Confiance.ai joue un rôle moteur dans la construction d’un écosystème mondial de l’IA de confiance, en établissant des partenariats avec des initiatives similaires à l’étranger. Il a notamment signé un MoU (Memorandum of Understanding) avec le programme Confiance IA au Québec et en Allemagne avec VDE, l’une des plus importantes organisations technologiques d’Europe.

Juliette Mattioli, Présidente du comité de pilotage de Confiance.ai et Expert sénior en Intelligence Artificielle chez Thales, commente :

“Nous nous sommes attaqués à une problématique particulièrement complexe et ambitieuse. Les résultats obtenus sont en ligne avec nos objectifs et remarquables à plusieurs égards. Tout d’abord, sur le plan humain, nous sommes parvenus à faire collaborer un écosystème hybride composé d’industriels, de scientifiques, de data scientists, d’ingénieurs, etc. Nous avons également relevé un grand nombre de défis scientifiques et technologiques – plus que nous l’avions imaginé – et nous avons été moteur dans de nombreuses d’initiatives au niveau international. Une véritable communauté mondiale autour de l’IA de confiance est en train d’émerger”. 

De nouveaux projets en ligne de mire

Alors que le programme Confiance.ai se terminera fin 2024, les partenaires se projettent déjà vers l’avenir. Leurs ambitions se concentrent sur trois axes principaux : approfondir, pérenniser et industrialiser.

Fabien Mangeant, Président du comité de direction de Confiance.ai et Directeur Scientifique Digital d’Air Liquide, explique :

“Il reste encore de nombreux défis scientifiques et technologiques à relever pour que la France maintienne son avance dans le domaine et nous sommes en train de les répertorier. Les sujets du transfert et de la valorisation de nos travaux sont des chantiers prioritaires, tout comme la résolution de nouveaux verrous scientifiques et technologiques”.

Les partenaires du programme ont identifié plusieurs problématiques pour lesquelles il serait opportun de lancer de nouveaux projets de recherche et technologie (R&T), notamment l’IA hybride, les IA génératives telles que le LLM, et la cybersécurité des IA intégrées aux systèmes critiques. Ces nouveaux projets R&T enrichiront les méthodes existantes en les adaptant à de nouveaux domaines d’application.

Un autre objectif majeur est la pérennisation et la diffusion de la méthodologie développée. Cela passe par son ouverture et par le lancement d’une initiative de fondation visant à rassembler des acteurs du monde entier autour d’une feuille de route commune. Cette fondation contribuera à maintenir ce “bien commun numérique” opérationnel et à le faire évoluer grâce aux retours d’expérience et aux propositions d’amélioration. De plus, la formation, notamment à travers le Mastère Spécialisé sur l’IA de Confiance co-conçu avec CentraleSupélec, jouera un rôle essentiel dans l’élévation de la maturité de cette méthodologie.

Enfin, la troisième ambition est l’industrialisation des résultats du programme afin de les rendre utilisables à grande échelle par les ingénieries des entreprises. Cette démarche vise à créer et à mettre à disposition des outils de compétitivité adaptés aux spécificités de chaque entreprise en matière de typologie, de données et de cas d’usage.

Confiance.ai-outils-et-perspectives-au-dela-du-programme

L’éthique au cœur de l’intelligence artificielle : un impératif pour notre société en évolution

Dans une conférence captivante lors du West Data Festival de mars 2023, Dr Tawhid CHTIOUI, Président-Fondateur d’aivancity Paris-Cachan, La Grande Ecole de l’IA et de la Data, a souligné l’importance d’intégrer des considérations éthiques dans le développement et l’usage de l’intelligence artificielle. Cette technologie en plein essor connaît une croissance vertigineuse, avec un marché mondial passant de 40 à 90 milliards de dollars dans les deux prochaines années, selon les données de Statistiqua. Toutefois, cette expansion rapide s’accompagne d’une responsabilité accrue de veiller à ce que l’IA soit utilisée de manière éthique et responsable.

Les enjeux de l’éthique de l’IA

Le défi éthique de l’IA réside principalement dans la qualité des données utilisées plutôt que dans la conception algorithmique. Le docteur propose ainsi un changement de paradigme, passant d’une logique de BIG Data à une approche plus réfléchie et ciblée, la SMART Data, qui pourrait résoudre 80 % des problèmes éthiques liés à l’IA. La gestion efficace des données est actuellement la priorité pour les entreprises. En effet, celles qui n’adopteront pas une réflexion approfondie sur la collecte, la conformité, la mise à jour et le déploiement des données, risquent d’être dépassées par l’évolution rapide de l’IA. Comprendre comment l’IA est mise en œuvre et ses implications sur la société est donc essentiel pour une adoption réussie de cette technologie émergente.

Pour développer une IA éthique, trois approches et compétences indispensables sont identifiées : l’approche technique, l’approche économique et l’approche éthique pour évaluer leurs implications. La combinaison de ces compétences est essentielle pour relever le défi complexe de concevoir une IA qui soit à la fois performante et éthique. Dr CHTIOUI souligne que toute innovation durable doit être enracinée dans la société. Il met en garde contre les dangers de sous-estimer l’importance des sciences humaines et sociales dans la formation des experts en technologie d’IA.

Principes éthiques pour une IA de confiance

Pour garantir une IA de confiance, une série de six principes éthiques fondamentaux est proposée, notamment la loyauté, l’équité, la transparence, le respect de la vie privée, la fiabilité et la sécurité. Ces principes visent à garantir que l’IA agit de manière responsable, impartiale et transparente, tout en protégeant les droits et la dignité des individus. Alors que l’IA continue de transformer nos sociétés à un rythme effréné, il est impératif que nous adoptions une approche éthique et responsable pour garantir que cette technologie bénéficie à tous, tout en respectant les valeurs et les droits fondamentaux de l’humanité.

Pour ceux qui désirent approfondir ces réflexions et rester à la pointe des dernières avancées en matière d’IA et de Data, nous vous invitons à participer au West Data Festival 2024. Du 12 au 14 mars 2024, assistez à 3 jours de festival, de conférences inspirantes, d’ateliers pratiques, de démos et de rencontres. Ne manquez pas cette occasion unique d’échanger, partager et apprendre autour de l’intelligence artificielle et des données.

Le Dr CHTIOUI, animera en particulier une conférence débat qui essayera de répondre à la question que beaucoup se pose : l’intelligence artificielle va-t-elle me prendre mon travail ?

Pour assister à la 6ème édition du West Data Festival : https://www.westdatafestival.fr/inscription-west-data-festival-2024/?utm_source=article&utm_medium=actu-IA&utm_campaign=fin-fevrier

L'éthique au cœur de l'intelligence artificielle : un impératif pour notre société en évolution
❌