Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Baromètre Impact AI : près de trois quarts des salariés français jugent nécessaire de réguler le développement de l’IA

15 janvier 2025 à 11:21

Le collectif Impact AI, en collaboration avec le cabinet d’audit et de conseil KPMG et BNP Paribas, a publié hier la première édition de son “Observatoire de l’IA responsable”. Ce rapport, réalisé avec l’institut de sondage Viavoice et le centre de prospective GCF, analyse les perceptions des salariés du secteur privé en France quant au déploiement de l’IA dans leur entreprise. 

L’IA : un atout stratégique

Plus de la moitié des salariés français (52 %) considère que l’IA joue un rôle crucial dans le développement et le rayonnement d’un pays, une proportion qui grimpe à 74 % parmi les utilisateurs réguliers de ces technologies. Pour ces derniers, les grands gagnants du développement de l’IA sont les Etats-Unis (53 %), devant la Chine (42 %), la Corée du Sud (33 %), la France (30 %)  l’UE (29 %) et Israël (29 %).

La régulation de l’IA, essentielle pour concilier innovation et éthique

Près de 75 % des salariés jugent nécessaire de réguler le développement de l’IA, 37 % « tout à fait nécessaire », 85 % des utilisateurs de l’IA sont également en faveur d’une régulation.

Les salariés expriment une préférence pour une régulation exercée par une agence internationale (30 %), 25 % penchent pour une régulation de l’état et pour 19 %, elle devrait être assumée par l’Europe. Cependant, l’AI Act suscite un accueil favorable : 57 % des salariés le considèrent comme une avancée positive, un chiffre qui atteint 75 % chez les utilisateurs d’IA.

Concernant les projets IA des entreprises, seule une minorité (10 %) place l’innovation au sommet des priorités, 36% des salariés interrogés, quelle que soit la taille de l’entreprise et le secteur d’activité, prônant un équilibre entre innovation, responsabilité et sécurité et 21 % estimant qu’il faut privilégier le respect des principes éthiques.

L’impact sur l’emploi : une préoccupation persistante

Parmi les risques identifiés, l’impact sur l’emploi arrive en tête (41 %), suivi des inquiétudes relatives à la confidentialité des données (33 %) et à une dépendance excessive à l’IA (31 %). Les salariés citent ensuite la non-conformité aux réglementations (24 %), le manque de transparence quant aux tâches réalisées par l’IA (23 %), l’amplification de stéréotypes liés à la présence de biais dans les algorithmes (17 %), les risques d’uniformisation du travail (17 %) et l’impact environnemental (11 %).

L’IA responsable : un atout éthique et un levier d’efficacité

La définition de l’IA responsable proposée aux salariés interrogés était la suivante : “une intelligence artificielle responsable est conçue pour respecter des principes éthiques, garantir la transparence et minimiser les risques potentiels, y compris les biais dans ses algorithmes. Elle favorise l’inclusion sociale et la protection des données, tout en étant capable de choix explicables. De plus, elle vise à améliorer le bien-être humain sans causer de dommages sociaux, environnementaux ou de santé”.

Pour 63 % des salariés et 83 % des utilisateurs d’IA dans le cadre professionnel, le développement d’une telle IA est essentielle ou indispensable. Pour près de 8 salariés sur 10 une IA responsable doit s’attacher au respect de l’être humain, de sa santé, de son bien-être et de ses droits. Interrogés sur les domaines où la responsabilité de l’IA devait être appliquée en priorité, les sondés citent :

  • la protection des données personnelles et sensibles (36 %) ;
  • le respect des droits fondamentaux (27 %) ;
  • l’amélioration du bien-être humain (25 %) ;
  • le respect de l’humain et de sa singularité (24 %) ;
  • le respect des principes éthiques (22 %) ;
  • la garantie de la transparence (21 %) ;
  • le respect de la santé humaine (20 %) ;
  • l’impact environnemental (17 %) ;
  •  l’explicabilité des choix (13 %) ;
  • la réduction des biais dans les algorithmes (11 %) ;
  • l’inclusion sociale (9 %).

L’IA responsable n’est pas seulement perçue comme une nécessité éthique. Pour 44 % des salariés, elle améliore l’efficacité, favorise une prise de décision optimisée (39 %) et réduit la consommation de ressources (32 %).

Une acculturation encore trop faible

Malgré l’importance accordée à l’IA responsable, 63 % des salariés ignorent les initiatives menées par leurs entreprises dans ce domaine. Seulement 9 % peuvent se référer à une charte éthique ou un interlocuteur spécialisé.

Pour accélérer cette acculturation à l’IA responsable, les salariés suggèrent qu’un certain nombre de freins soient levés, comme le manque de compétences internes, cité par 30 % des salariés, la complexité technique de l’IA (26 %), les coûts élevés de sa mise en œuvre (24 %), la résistance au changement (22 %) ou le manque d’engagement de la direction.

Christophe LIÉNARD, Président d’Impact AI, commente :

“Les conclusions de cette première édition de l’Observatoire de l’IA responsable montrent la grande sensibilité des Français aux notions d’IA responsable et d’IA éthique et vont donc nourrir les grands travaux que le collectif entend mener en 2025, avec l’impulsion de l’AI Action Summit de février : autour du travail, de la santé, de l’environnement et pour toujours plus de formation et d’appropriation de toutes et tous des outils d’IA responsable”. 

Observatoire-de-lIA-responsable-2025
  • ✇ActuIA
  • Détection de contenu généré par l’IA : Google rend son outil de filigrane de texte SynthID open source
    Google fait partie des 7 grandes entreprises de l’IA à s’être engagées à soutenir le développement d’une IA responsable, en juillet 2023, notamment à filigraner le contenu audio et visuel pour indiquer clairement que le contenu est généré par l’IA. La société vient de rendre open source SynthID-Text, afin de mettre à la disposition des développeurs et entreprises des outils de filigrane pour la génération de texte. Cette technologie est disponible via sa boîte à outils “Google Responsible Genera

Détection de contenu généré par l’IA : Google rend son outil de filigrane de texte SynthID open source

28 octobre 2024 à 09:52

Google fait partie des 7 grandes entreprises de l’IA à s’être engagées à soutenir le développement d’une IA responsable, en juillet 2023, notamment à filigraner le contenu audio et visuel pour indiquer clairement que le contenu est généré par l’IA. La société vient de rendre open source SynthID-Text, afin de mettre à la disposition des développeurs et entreprises des outils de filigrane pour la génération de texte. Cette technologie est disponible via sa boîte à outils “Google Responsible Generative AI Toolkit”.

La détection de contenu généré par IA est essentielle pour lutter contre la désinformation et les deepfakes, mais la tâche reste complexe. D’ailleurs, Google reconnaît que SynthID n’est pas parfait.

Initialement, SynthID a été développé par Google DeepMind et amélioré en collaboration avec Google Research pour évaluer la probabilité qu’une image ait été créée par Imagen. Il permet d’intégrer le filigrane numérique directement dans les pixels d’une image, le rendant invisible à l’œil nu et très difficile à falsifier sans endommager l’image. Le filigrane résiste aux modifications courantes (recadrage, filtres, compression), assurant ainsi une traçabilité même après des changements mineurs.

L’outil, qui permet aujourd’hui de détecter le contenu généré par l’IA que ce soit du texte, de la musique, des images ou des vidéos, a ensuite été étendu au filigrane et à l’identification du texte généré par Gemini.

Comment SynthID-Text fonctionne-t-il ?

SynthID-Text utilise des modèles de deep learning pour intégrer un filigrane imperceptible directement dans le processus de génération de texte.

Lorsqu’un LLM génère du texte, il décompose ce texte en jetons (mots, phrases, etc.) et prédit quel jeton est le plus susceptible d’en suivre un autre, un jeton à la fois.

SynthID ajuste subtilement les scores de probabilité des jetons lors de leur sélection, ajoutant des informations de marquage sans altérer la qualité, la lisibilité ou la créativité du texte. Ces ajustements discrets rendent le filigrane difficile à retirer sans compromettre l’intégrité du contenu généré.

Les développeurs et les entreprises peuvent également l’utiliser pour scanner un texte afin de rechercher des filigranes numériques et déterminer si le contenu, ou une partie de celui-ci, a été généré par l’IA.

Crédit Google : Un morceau de texte généré par Gemini avec le filigrane surligné en bleu.

Avantages et limites

Google prévient que SynthID n’est pas une solution miracle pour identifier le contenu généré par l’IA, mais constitue un élément important pour développer des outils d’identification de l’IA plus fiables. S’il s’agit d’un outil autonome, il peut aussi être combiné avec d’autres méthodes de détection, ce qui améliore la couverture sur différents types de contenu et plateformes.

On peut l’utiliser pour un texte contenant au minimum trois phrases, mais il est plus performant sur des textes plus longs. Il fonctionne particulièrement bien pour les contenus générés en réponse à des invites créatives, telles que des essais, des scénarios ou des e-mails, car ces formats offrent davantage de possibilités de marquage discret.

Cette technique résiste aussi à certaines modifications mineures, comme le recadrage de segments de texte, le remplacement de quelques mots ou une légère paraphrase. Cependant, ses performances sont limitées pour les réponses très factuelles, où peu de variation est attendue, car les ajustements de jetons pourraient compromettre l’exactitude des réponses. La fiabilité du score de confiance diminue également lorsque le texte est complètement réécrit ou traduit.

Google souligne que, bien que SynthID puisse compliquer l’utilisation malveillante du contenu généré par l’IA, il ne constitue pas une protection contre les adversaires sophistiqués, comme les cyberattaquants, qui pourraient contourner ces techniques.

Il est possible de l’essayer sur Hugging Face.

Détection de contenu généré par l'IA : Google rend son outil de filigrane de texte SynthID open source
  • ✇ActuIA
  • Gemma 2 2B, ShieldGemma, Gemma Scope : Google poursuit son engagement envers une IA responsable
    Google a pris initialement du retard dans la course à la GenAI, craignant que sa réputation ne soit entachée par une IA générative aux déclarations trompeuses, biaisées ou toxiques. Depuis, il a mis les bouchées doubles avec Bard, PaLM 2, les modèles Gemini et les modèles ouverts de la famille Gemma publiée avec des conditions d’utilisation qui visent à promouvoir une utilisation responsable et à éviter les abus. L’entreprise poursuit sa stratégie d’IA responsable avec l’introduction de Gemma 2

Gemma 2 2B, ShieldGemma, Gemma Scope : Google poursuit son engagement envers une IA responsable

6 août 2024 à 09:30

Google a pris initialement du retard dans la course à la GenAI, craignant que sa réputation ne soit entachée par une IA générative aux déclarations trompeuses, biaisées ou toxiques. Depuis, il a mis les bouchées doubles avec Bard, PaLM 2, les modèles Gemini et les modèles ouverts de la famille Gemma publiée avec des conditions d’utilisation qui visent à promouvoir une utilisation responsable et à éviter les abus. L’entreprise poursuit sa stratégie d’IA responsable avec l’introduction de Gemma 2 2B, ShieldGemma et Gemma Scope.

Gemma 2 : la nouvelle référence de l’IA ouverte

Le 27 juin dernier, Google lançait les premiers modèles Gemma 2 dans des tailles de paramètres de 9 milliards (9B) et 27 milliards (27B), plus performants et plus efficaces en matière d’inférence que la première génération, avec des avancées significatives en matière de sécurité intégrées. Gemma 2 27B est aujourd’hui l’un des modèles les mieux classés dans le classement LMSYS Chatbot Arena, surpassant des modèles deux fois plus grands dans des interactions réelles.

Les trois nouveaux ajouts à la famille Gemma 2, renforçant son engagement envers une IA responsable, ont été présentés par Google dans le blog intitulé : “Plus petite, plus sûre, plus transparente : faire progresser l’IA responsable avec Gemma”.

Gemma 2 2B : performances de nouvelle génération

Gemma 2 2B, entraîné sur un ensemble de données textuelles comptant 2000 milliards de jetons provenant de documents web, de mathématiques et de code, offre des résultats impressionnants grâce à la distillation de connaissances à partir de modèles plus grands.

Comme on peut le voir ci-dessus, il surpassait le 31 juillet dernier non seulement Gemma 7B, le modèle le plus grand de la génération précédente, mais également Mixtral 8x7B Instruct, les modèles GPT-3.5 et Llama 2 70B sur la plateforme Chatbot Arena. Le système de classement Elo permet de mesurer les performances des LLMs en fonction de leurs interactions les uns avec les autres.

Gemma 2 2B est optimisé pour des déploiements flexibles et rentables. Il peut fonctionner efficacement sur divers matériels, allant des appareils de périphérie aux déploiements cloud robustes via Vertex AI et Google Kubernetes Engine (GKE). En outre, il s’intègre de manière transparente à des outils populaires tels que Keras, JAX, Hugging Face, NVIDIA NeMo, et prochainement à MediaPipe.

Il est possible de télécharger les poids de Gemma 2 sur KaggleHugging FaceVertex AI Model Garden et de tester ses capacités dans Google AI Studio.

ShieldGemma : des classificateurs de sécurité de pointe

Pour assurer des interactions sûres et inclusives avec l’IA, Google introduit ShieldGemma, une série de classificateurs de sécurité conçus pour détecter et atténuer les contenus nuisibles. Ces classificateurs ciblent quatre domaines principaux : discours de haine, harcèlement, contenu sexuellement explicite et contenu dangereux. Disponible en tailles de modèles variées (2B, 9B, et 27B), ShieldGemma offre des solutions adaptées pour des tâches de classification en ligne et hors ligne.

Explorer ShieldGemma.

Gemma Scope : transparence et interprétabilité

Gemma Scope est un outil qui offre une transparence sans précédent sur les processus décisionnels des modèles d’IA. Utilisant des autoencodeurs épars (SAE), Gemma Scope permet aux chercheurs et développeurs de comprendre en profondeur comment Gemma 2 identifie les motifs, traite les informations et fait des prédictions. Avec plus de 400 SAEs disponibles couvrant toutes les couches des modèles Gemma 2 2B et 9B, Gemma Scope facilite l’exploration interactive des fonctionnalités des modèles sur Neuronpedia, sans nécessiter de code.

Essayez Gemma Scope sur Neuronpedia pour explorer le fonctionnement interne de Gemma 2.

Gemma 2 2B, ShieldGemma, Gemma Scope Google poursuit son engagement envers une IA responsable
  • ✇ActuIA
  • Impact AI renouvelle son conseil d’administration, Christophe Liénard réélu président
    Créé en 2018, Impact AI est un collectif de réflexion et d’action dont l’ambition est d’éclairer les enjeux éthiques et sociétaux de l’intelligence artificielle et de soutenir des projets innovants et positifs pour le monde de demain. Il a récemment réélu son conseil d’administration pour la période 2024-2026, Christophe Liénard, conserve son poste de président. Ce think and do tank compte aujourd’hui plus de 80 membres, grandes entreprises, ESN, sociétés de conseils, acteurs de l’IA, start-ups

Impact AI renouvelle son conseil d’administration, Christophe Liénard réélu président

24 juillet 2024 à 11:00

Créé en 2018, Impact AI est un collectif de réflexion et d’action dont l’ambition est d’éclairer les enjeux éthiques et sociétaux de l’intelligence artificielle et de soutenir des projets innovants et positifs pour le monde de demain. Il a récemment réélu son conseil d’administration pour la période 2024-2026, Christophe Liénard, conserve son poste de président.

Ce think and do tank compte aujourd’hui plus de 80 membres, grandes entreprises, ESN, sociétés de conseils, acteurs de l’IA, start-ups et écoles. Il vise à créer une approche de l’IA responsable et inclusive, qui réponde aux besoins et attentes des citoyens et à se positionner comme un acteur de référence pour l’utilisation responsable de l’IA en Europe.

La nouvelle gouvernance assurera le bon déroulement des travaux menés durant les deux prochaines années. Ces travaux, incluant fiches pratiques, ateliers interactifs, formations spécialisées, observatoire dédié pour mesurer la perception et l’adoption de l’IA en France… seront alignés sur les enjeux cruciaux du prochain Sommet pour l’action sur L’IA.

Après les Sommets de Bletchley Park de novembre 2023 au Royaume-uni et de Séoul de mai 2024 en Corée du Sud, la France sera l’hôte de la 3ème édition les 10 et 11 février 2025. Cinq thèmes essentiels seront abordés : l’IA d’intérêt public, l’avenir du travail, l’innovation et la culture, la sécurité et la sûreté, ainsi que la gouvernance internationale de l’IA.

Composition du conseil d’administration

Président 

Christophe Lienard, Directeur central de l’Innovation, Bouygues


Vice-Présidents

Hélène Chinal, Executive Vice-Président, directrice de la transformation Europe du Sud, Capgemini

Albert Meige, Directeur associé, Arthur D. Little

Agnès Van De Walle, GM Industry, MICROSOFT

Trésorier

Nicolas Marescaux, Directeur adjoint Réponses Besoins Sociétaires et Innovation, MACIF


Ainsi que :

Marcin Detyniecki, Group Chief Data Scientist, AXA

Ingrid Dufour Bonami, Medical Digital Lead EMEA, Bayer

Denis Gomez, Directeur de projets Innovation Sociétale, Orange

Albane Liger-Belair, Chief Innovation Officer, KPMG

Guy Mamou-Mani, Co-Fondateur, Open

Thierry Taboy, Référent fédéral IA, CFE CGC

Ariane Thomas, Group Tech Director of sustainability and trustworthy AI Lead, L’Oreal

Christophe Liénard, Président d’Impact AI, affirme

“J’ai toute confiance en notre nouveau Conseil d’Administration pour coordonner les ambitieux travaux qui seront menés en concertation par nos équipes de bénévoles experts sur les grands sujets qui structureront l’AI Summit de février 2025. L’avenir du travail, l’IA de confiance, la gouvernance internationale et l’intérêt général sont autant de thèmes pour lesquels Impact AI apportera sa contribution avec, toujours, l’angle de l’IA responsable”.

Impact AI renouvelle son conseil d'administration, Christophe Liénard réélu président
  • ✇ActuIA
  • Sommet AI for Good : “Cette fracture numérique et technologique n’est plus acceptable”
    L’UIT, institution spécialisée des Nations Unies pour les technologies de l’information et de la communication, organise chaque année, conjointement avec le Gouvernement suisse, le Sommet mondial sur l’intelligence artificielle au service du bien social avec 40 institutions des Nations Unies partenaires. L’évènement, ouvert gratuitement au grand public, a attiré des milliers de participants venus de tous horizons pour discuter des moyens par lesquels l’IA peut contribuer aux Objectifs de Dévelop

Sommet AI for Good : “Cette fracture numérique et technologique n’est plus acceptable”

3 juin 2024 à 09:30

L’UIT, institution spécialisée des Nations Unies pour les technologies de l’information et de la communication, organise chaque année, conjointement avec le Gouvernement suisse, le Sommet mondial sur l’intelligence artificielle au service du bien social avec 40 institutions des Nations Unies partenaires. L’évènement, ouvert gratuitement au grand public, a attiré des milliers de participants venus de tous horizons pour discuter des moyens par lesquels l’IA peut contribuer aux Objectifs de Développement Durable des Nations Unies et aider à résoudre certains des défis mondiaux.

Lancé en 2017 par l’Union internationale des télécommunications (UIT), le sommet AI for Good est devenu une véritable vitrine des technologies de pointe. Les visiteurs ont pu y découvrir des robots alimentés par l’IA, des outils contrôlés par le cerveau, des solutions d’IA générative et d’autres innovations technologiques qui forment l’épine dorsale de l’écosystème mondial de l’IA.

En plus des interventions de spécialistes reconnus de l’IA, comme Geoffrey Hinton, l’un des pionniers de l’IA et du deep learning, le Sommet de cette année a proposé des masterclasses d’apprentissage automatique, animées par des experts pour les experts, sur des thèmes allant des deepfakes aux changements climatiques en passant par les interfaces cerveau-machine, l’utilisation de l’IA pour les services publics, l’IA explicable et l’apprentissage automatique dans les réseaux de communication.

Un sommet résolument centré sur l’humain

Lors de l’ouverture du sommet, Doreen Bogdan-Martin, Secrétaire générale de l’UIT, a mis en avant le potentiel transformateur de l’IA tout en soulignant la nécessité d’une gouvernance inclusive et sécurisée. “L’intelligence artificielle est en train de changer notre monde et nos vies” a-t-elle déclaré, tout en rappelant qu’un tiers de la population mondiale reste déconnecté d’Internet et exclu de la révolution de l’IA.

Elle a insisté sur l’urgence de combler cette fracture numérique et technologique, qui affecte 2,6 milliards de personnes dans le monde. “Cette fracture numérique et technologique n’est plus acceptable“, a affirmé Mme Bogdan-Martin, appelant à une action collective pour garantir un accès équitable à l’IA, condition indispensable à un progrès inclusif.

Les piliers d’une IA responsable

Pour atteindre cet objectif, l’UIT a identifié trois piliers essentiels : la gestion des risques et de la sécurité, le développement des infrastructures et des ressources, et la collaboration internationale. Mme Bogdan-Martin a salué les initiatives telles que la résolution historique de l’Assemblée générale des Nations Unies visant à promouvoir des systèmes d’IA dignes de confiance, ainsi que la collaboration de l’UIT avec l’UNESCO pour appliquer les lois existantes à l’IA.

Des innovations inspirantes

Le sommet a également mis en lumière des exemples inspirants d’innovations, comme la start-up pakistanaise Bioniks, qui développe des membres bioniques contrôlés par le cerveau, et Ultrasound AI, une initiative américaine dirigée par des femmes, qui améliore les soins prénataux. Anas Niaz, fondateur de Bioniks, a expliqué que son objectif est de rendre les prothèses abordables et accessibles grâce à des technologies simples et économiques, précisant “Vous pouvez envoyer les mesures par téléphone mobile, et nous vous livrons vos prothèses à votre porte”.

Lutter contre la désinformation

En cette année électorale, marquée par plus de 60 élections à travers le monde, Mme Bogdan-Martin a mis en garde contre les menaces que représentent les deepfakes et la désinformation. Elle a annoncé l’engagement de l’UIT à élaborer des normes solides pour le filigrane de l’IA et la vérification du contenu numérique, soulignant que ces normes sont essentielles pour instaurer la confiance et garantir une IA responsable.

Un appel à l’action mondiale

Le Secrétaire général des Nations Unies, António Guterres, a également souligné le potentiel de l’IA pour faire progresser le développement durable. Dans son message vidéo, il a insisté sur la nécessité d’une gouvernance responsable pour maximiser les bénéfices de l’IA tout en minimisant ses risques, comme les préjugés et la désinformation. Il a également mis en avant les multiples applications de l’IA, allant de l’éducation aux soins de santé, en passant par l’agriculture et la gestion des catastrophes.

Le Sommet mondial sur l’IA pour le bien est un appel à l’action pour la communauté mondiale. Il souligne l’importance de s’engager dans une utilisation sûre, inclusive et bénéfique de l’intelligence artificielle, rappelant que l’avenir de l’IA dépend de notre capacité à la gouverner de manière responsable. Comme l’a souligné Mme Bogdan-Martin, “n’oublions pas que l’avenir ne commence pas avec les algorithmes, mais avec nous, ici même, dans notre cerveau, l’ordinateur le plus complexe et le plus puissant que le monde n’ait jamais connu”.

Sommet AI for Good Cette fracture numérique et technologique n'est plus acceptable
  • ✇Intelligence artificielle
  • La base de données des incidents d’IA – Bugs, dérapages et leçons à tirer
    Pendant qu’une utopie où les véhicules autonomes, les assistants virtuels et les systèmes de recommandation se profile à l’horizon, force est de constater que l’intelligence artificielle n’en est encore qu’à ses balbutiements. La promesse d’un monde meilleur se heurte à la dure réalité des incidents causés par ces systèmes dits « intelligents », déployés trop rapidement dans notre environnement. C’est là qu’intervient la base de données des incidents d’IA (AIID), véritable mémoire collectiv

La base de données des incidents d’IA – Bugs, dérapages et leçons à tirer

Par : Korben
22 avril 2024 à 09:00

Pendant qu’une utopie où les véhicules autonomes, les assistants virtuels et les systèmes de recommandation se profile à l’horizon, force est de constater que l’intelligence artificielle n’en est encore qu’à ses balbutiements. La promesse d’un monde meilleur se heurte à la dure réalité des incidents causés par ces systèmes dits « intelligents », déployés trop rapidement dans notre environnement.

C’est là qu’intervient la base de données des incidents d’IA (AIID), véritable mémoire collective répertoriant les bugs, plantages et autres dérapages de l’IA lorsqu’elle est lâchée dans la nature. Tel un Guinness Book des foirages technologiques, elle recense déjà plus de 1000 cas, des plus anodins aux plus tragiques :

  • – un taxi sans chauffeur Waymo qui emboutit un cycliste en plein San Francisco
  • – un deepfake audio d’Imran Khan appelant au boycott des élections au Pakistan pour tromper les électeurs
  • – de fausses images de Donald Trump entouré d’électeurs noirs générées par IA pour influencer le vote des afro-américains
  • – et le pire de tous (ou pas) : des collégiens de Beverly Hills qui créent de fausses photos dénudées de leurs camarades grâce à l’IA !

Bref, c’est la foire aux casseroles dans le merveilleux monde de l’IA et il était temps que quelqu’un dresse l’inventaire de ces dérapages en tout genre. Mais au-delà du simple folklore, la mission de l’AIID est d’apprendre de ces échecs pour bâtir des IA plus sûres, à l’image de ce qui se fait dans l’aéronautique ou la cybersécurité.

La base s’enrichit chaque jour grâce aux signalements de la communauté. Chacun peut ainsi apporter sa pierre à l’édifice en soumettant de nouveaux incidents, triés et classés pour en dégager des tendances. L’idée est d’arriver à une définition partagée de ce qu’est un « incident d’IA » et d’en tirer des leçons pour l’avenir.

Car n’en déplaise à Elon Musk ou à Mark Zuckerberg, le futur de l’IA ne se fera pas sans règles ni garde-fous. Pour que la révolution intelligente profite au plus grand nombre, elle doit impérativement s’accompagner d’une démarche éthique et responsable. C’est précisément la mission du Responsible AI Collaborative, l’organisation derrière l’AIID, qui rassemble chercheurs, entrepreneurs et experts du monde entier.

D’ailleurs, vous aussi, vous pouvez contribuer ! Et ils ont de grandes ambitions puisque la prochaine étape sera d’intégrer les incidents dans des outils de test pour reproduire les scénarios à risque et s’entraîner à y faire face. Une sorte de « crash test » géant pour IA en quelque sorte !

À terme, l’objectif est de faire de l’AIID un outil incontournable pour tous les acteurs de l’écosystème : Chercheurs, régulateurs, industriels… Car ne nous y trompons pas, la course à l’IA ne fait que commencer et les incidents risquent de se multiplier si nous n’y prenons pas garde.

D’ici là, votre mission si vous l’acceptez sera de garder un oeil sur ce grand capharnaüm de l’IA et de signaler sans relâche les anomalies que vous constaterez ! Car après tout, la sécurité de ces systèmes est l’affaire de tous et rien ne vaut la vigilance humaine pour déjouer les bugs les plus retors.

❌
❌