Vue normale
-
Les Temps Électriques
-
Revue des principaux instruments juridiques et documents internationaux, régionaux et nationaux applicables à l’intelligence artificielle
La revue des instruments et documents réalisée ci-après ne concerne que les principaux textes internationaux, régionaux et nationaux directement attachés à l’IA. Les autres textes, applicables à l’IA mais non directement concernés (comme le RGPD) ou applicables à l’IA mais avec une portée moindre, ont été exclus de cette revue. Par instances Instances Document Année… Plus...
-
ActuIA

-
Baromètre Impact AI : près de trois quarts des salariés français jugent nécessaire de réguler le développement de l’IA
Le collectif Impact AI, en collaboration avec le cabinet d’audit et de conseil KPMG et BNP Paribas, a publié hier la première édition de son “Observatoire de l’IA responsable”. Ce rapport, réalisé avec l’institut de sondage Viavoice et le centre de prospective GCF, analyse les perceptions des salariés du secteur privé en France quant au déploiement de l’IA dans leur entreprise. L’IA : un atout stratégique Plus de la moitié des salariés français (52 %) considère que l’IA joue un rôle crucial dan
Baromètre Impact AI : près de trois quarts des salariés français jugent nécessaire de réguler le développement de l’IA
Le collectif Impact AI, en collaboration avec le cabinet d’audit et de conseil KPMG et BNP Paribas, a publié hier la première édition de son “Observatoire de l’IA responsable”. Ce rapport, réalisé avec l’institut de sondage Viavoice et le centre de prospective GCF, analyse les perceptions des salariés du secteur privé en France quant au déploiement de l’IA dans leur entreprise.
L’IA : un atout stratégique
Plus de la moitié des salariés français (52 %) considère que l’IA joue un rôle crucial dans le développement et le rayonnement d’un pays, une proportion qui grimpe à 74 % parmi les utilisateurs réguliers de ces technologies. Pour ces derniers, les grands gagnants du développement de l’IA sont les Etats-Unis (53 %), devant la Chine (42 %), la Corée du Sud (33 %), la France (30 %) l’UE (29 %) et Israël (29 %).
La régulation de l’IA, essentielle pour concilier innovation et éthique
Près de 75 % des salariés jugent nécessaire de réguler le développement de l’IA, 37 % « tout à fait nécessaire », 85 % des utilisateurs de l’IA sont également en faveur d’une régulation.
Les salariés expriment une préférence pour une régulation exercée par une agence internationale (30 %), 25 % penchent pour une régulation de l’état et pour 19 %, elle devrait être assumée par l’Europe. Cependant, l’AI Act suscite un accueil favorable : 57 % des salariés le considèrent comme une avancée positive, un chiffre qui atteint 75 % chez les utilisateurs d’IA.
Concernant les projets IA des entreprises, seule une minorité (10 %) place l’innovation au sommet des priorités, 36% des salariés interrogés, quelle que soit la taille de l’entreprise et le secteur d’activité, prônant un équilibre entre innovation, responsabilité et sécurité et 21 % estimant qu’il faut privilégier le respect des principes éthiques.
L’impact sur l’emploi : une préoccupation persistante
Parmi les risques identifiés, l’impact sur l’emploi arrive en tête (41 %), suivi des inquiétudes relatives à la confidentialité des données (33 %) et à une dépendance excessive à l’IA (31 %). Les salariés citent ensuite la non-conformité aux réglementations (24 %), le manque de transparence quant aux tâches réalisées par l’IA (23 %), l’amplification de stéréotypes liés à la présence de biais dans les algorithmes (17 %), les risques d’uniformisation du travail (17 %) et l’impact environnemental (11 %).
L’IA responsable : un atout éthique et un levier d’efficacité
La définition de l’IA responsable proposée aux salariés interrogés était la suivante : “une intelligence artificielle responsable est conçue pour respecter des principes éthiques, garantir la transparence et minimiser les risques potentiels, y compris les biais dans ses algorithmes. Elle favorise l’inclusion sociale et la protection des données, tout en étant capable de choix explicables. De plus, elle vise à améliorer le bien-être humain sans causer de dommages sociaux, environnementaux ou de santé”.
Pour 63 % des salariés et 83 % des utilisateurs d’IA dans le cadre professionnel, le développement d’une telle IA est essentielle ou indispensable. Pour près de 8 salariés sur 10 une IA responsable doit s’attacher au respect de l’être humain, de sa santé, de son bien-être et de ses droits. Interrogés sur les domaines où la responsabilité de l’IA devait être appliquée en priorité, les sondés citent :
- la protection des données personnelles et sensibles (36 %) ;
- le respect des droits fondamentaux (27 %) ;
- l’amélioration du bien-être humain (25 %) ;
- le respect de l’humain et de sa singularité (24 %) ;
- le respect des principes éthiques (22 %) ;
- la garantie de la transparence (21 %) ;
- le respect de la santé humaine (20 %) ;
- l’impact environnemental (17 %) ;
- l’explicabilité des choix (13 %) ;
- la réduction des biais dans les algorithmes (11 %) ;
- l’inclusion sociale (9 %).
L’IA responsable n’est pas seulement perçue comme une nécessité éthique. Pour 44 % des salariés, elle améliore l’efficacité, favorise une prise de décision optimisée (39 %) et réduit la consommation de ressources (32 %).
Une acculturation encore trop faible
Malgré l’importance accordée à l’IA responsable, 63 % des salariés ignorent les initiatives menées par leurs entreprises dans ce domaine. Seulement 9 % peuvent se référer à une charte éthique ou un interlocuteur spécialisé.
Pour accélérer cette acculturation à l’IA responsable, les salariés suggèrent qu’un certain nombre de freins soient levés, comme le manque de compétences internes, cité par 30 % des salariés, la complexité technique de l’IA (26 %), les coûts élevés de sa mise en œuvre (24 %), la résistance au changement (22 %) ou le manque d’engagement de la direction.
Christophe LIÉNARD, Président d’Impact AI, commente :
“Les conclusions de cette première édition de l’Observatoire de l’IA responsable montrent la grande sensibilité des Français aux notions d’IA responsable et d’IA éthique et vont donc nourrir les grands travaux que le collectif entend mener en 2025, avec l’impulsion de l’AI Action Summit de février : autour du travail, de la santé, de l’environnement et pour toujours plus de formation et d’appropriation de toutes et tous des outils d’IA responsable”.

-
ActuIA

-
Pleias : des modèles de langages ouverts pour une IA éthique et transparente
Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière de transparence, d’éthique et de conformité. Ces modèles compacts, qui s’appuient exclusivement sur des données ouvertes, démontrent que performance technologique, respect du droit d’auteur et open source peuvent aller de pair. Pleias est une start-up parisienne créée en décembre 2023 par Pierre-Carl Langlais, Ivan Yamschikov et Anastasi
Pleias : des modèles de langages ouverts pour une IA éthique et transparente
- Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière de transparence, d’éthique et de conformité. Ces modèles compacts, qui s’appuient exclusivement sur des données ouvertes, démontrent que performance technologique, respect du droit d’auteur et open source peuvent aller de pair.
Pleias est une start-up parisienne créée en décembre 2023 par Pierre-Carl Langlais, Ivan Yamschikov et Anastasia Stasenko. Ses modèles sont élaborés à partir du Common Corpus, un ensemble de données multilingues unique par son ampleur et son ouverture. Ce corpus, qu’elle a publié le 13 novembre dernier, disponible sur HuggingFace, a été soutenu par la start-up d’état Langu:IA, un projet du ministère de la Culture et la DINUM, dans le cadre de la préfiguration de l’offre de services de l’Alliance pour les technologies du langage EDIC (ALT-EDIC).
Son développement a réuni un consortium exceptionnel de partenaires, dont le cluster de supercalculateurs Jean-Zay (Genci, Idris, Eviden), NVIDIA, TractoAI, Wikimedia Entreprise. Il a également bénéficié du soutien de grandes organisations open-source, dont la Mozilla Foundation, l’AI Alliance et Eleuther AI, renforçant son engagement envers la science ouverte et l’innovation collaborative.
Comptant plus de 2 000 milliards de tokens, le Common Corpus est le plus grand ensemble de données d’entraînement pour les LLMs exclusivement composé de textes appartenant au domaine public.
Il se distingue par plusieurs caractéristiques fondamentales :
- Véritablement ouvert : toutes les données incluses sont sous licences permissives, garantissant une utilisation en conformité avec les droits d’auteur ;
- Multilingue et diversifié : plus de 30 langues sont représentées, notamment l’anglais (808 milliards de tokens) et le français (266 milliards), ainsi que des langues comme l’espagnol, l’italien et le néerlandais. Les sources incluent des articles académiques, des textes juridiques, du contenu culturel et du code open source ;
- Qualité optimisée : les contenus ont été rigoureusement filtrés pour éliminer les données nuisibles ou de faible valeur informative.
Une suite adaptée aux besoins européens
Pleias présente trois modèles qui sont, de par leurs données d’entraînement, entièrement conformes au RGPD et à l’AI Act européen :
- Pleias 1.0 : avec 3 milliards de paramètres, il est spécialisé dans les domaines de la gestion des connaissances et des applications administratives ou juridiques ;
- Pleias-Nano (1 milliard) et Pleias-Pico (350 millions) : conçus pour des usages plus légers comme la génération augmentée par la récupération (RAG) et l’harmonisation des données.
Ils fonctionnent efficacement sur du matériel grand public, leur petite taille les rendant particulièrement adaptés aux environnements où les ressources informatiques sont limitées ou pour des applications nécessitant une faible latence.
Anastasia Stasenko, PDG de Pleias, conclut :
“Notre approche démontre qu’il est possible de créer des modèles de langage puissants tout en respectant pleinement la loi sur le droit d’auteur, les exigences du RGPD et les principes éthiques de l’IA”.

-
ActuIA

-
Le Québec propose un guide pour l’utilisation de l’IA générative en milieu éducatif
Le ministère de l’Éducation du Québec a récemment publié le guide “L’utilisation pédagogique, éthique et légale de l’intelligence artificielle générative”. Ce document propose au personnel enseignant, mais également aux élèves des pistes de réflexion et d’action quant à l’utilisation responsable de la GenAI. Ce guide, qui s’appuie sur des initiatives préexistantes, comme le rapport « Prêt pour l’IA » du Conseil de l’innovation du Québec, s’inscrit dans une démarche globale visant à doter le mili
Le Québec propose un guide pour l’utilisation de l’IA générative en milieu éducatif
Le ministère de l’Éducation du Québec a récemment publié le guide “L’utilisation pédagogique, éthique et légale de l’intelligence artificielle générative”. Ce document propose au personnel enseignant, mais également aux élèves des pistes de réflexion et d’action quant à l’utilisation responsable de la GenAI.
Ce guide, qui s’appuie sur des initiatives préexistantes, comme le rapport « Prêt pour l’IA » du Conseil de l’innovation du Québec, s’inscrit dans une démarche globale visant à doter le milieu éducatif d’outils pratiques et d’une vision stratégique pour une IA au service de la mission éducative.
Selon le ministère de l’Éducation québécois, l’utilisation responsable de la GenAI par le personnel enseignant doit être complémentaire au développement des compétences professionnelles et de la compétence numérique. Il estime donc qu’une attention particulière doit être portée à la formation du personnel enseignant à cette technologie.
Le guide propose trois critères pour une utilisation judicieuse de l’IA générative dans un contexte éducatif : la pertinence pédagogique, les principes éthiques et les obligations légales. Pour chaque critère, il explicite différents enjeux et suggère une liste de questions pour soutenir les réflexions. Chacune des sections traite des implications liées à la compétence numérique.
Pertinence pédagogique
La GenAI doit soutenir le développement de compétences et l’acquisition de connaissances : le guide invite le personnel éducatif à réfléchir sur sa valeur pédagogique, que ce soit pour son propre profit ou pour celui des personnes apprenantes. Inspirée du “Guide d’intégration de l’IA pour les écoles” du ministère de l’Éducation et du Développement de la petite enfance du Nouveau-Brunswick (2024), cette réflexion pédagogique doit être structurée en trois temps : avant, pendant, et après son utilisation.
Avant l’utilisation de la GenAI :
- Identifier les objectifs pédagogiques spécifiques que l’IA générative peut soutenir (par exemple : différenciation pédagogique, soutien aux élèves avec des besoins particuliers, enrichissement du contenu éducatif, etc.) ;
- Former le personnel enseignant et les apprenants à une littératie de l’IA pour en garantir une utilisation responsable et critique ;
- Vérifier la conformité de l’outil choisi (âge minimal requis, objectifs pédagogiques spécifiques, sécurité, respect des principes éthiques et légaux).
Questions clés :
- Pourquoi et comment sera-t-elle utilisée (planification, différenciation, etc.) ?
- Le personnel enseignant et les apprenants, disposent-ils des compétences numériques nécessaires ?
Pendant l’utilisation :
- Effectuer un suivi de la pertinence des contenus générés (alignement avec les objectifs, engagement des apprenants, correction des biais ou inexactitudes) ;
- Ajuster au besoin l’utilisation de la GenAI pour s’adapter aux défis ou limites identifiées.
Questions clés :
- L’IA générative, répond-elle aux objectifs fixés ?
- Les apprenants, sont-ils motivés et engagés ?
Après l’utilisation :
- Évaluer les résultats obtenus et réfléchir à des ajustements nécessaires ;
- Partager les expériences pour améliorer l’intégration future.
Questions clés :
- Les objectifs pédagogiques, ont-ils été atteints ?
- Quels défis et réussites ont été identifiés ?
Assistance pour l’évaluation des apprentissages
Le guide rappelle que l’IA peut aider dans la conception, la rétroaction et l’évaluation des apprentissages, mais ne doit pas remplacer le jugement professionnel du personnel enseignant.
Applications potentielles :
- Production de rétroactions spécifiques ;
- Génération d’outils d’évaluation (grilles, exercices adaptés) ;
- Automatisation partielle pour gagner du temps, tout en validant manuellement les résultats.
Précautions nécessaires :
- Vérifier l’exactitude des contenus générés ;
- Garantir la confidentialité des données des apprenants ;
- Respecter la propriété intellectuelle des travaux des apprenants.
Principes éthiques
Le document met en avant cinq principes fondamentaux pour une utilisation responsable : sobriété numérique, explicabilité, équité, inclusion et agentivité. Ces valeurs visent à maintenir l’intégrité intellectuelle et l’autonomie professionnelle des enseignants tout en préparant les apprenants aux défis technologiques émergents.
- Sobriété numérique : Réduire l’utilisation excessive de l’IA générative pour minimiser l’impact environnemental ;
- Qualité : Vérifier la qualité des contenus générés pour éviter les erreurs factuelles ;
- Équité et inclusion : Assurer que l’IA ne marginalise pas certains groupes et qu’elle représente diverses perspectives ;
- Transparence et explicabilité : Utiliser l’IA de manière transparente et comprendre ses limites en matière d’explicabilité ;
- Agentivité : Maintenir l’autonomie professionnelle du personnel enseignant et éviter une dépendance excessive à l’IA générative.
Obligations légales relatives à l’usage de l’IA générative
L’accent est également mis la sécurité de l’information et la conformité légale, notamment en matière de droits d’auteur et de protection des renseignements personnels. Le guide recommande de :
- Sécurité de l’information : Ne pas fournir d’informations sensibles, confidentielles ou personnelles sans validation ;
- Protection des renseignements personnels : Respecter les lois sur la protection des données personnelles ;
- Droits d’auteur : S’assurer de respecter les droits d’auteur.

-
ActuIA

-
Encadrement de l’IA en santé mentale : le Collectif MentalTech appelle à la “numéricovigilance”
Alors que la santé mentale connaît une dégradation alarmante, le Collectif MentalTech publie ce jeudi 10 octobre, Journée Mondiale de la Santé Mentale, un rapport mettant en lumière le rôle à la fois prometteur et préoccupant de l’IA dans ce domaine crucial. Coordonné par Alexia Adda, cofondatrice de KLAVA Innovation, ce rapport fait état des avancées technologiques en santé mentale tout en soulevant des questions éthiques fondamentales. MentalTech est le premier collectif français dédié à l’éme
Encadrement de l’IA en santé mentale : le Collectif MentalTech appelle à la “numéricovigilance”
Alors que la santé mentale connaît une dégradation alarmante, le Collectif MentalTech publie ce jeudi 10 octobre, Journée Mondiale de la Santé Mentale, un rapport mettant en lumière le rôle à la fois prometteur et préoccupant de l’IA dans ce domaine crucial. Coordonné par Alexia Adda, cofondatrice de KLAVA Innovation, ce rapport fait état des avancées technologiques en santé mentale tout en soulevant des questions éthiques fondamentales.
MentalTech est le premier collectif français dédié à l’émergence de solutions numériques en santé mentale. Créé en mars 2022 par 7 membres fondateurs : Qare, hypnoVR, Kwit, moka.care, PetitBamBou, ResilEyes Therapeutics, et Tricky, il regroupe aujourd’hui plus d’une trentaine d’acteurs (startups, institutionnels, professionnels de santé) autour d’une même ambition : répondre à l’urgence de déployer des outils numériques éthiques dans la prévention et la prise en charge de la santé psychique.
Le collectif souligne la recrudescence ces dernières années des troubles de l’humeur, en particulier chez les jeunes adultes, et l’augmentation des consultations d’urgence en psychiatrie, en raison de l’errance diagnostique et du tabou entourant la santé mentale. Face à ces enjeux, l’émergence d’outils numériques devient essentielle pour améliorer la précision des diagnostics, personnaliser les traitements et faciliter l’accès aux soins.
L’IA : un outil transformateur
Au cours des dernières années, l’IA a fait des progrès considérables, offrant des solutions innovantes dans divers domaines, y compris la santé mentale. Selon le rapport, quatre principaux cadres d’intervention de l’IA émergent :
- Prédiction de valeur : l’IA peut prédire des états psychiques en analysant de grandes quantités de données, détectant ainsi des émotions dans des vidéos ou des conversations textuelles avant l’apparition de symptômes graves ;
- Génération de dialogue : des agents conversationnels peuvent interagir directement avec les patients, offrant un soutien continu et personnalisé. Ils peuvent analyser en temps réel l’état psychologique des individus à travers leurs réponses verbales ou écrites, et fournir un premier niveau d’assistance ou de recommandations ;
- Création d’activités thérapeutiques : l’IA peut générer des programmes adaptés aux besoins spécifiques des patients, y compris des jeux sérieux et des exercices de relaxation. La réalité virtuelle peut aider à traiter des phobies ou des
troubles de stress post-traumatique en simulant des environnements thérapeutiques contrôlés ; - Recommandation de ressources : des recommandations pertinentes peuvent être faites aux patients (articles ou vidéos), les aidant à mieux comprendre et à gérer leurs symptômes, et aux professionnels de santé (protocoles de soin) selon les besoins exprimés ou détectés.
Ces technologies visent à améliorer les diagnostics et à créer un système de soins plus inclusif, comblant ainsi les lacunes dans l’accès aux soins psychiques.
Défis éthiques à relever
Cependant, l’utilisation croissante de l’IA en santé mentale soulève d’importants défis éthiques. La protection des données sensibles des patients est une préoccupation majeure, d’autant plus que l’IA repose souvent sur de vastes ensembles de données personnelles. De plus, le rapport met en garde contre le risque de déshumanisation des soins, soulignant la nécessité d’une validation humaine des décisions prises par l’IA.
Un autre défi réside dans l’explicabilité des algorithmes. Souvent qualifiés de “boîtes noires”, ces modèles peuvent prendre des décisions complexes sans que leur logique soit toujours compréhensible pour les médecins, d’où l’importance d’une meilleure transparence.
La réglementation européenne
Les applications d’IA en santé sont souvent considérées comme à haut risque, et les nouvelles exigences de l’AI Act s’ajoutent aux régulations existantes pour les dispositifs médicaux.
Le collectif rappelle que les éditeurs d’IA doivent suivre six étapes pour se conformer aux nouvelles normes : définir le cadre d’utilisation, obtenir le consentement des patients pour la collecte de données, évaluer l’impact de l’IA, anticiper les biais, garantir la conformité réglementaire et établir une gouvernance appropriée.
Appel à la numéricovigilance
Pour faire face à ces enjeux, le Collectif MentalTech appelle à la création d’un cadre de “numéricovigilance”. Inspiré du modèle de pharmacovigilance, ce cadre vise à garantir la sécurité des patients tout en détectant rapidement les dérives potentielles des dispositifs d’IA. Selon lui, il permettrait de maintenir un équilibre entre l’innovation technologique et le respect des principes éthiques fondamentaux dans la prise en charge de la santé mentale.
Le collectif identifie dix axes majeurs pour ce cadre :
1. L’élaboration d’une notice d’information : créer un document explicatif pour les utilisateurs, détaillant le fonctionnement de l’IA, ses avantages, ses risques, la population cible et les mesures en cas de dysfonctionnement, avec un langage accessible.
2. La constitution d’un comité scientifique pluridisciplinaire : former un comité composé d’au moins un médecin, un.e expert.e en IA, un.e éthicien.ne et un.e spécialiste du Réglementaire pour superviser le développement et l’évaluation des systèmes d’IA.
3. L’implication des professionnels de santé : engager les professionnels de santé dans le processus de développement de l’IA pour garantir la robustesse et la fiabilité des systèmes.
4. La formation des professionnels de santé : proposer des formations sur l’IA, ses applications en médecine et les principes d’évaluation des systèmes de machine learning.
5. L’installation personnalisée pour les utilisateurs : adapter l’utilisation des outils d’IA aux appréhensions des utilisateurs, en développant des protocoles spécifiques pour chaque cas d’usage.
6. L’absence de conflits d’intérêts : veiller à ce qu’il n’y ait pas de conflits d’intérêts entre les entités impliquées dans le dépistage et le traitement des troubles.
7. L’adaptation des métriques d’évaluation : ajuster les métriques d’évaluation de l’algorithme selon le cas d’usage et garantir la transparence et l’efficacité des mécanismes de sécurité.
8. Le retracement des décisions de l’IA : documenter le processus décisionnel de l’IA, en expliquant les résultats générés, tout en prévoyant des exceptions lorsque des bénéfices médicaux substantiels peuvent être démontrés.
9. La sélection de la population d’entraînement : assurer la représentativité des données utilisées pour l’entraînement de l’IA, et mener des études complémentaires pour prévenir les biais algorithmiques si nécessaire.
10. La collecte parcimonieuse des données : suivre les recommandations de la CNIL en ne collectant que les données indispensables, afin de tester les IA de manière pragmatique et efficace.

-
ActuIA

-
Etiquetage du contenu généré par l’IA : les marketeurs s’attendent à un impact positif de l’initiative de Meta
La première partie de l’étude “GenAI for Social Content Survey” de GetApp se consacrait à l’utilisation par les marketeurs de la GenAI sur les réseaux sociaux. La seconde partie se concentre sur l’adaptation des entreprises aux nouvelles réglementations de Meta concernant l’étiquetage des contenus générés par l’IA et est accompagnée des commentaires de Julien Pibourret, expert en social selling, auteur et formateur en médias sociaux et web marketing. GetApp est une plateforme de recherche et de
Etiquetage du contenu généré par l’IA : les marketeurs s’attendent à un impact positif de l’initiative de Meta
La première partie de l’étude “GenAI for Social Content Survey” de GetApp se consacrait à l’utilisation par les marketeurs de la GenAI sur les réseaux sociaux. La seconde partie se concentre sur l’adaptation des entreprises aux nouvelles réglementations de Meta concernant l’étiquetage des contenus générés par l’IA et est accompagnée des commentaires de Julien Pibourret, expert en social selling, auteur et formateur en médias sociaux et web marketing.
GetApp est une plateforme de recherche et de comparaison d’applications et de logiciels métiers acquise par Gartner en 2015. Son objectif est de permettre aux professionnels, en particulier ceux des petites et moyennes entreprises, de trouver les solutions logicielles qui répondent le mieux à leurs besoins.
Pour cette étude, elle a interrogé en mai dernier 1 680 personnes (135 en France) ayant un rôle dans le marketing, les relations publiques, les ventes ou le service à la clientèle au sein d’entreprises de toutes tailles à travers le monde. Chacune d’entre elles a indiqué utiliser la GenAI pour la gestion des réseaux sociaux de son entreprise au moins une fois par mois.
L’étude révèle une hausse de l’utilisation de la GenAI par les marketeurs : 63 % des marketeurs ont déjà utilisé l’IA générative pour créer du contenu sur les réseaux sociaux.
- Plus d’un tiers des marketeurs interrogés déclare que 10 % à 25 % du contenu produit sur leurs réseaux sociaux l’a été avec des outils de GenAI ;
- Un marketeur sur trois anticipe que d’ici à 18 mois, l’IA sera présente dans 25 % à 50 % du contenu publié sur les réseaux sociaux ;
- Concernant l’efficacité, 45 % des répondants estiment que les contenus assistés par IA surpassent ceux créés exclusivement par des humains, tandis que 61 % ont constaté une hausse (“significative” pour 14 % et “légère” pour 47 %) de l’engagement et des impressions (nombre total de fois où un contenu est affiché) sur leurs réseaux grâce à l’utilisation de la GenAI ;
- 66 % d’entre eux s’attendent à ce que toutes les tâches de marketing numérique soient assistées par des outils d’IA d’ici les cinq prochaines années.
La transparence, un gage de confiance pour les consommateurs
Selon l’étude, les plateformes de Meta, Instagram et Facebook, sont utilisées respectivement par 81% et 56 % des marketeurs.
47 % des personnes interrogées ont déclaré avoir été “modérément informés” et 31 % “très informées” de l’initiative de Meta visant à étiqueter le contenu généré par l’IA sur Instagram, Facebook et Threads, la majorité d’entre elles s’attendent à ce que cette initiative ait un impact positif.
Selon les données de l’enquête :
- 16 % des spécialistes du marketing pensent que l’étiquetage de l’IA aura un impact “très positif”, améliorant très probablement la transparence et la confiance avec leur public ;
- 42 % s’attendent à un impact “plutôt positif”, améliorant potentiellement l’authenticité et l’engagement du contenu.
Cependant, seulement 27 % des entreprises interrogées indiquent systématiquement que leur contenu a été créé ou modifié par l’IA, ce qui souligne un manque de transparence généralisé alors que 44 % l’indiquent parfois et 27 % ne le mentionnent jamais.
![]()
Alors que 11 % des répondants anticipent un impact “plutôt négatif” de l’étiquetage de l’IA, probablement en raison des préoccupations liées à la perception du public et à la méfiance envers le contenu généré par l’IA, 40 % ont mis en place une politique formelle et documentée pour encadrer l’utilisation de l’IA générative dans leurs stratégies de création de contenu.
Julien Pibourret insiste sur l’importance de la transparence dans ces nouvelles pratiques :
“En communiquant de manière proactive sur l’utilisation de l’IA, les entreprises peuvent montrer leur engagement envers la transparence et l’éthique de leur stratégie de contenu online.”
Il met également en garde contre les risques d’un manque de transparence :
“Ne pas mentionner que le contenu est généré par l’IA peut compromettre la réputation d’une entreprise, affaiblir l’engagement de sa communauté et même entraîner des conséquences légales.”
La GenAI s’impose progressivement comme un pilier central dans les stratégies de marketing numérique. Mais pour tirer pleinement parti de cette technologie, les entreprises devront non seulement continuer à optimiser son utilisation, mais aussi à s’adapter aux exigences croissantes en matière de transparence et d’éthique. La clé réside dans l’équilibre entre innovation technologique et respect des attentes des consommateurs.

-
Filou fait le GeekNik : Sécurité / libre / p2P / réseaux / bidouilles / no net / etc
- L'IA COMME VOUS NE L'AVEZ JAMAIS VUE - Une conférence de Flavien Chervet
-
ActuIA

-
The AI Scientist : le système d’IA autonome de recherche scientifique de Sakana AI
Sakana AI, start-up basée à Tokyo fondée il y a tout juste un an par deux anciens chercheurs de Google, , a récemment dévoilé “The AI Scientist”, un système entièrement automatisé qui, à partir d’une base de code, est capable de mener des recherches scientifiques de bout en bout, sans intervention humaine. Développé en collaboration avec le Foerster Lab for AI Research de l’Université d’Oxford et deux chercheurs de l’Université de la Colombie-Britannique, Jeff Clune et Cong Lu, ce système a été
The AI Scientist : le système d’IA autonome de recherche scientifique de Sakana AI
Sakana AI, start-up basée à Tokyo fondée il y a tout juste un an par deux anciens chercheurs de Google, , a récemment dévoilé “The AI Scientist”, un système entièrement automatisé qui, à partir d’une base de code, est capable de mener des recherches scientifiques de bout en bout, sans intervention humaine.
Développé en collaboration avec le Foerster Lab for AI Research de l’Université d’Oxford et deux chercheurs de l’Université de la Colombie-Britannique, Jeff Clune et Cong Lu, ce système a été présenté dans l’article “The AI Scientist : Towards Fully Automated Open-Ended Scientific Discovery“.
Une nouvelle approche de la recherche
The AI Scientist repose sur des LLM qui ont déjà prouvé leur utilité dans l’assistance à la rédaction et au codage. Cependant, The AI Scientist va bien au-delà de l’assistance : il est capable d’exécuter l’intégralité du cycle de recherche scientifique : la génération d’idées novatrices, l’écriture du code nécessaire pour tester ces idées, la réalisation d’expériences, l’analyse des résultats, la rédaction d’articles scientifiques suffisamment solides pour être acceptés lors de conférences académiques de haut niveau en apprentissage automatique.
Fonctionnement de The AI Scientist
Le processus commence par une étape de génération d’idées. En utilisant une base de code existante GitHub comme point de départ, The AI Scientist propose diverses directions de recherche. Ces idées sont ensuite comparées à la littérature scientifique existante pour garantir leur originalité, le système utilisant de manière autonome Semantic Scholar pour explorer les publications scientifiques dans le domaine de recherche en cours.
En accédant cette vaste base de données de l’Allen Institute for AI, il peut également identifier les articles les plus pertinents à citer dans ses propres articles, garantissant ainsi que ses publications sont bien contextualisées dans le cadre de la recherche actuelle.
Une fois une idée sélectionnée, l’AI Scientist modifie le code et passe à l’étape de l’itération expérimentale. Il exécute les expériences nécessaires et génère des résultats, qu’il compile sous forme de graphiques et de tableaux. Ces résultats sont ensuite intégrés dans un manuscrit scientifique, rédigé au format LaTeX, dans un style conforme aux normes des conférences de recherche en intelligence artificielle.
Enfin, en utilisant un modèle d’évaluation inspiré des critères des grandes conférences scientifiques, il évalue la qualité des articles générés, avec une précision proche de celle de l’homme, fournissant des retours et améliorant continuellement ses propres idées.
Selon les chercheurs, chaque article généré revient à environ 15
par article.
Premiers résultats et défis actuels
Les premiers articles produits par The AI Scientist sur l’apprentissage automatique ont montré des résultats prometteurs dans des domaines comme la modélisation par diffusion, la modélisation du langage et le grokking. Par exemple, l’article intitulé “Adaptive Dual-Scale Denoising” propose une nouvelle méthode pour équilibrer les caractéristiques dans les modèles génératifs de faible dimension, les pages ci-dessous sont tirées de cet article.
![]()
Bien que ces travaux soient encore perfectibles, notamment en termes d’interprétation des résultats et de présentation visuelle, ils montrent déjà un potentiel significatif pour accélérer la recherche scientifique.
Limitations du système
Le système présente plusieurs limites : tout d’abord, il nécessite une base de code préexistante pour fonctionner. Son absence de capacités visuelles signifie qu’il peut produire des graphiques ou des mises en page sous-optimales. De plus, il peut commettre des erreurs critiques, comme une mauvaise implémentation d’idées ou des comparaisons inexactes entre les résultats expérimentaux. Ces deux dernières limitations, bien qu’importantes, sont en cours de résolution avec le développement de versions futures plus robustes.
Implications éthiques et avenir de la recherche
L’introduction de The AI Scientist soulève des questions éthiques majeures. Si l’automatisation de la recherche peut démocratiser l’accès à la production scientifique, elle pourrait aussi entraîner une surcharge des systèmes de révision par les pairs et une baisse de la qualité des publications.
D’autre part, l’évaluateur automatisé, s’il est déployé en ligne par les examinateurs, peut réduire considérablement la qualité des évaluations et imposer des biais indésirables aux articles. Pour les chercheurs, les articles essentiellement générés par l’IA doivent être marqués comme tels pour une transparence totale.
De plus, le système d’IA peut être détourné à des fins malveillantes. Les chercheurs écrivent :
“Par exemple, si on l’encourageait à trouver des matériaux biologiques nouveaux et intéressants et qu’on lui donnait accès à des « laboratoires en nuage » où des robots effectuent des expériences de biologie en laboratoire humide, il pourrait (sans l’intention de son superviseur) créer de nouveaux virus ou poisons dangereux qui nuisent aux gens avant que nous ne réalisions ce qui s’est passé. Même dans les ordinateurs, s’il est chargé de créer de nouveaux logiciels intéressants et fonctionnels, il peut créer des virus informatiques dangereux”.

-
ActuIA

-
“L’intelligence artificielle et nous” : un dialogue entre Gaspard Koenig et Cédric Villani
Si l’arrivée de ChatGPT a soulevé un grand enthousiasme, de nombreux débats autour de l’impact de l’IA générative sur nos vies et le futur de l’humanité font désormais la une des médias. Pour nous apporter un éclairage sur le sujet, l’institut Messine vient de mettre en ligne la note “L’intelligence artificielle et nous”, fruit d’un dialogue croisé de 3hrs30 entre Gaspard Koenig et Cédric Villani. Créé en 2014 avec le soutien de la Compagnie Nationale des Commissaires aux Comptes, l’Institut Mes
“L’intelligence artificielle et nous” : un dialogue entre Gaspard Koenig et Cédric Villani
Si l’arrivée de ChatGPT a soulevé un grand enthousiasme, de nombreux débats autour de l’impact de l’IA générative sur nos vies et le futur de l’humanité font désormais la une des médias. Pour nous apporter un éclairage sur le sujet, l’institut Messine vient de mettre en ligne la note “L’intelligence artificielle et nous”, fruit d’un dialogue croisé de 3hrs30 entre Gaspard Koenig et Cédric Villani.
Créé en 2014 avec le soutien de la Compagnie Nationale des Commissaires aux Comptes, l’Institut Messine est un think tank qui rassemble en son sein des représentants de la société civile et de la profession des commissaires aux comptes dans le but de réfléchir aux grands enjeux économiques et sociétaux. S’attachant plus particulièrement aux questions de transparence et de confiance, il formule puis soumet au débat des idées et des solutions susceptibles de nourrir la réflexion et l’action des décideurs publics.
Pour Michel Léger, président de l’Institut :
“Est-on réellement face à un bouleversement anthropologique ? S’agit-il d’une révolution technologique et industrielle ? Notre rapport à la connaissance va-t-il changer ? Est-ce la fin du travail ? Le sujet nous plonge dans un abyme de questionnements”.
Pour tenter d’y répondre, l’Institut a fait appel à deux personnalités ayant pris le temps de travailler en profondeur sur l’IA. Cédric Villani, mathématicien reconnu (médaille Fields 2010), auteur du rapport “Donner un sens à l’intelligence artificielle” (2018) qui a inspiré la stratégie nationale pour l’intelligence artificielle et Gaspard Kœnig, essayiste et philosophe, qui a rencontré plus de 120 professeurs, entrepreneurs, intellectuels, politiques, économistes, artistes, pour son livre “La Fin de l’individu : Voyage d’un philosophe au pays de l’intelligence artificielle”, éditions de l’Observatoire (2019).
Michel Léger souligne :
“Ce sont ainsi deux esprits, amis par ailleurs, qui ont accepté de se prêter au jeu de cet entretien croisé et qui nous apportent leur regard. Ils abordent la genèse de l’intelligence artificielle et des Large Language Models ; traitent des algorithmes et du nudge ; convoquent Rousseau, Socrate ou encore Hayek ; passent par la philosophie confucéenne, le jeu de go et la géopolitique ; évoquent l’agriculture, l’éducation ou encore l’urbanisme”.
Le 19 juin dernier, l’Institut Messine a organisé une conférence animée par Philippe Audouin, membre du Comité directeur de l’Institut, durant laquelle ils sont revenus sur les points principaux de la note avec Laurence Devillers, spécialiste des interactions homme-machine, professeur d’intelligence artificielle au LIMSI-CNRS et auteur de “Des robots et des Hommes”.
Ils ont ainsi souligné le rôle disproportionné donné à l’IA. Pour Gaspard Koenig, dans 20 ans, la priorité de l’humanité sera l’eau et les terres fertiles. Alors qu’on nous martèle que nous devons rattraper notre retard sur les USA et La Chine, toutes les entreprises n’ont pas besoin d’IA. Cédric Villani est tout à fait d’accord avec lui : bien que l’IA est un sujet passionnant, il n’est en aucun cas fondamental pour l’humanité. Selon lui, les investissements mondiaux dans l’IA sont bien trop importants, la captation carbone, une arnaque. Il y a des problèmes bien plus graves que l’IA ne peut résoudre mais pourrait aggraver : la montée des tensions géopolitiques, la raréfaction des sols, les inégalités entre pays, la solitude dans les pays occidentaux… Le sujet le plus important de l’IA cette année sera l’écologie.
Selon lui, le buzz fait autour de l’IA obscurcit le débat public : Elon Musk n’hésite pas à alerter sur la destruction de l’humanité et à côté est à la recherche de milliards pour sa start-up xAI, Sam Altman et d’autres ont fait de même, et ce, avant tout pour se faire de la publicité.
Pour Gaspard Koenig, une IA générative n’a rien à voir avec la science : “La science est censée nous donner la compréhension des phénomènes ; l’IA fait exactement l’inverse”. ChatGPT va nous donner des réponses plausibles, mais tout vérifier est une perte de temps considérable, et faute de source, on ne peut réfuter ses allégations, contrairement à Wikipédia, où il est toujours possible d’engager un dialogue avec les contributeurs. Nous risquons non seulement de perdre notre libre arbitre, mais également de nous diriger vers une homogénéisation médiocre des connaissances.
Laurence Devillers a souligné le potentiel de l’usage de l’IA pour certains secteurs, mais a soulevé les considérations éthiques que peuvent poser certaines pratiques comme la programmation d’organoïdes vivants.
Les sujets abordés lors de cette conférence font partie des réflexions sur l’IA à retrouver dans la note “L’intelligence artificielle et nous”.

-
ActuIA

-
L’IA : Un renfort pour les emplois, pas une menace ?
Nous sommes au cœur de la révolution de l’IA, un moment qui promet de redéfinir le paysage du travail tel que nous le connaissons. Alors que cette révolution prend de l’ampleur, une question pressante se pose : les emplois sont-ils confrontés à une menace existentielle ? Le potentiel de transformation de l’IA devenant de plus en plus évident dans tous les secteurs d’activité, nous trouvons-nous à un tournant décisif ? Quels défis et opportunités représente l’IA pour le marché de main-d’œuvre ? A
L’IA : Un renfort pour les emplois, pas une menace ?
Nous sommes au cœur de la révolution de l’IA, un moment qui promet de redéfinir le paysage du travail tel que nous le connaissons. Alors que cette révolution prend de l’ampleur, une question pressante se pose : les emplois sont-ils confrontés à une menace existentielle ? Le potentiel de transformation de l’IA devenant de plus en plus évident dans tous les secteurs d’activité, nous trouvons-nous à un tournant décisif ? Quels défis et opportunités représente l’IA pour le marché de main-d’œuvre ? Aujourd’hui, l’exploration de la manière dont l’IA remodèle le marché du travail révèle qu’il ne s’agit pas de remplacer des emplois, mais plutôt de les améliorer.
Une évolution des rôles professionnels
L’étude du passé révèle que de nombreux rôles ont disparu au fil du temps, laissant place à de nouvelles opportunités. Les emplois de rêve d’antan, comme travailler dans des magasins de disques remplis de vinyles et de CD, ont largement disparu. De même, des fonctions telles que celles d’opérateur de cartes perforées dans les années 50 ou d’opérateur téléphonique dans les années 30, autrefois essentielles, ont été rendues obsolètes par les progrès technologiques. Pourtant, ces changements ont ouvert la voie à de nouvelles carrières. Les emplois les plus demandés aujourd’hui, tels que les community managers, n’existaient pas il y a quelques décennies, ce qui témoigne de la nature dynamique du marché de l’emploi. Cette évolution démontre un schéma récurrent : à mesure que les anciens emplois disparaissent, de nouveaux rôles, différents et souvent plus passionnants, apparaissent, reflétant les besoins et les capacités en constante évolution de notre société.
Historiquement, chaque révolution technologique a entraîné des changements économiques importants, alimentant des croissances économiques sans précédent, et créant des industries et des rôles professionnels entièrement nouveaux presque du jour au lendemain. Aujourd’hui, nous sommes à l’aube d’une nouvelle révolution avec l’IA. Cette technologie transforme l’économie, modifie le marché du travail et suscite de profondes questions sociales et éthiques. Ces transformations suscitent souvent, dans un premier temps, des craintes et des résistances, mais elles débouchent en fin de compte sur un élargissement des possibilités économiques et une amélioration de la qualité de vie. Embrasser ces changements plutôt que d’y résister permet d’en exploiter tout le potentiel.
L’essor de l’économie des services
L’impact de l’IA sur le travail est déjà évident. Les données de diverses plateformes révèlent une augmentation constante du travail en freelance. Malgré les fluctuations des offres d’emploi traditionnelles, le travail en freelance est de plus en plus répandu. En 10 ans, il y a eu une augmentation de 92 % de freelances en France (Eurostat, Statista), surtout depuis la crise sanitaire de 2019. Cette tendance est le reflet d’une évolution plus large vers une économie du travail à la tâche, dans laquelle l’IA joue un rôle crucial en facilitant l’efficacité et l’innovation. Les freelances, dotés d’outils d’IA, peuvent désormais offrir des services spécialisés qui étaient autrefois réservés aux grandes entreprises, démocratisant ainsi l’accès à des ressources de haute qualité et égalisant les chances des petites entreprises et des entrepreneurs individuels.
Les vagues d’innovation sont de plus en plus spectaculaires et se produisent à intervalles plus courts. Des innovations dont l’adoption prenait autrefois des décennies sont désormais intégrées en l’espace de quelques années, voire de quelques mois. L’IA en est un excellent exemple, car elle est rapidement adoptée dans divers secteurs. Cette accélération exige de s’adapter rapidement et de garder une longueur d’avance pour tirer parti de ces avancées de manière efficace. La vitesse à laquelle l’IA est adoptée peut être attribuée à sa polyvalence et à son potentiel de révolutionner d’innombrables secteurs, de la santé à la finance en passant par les arts créatifs. Cette intégration rapide met en évidence la nécessité d’un apprentissage continu et d’une agilité dans le développement professionnel.
Répondre aux questions sociales et éthiques
Considérez les trois phases des révolutions technologiques : l’introduction d’une technologie perturbatrice, l’impact économique et les questions sociales et éthiques qui en découlent. Au cours de la révolution industrielle, les machines ont remplacé une grande partie de la main-d’œuvre, ce qui a suscité des inquiétudes quant à la perte d’emplois et aux disparités économiques. L’ère des “dot-com” dans les années 90 et 2000 a mis au premier plan les questions relatives à la protection de la vie privée. Aujourd’hui, l’IA suscite des débats sur l’autonomie et l’utilisation éthique de la technologie, y compris les défis posés par les “deep fakes”. Cela souligne l’importance d’aborder non seulement les implications économiques des nouvelles technologies, mais aussi les impacts sociétaux, en veillant à ce que les progrès profitent à tous et atténuent les préjudices potentiels.
Depuis le lancement d’outils d’ IA tels que ChatGPT, on observe une augmentation exponentielle des recherches liées à l’IA. Les entreprises explorent le potentiel de l’IA dans diverses applications, de la création de premières ébauches au développement de projets complets. Cette tendance souligne le rôle de l’IA dans la modification des procédés et l’amélioration de la productivité. La capacité de l’IA à traiter et à analyser rapidement de grandes quantités de données permet aux entreprises de prendre des décisions plus éclairées, de rationaliser leurs opérations et d’innover plus rapidement que jamais.
Pour prospérer aujourd’hui, entreprises et individus sont bien inspirées d’ adopter un état d’esprit proactif et adaptable. L’IA offre un accès démocratisé aux connaissances, mais il faut dépasser les résultats moyens en y ajoutant créativité et originalité, afin de garantir compétitivité et innovation. L’adaptabilité est clé, surtout en marketing : se remettre en question, rester curieux et adopter les nouvelles technologies permet de saisir les opportunités de l’IA et de réagir aux changements rapides. Les entreprises cultivant cette adaptabilité prospéreront face aux bouleversements technologiques.
“Lorsqu’un travailleur indépendant trouve en l’IA une solide source de productivité , cela reflète bien la situation actuelle : l’IA n’est pas une menace, mais un outil qui, utilisé de manière créative et efficace, peut considérablement améliorer la vie professionnelle” note Franck Thomas, responsable France de Fiverr. Cette dernière peut offrir des avantages concurrentiels, en permettant aux individus de fournir un travail de meilleure qualité et de manière plus efficace. Ceci, à son tour, peut conduire à une plus grande satisfaction des clients, à un développement de l’activité et à une croissance globale de la carrière.
En conclusion, la société a entamé la révolution de l’IA. Cette technologie offre un potentiel incroyable pour transformer le travail, en rendant les gens plus productifs et plus innovants. Pour les freelances, adopter l’IA n’est pas une fin en soi mais un moyen d’élever son niveau de jeu. L’avenir présente de vastes possibilités, et la clé du succès consiste à considérer l’IA comme un partenaire de progrès, travaillant aux côtés de l’ingéniosité humaine pour réaliser des avancées jusque-là inédites.

-
ActuIA

-
Cat Royale : laisseriez-vous un robot s’occuper de votre animal de compagnie ?
Cat Royale est un projet qui explore l’impact de l’IA sur les humains et les animaux, visant à comprendre comment les systèmes autonomes vont avoir une incidence sur le bien-être animal et, en fin de compte, sur le bien-être humain. Les résultats suggèrent qu’il faut plus qu’un robot soigneusement conçu pour s’occuper de votre chat, l’environnement dans lequel il opère est également vital, ainsi que l’interaction humaine. Cat Royale est une collaboration unique entre des chercheurs du Mixed Rea
Cat Royale : laisseriez-vous un robot s’occuper de votre animal de compagnie ?
Cat Royale est un projet qui explore l’impact de l’IA sur les humains et les animaux, visant à comprendre comment les systèmes autonomes vont avoir une incidence sur le bien-être animal et, en fin de compte, sur le bien-être humain. Les résultats suggèrent qu’il faut plus qu’un robot soigneusement conçu pour s’occuper de votre chat, l’environnement dans lequel il opère est également vital, ainsi que l’interaction humaine.
Cat Royale est une collaboration unique entre des chercheurs du Mixed Reality Lab de l’Université de Nottingham et des artistes de Blast Theory, un groupe d’artistes renommé à l’échelle internationale, spécialisé dans la création d’œuvres d’art interactives qui explorent des questions sociales et politiques.
Pendant 12 jours, trois chats sont venus passer six heures dans l’enclos qu’ils ont conçu où se trouvait un bras robotique contrôlé par une IA, connecté à un système de vision par ordinateur. Pour assurer le confort et la sécurité des chats, des experts en bien-être animal ont été impliqués dans la conception du projet dès le départ.
En 2023, l’installation a été présentée au World Science Festival de Brisbane, en Australie. Elle est en tournée depuis et vient de remporter un Webby award pour son expérience créative.
Concevoir des mondes multi-espèces pour les robots, les chats et les humains
Le document de recherche, “Designing Multispecies Worlds for Robots, Cats, and Humans” co-écrit par les artistes de Blast Theory, les chercheurs de l’Université de Nottingham et le professeur Clara Mancini à l’Open University, a remporté le prix du meilleur article le mois dernier lors de la conférence annuelle Computer-Human Interaction Conference (CHI’24) à Hawaï.
Il souligne que la conception du robot et de ses interactions avec les trois chats ne suffit pas et qu’il est tout aussi crucial de concevoir l’environnement dans lequel il opère. La recherche souligne également que l’implication humaine reste indispensable, notamment pour la récupération des pannes, le bien-être animal et son rôle en tant que public.
Cat Royale était centré sur un bras robotique conçu pour ramasser et manipuler des jouets de manière à attirer et divertir les chats : il leur a lancé des balles, traîné un jouet “souris” sur le sol, fait prendre des plumes dans les airs et leur a également offert des friandises à manger. L’équipe avait aménagé un environnement où les chats pouvaient observer le robot en toute sécurité avant d’interagir avec lui.
Elle a ensuite formé une IA pour apprendre quels jeux les chats préféraient afin de pouvoir personnaliser leurs expériences.
Steve Benford, professeur à l’Université de Nottingham, qui a dirigé la recherche commente :
“A première vue, le projet consiste à concevoir un robot pour enrichir la vie d’une famille de chats en jouant avec eux. Sous la surface, cependant, il explore la question de savoir ce qu’il faut pour faire confiance à un robot pour s’occuper de nos proches et potentiellement de nous-mêmes”.
Les chercheurs ont collaboré pour concevoir le robot et assurer le bien-être des chats à l’espace Cobotmaker de l’Université de Nottingham où ont eu lieu les ateliers de recherche;
Eike Schneiders, professeur adjoint au laboratoire de réalité mixte de l’Université de Nottingham, explique :
“Comme nous l’avons appris grâce à Cat Royale, la création d’un système multi-espèces – où les chats, les robots et les humains sont tous pris en compte – nécessite plus que la simple conception du robot. Nous devions veiller au bien-être des animaux à tout moment, tout en veillant à ce que l’installation interactive engage le public (humain) du monde entier. Cela impliquait la prise en compte de nombreux éléments, notamment la conception de l’enclos, le robot et ses systèmes sous-jacents, les différents rôles des humains dans la boucle et, bien sûr, la sélection des chats”.
Alors que les robots autonomes sont de plus en plus présents dans notre vie quotidienne, le professeur Steve Benford déclarait au début du projet :
“je suis sûr que ce projet nous mènera dans de nouvelles directions, nous mettra au défi de développer la technologie de manière responsable et digne de confiance, et nous amènera finalement à réfléchir à la façon dont les systèmes autonomes peuvent bénéficier et non nuire aux personnes et aux animaux.”
Références : Blog de l’Université de Nottingham
“Designing Multispecies Worlds for Robots, Cats, and Humans” ACM Digital Library https://doi.org/10.1145/3613904.3642115
Auteurs et affiliations :
Eike Schneiders, Steve David Benford, Alan Chamberlain, Simon D Castle-Green, Victor Zhi Ngo, Joel E. Fischer de l’Université de Nottingham, Royaume-Uni
Clara Mancini, de l’Open University, Royaume-Uni
Ju Row-Farr, Matt Adams, Nick Tandavanitj, Blast Theory, Royaume-Uni

-
ActuIA

-
Lancement du C.C.N.E. du numérique : une initiative française pionnière pour encadrer l’éthique des nouvelles technologies
Le Comité Consultatif National d’Éthique pour les sciences de la vie et de la santé (C.C.N.E.) a annoncé ce lundi 27 mai la création du Comité Consultatif National d’Éthique du Numérique (C.C.N.E. du Numérique). La mise en place de cette institution consultative, actée par décret du Premier ministre Gabriel Attal, marque un tournant majeur pour la prise en considération des enjeux éthiques liés aux avancées technologiques et numériques. Avec cette initiative, la France devient la première nation
Lancement du C.C.N.E. du numérique : une initiative française pionnière pour encadrer l’éthique des nouvelles technologies
Le Comité Consultatif National d’Éthique pour les sciences de la vie et de la santé (C.C.N.E.) a annoncé ce lundi 27 mai la création du Comité Consultatif National d’Éthique du Numérique (C.C.N.E. du Numérique). La mise en place de cette institution consultative, actée par décret du Premier ministre Gabriel Attal, marque un tournant majeur pour la prise en considération des enjeux éthiques liés aux avancées technologiques et numériques. Avec cette initiative, la France devient la première nation à se doter d’une instance nationale spécifiquement dédiée aux questions éthiques du numérique.
Le C.C.N.E. du Numérique succède au Comité National Pilote d’Éthique du Numérique (C.N.P.E.N.), créé en décembre 2019 par Edouard Philippe, alors premier ministre, placé sous l’égide du C.C.N.E. Sa mission sera de contribuer à la réflexion sur les enjeux d’éthique soulevés par les avancées des sciences, des technologies, des usages et des innovations numériques, notamment de l’IA. Le comité se concentrera sur divers impacts – sociaux, économiques, environnementaux, individuels et éducatifs – en produisant des documents de référence, des avis et des recommandations. Ses actions incluront également la sensibilisation du public, l’animation de débats publics et la contribution aux réflexions internationales avec des instances similaires.
Le comité pourra s’autosaisir ou être saisi par diverses autorités et institutions, telles que le Président de la République, les membres du gouvernement, les établissements d’enseignement supérieur et les fondations reconnues d’utilité publique.
Composition et fonctionnement
Le C.C.N.E. du Numérique exercera ses missions en toute indépendance. Il sera composé de vingt membres, en plus de son ou sa président(e) qui sera nommé(e) par décret du Président de la République. Sa composition inclut :
- Un membre du Conseil d’État ;
- Un membre de la Cour de cassation ;
- Dix personnalités qualifiées choisies pour leur compétence et leur intérêt pour les enjeux d’éthique du numérique, dont sept proposées par des membres du gouvernement ;
- Six personnalités du secteur de la recherche scientifique, dotées d’une expertise particulière sur les sujets numériques ;
- Deux personnalités qualifiées issues de la société civile, l’une proposée par le Conseil économique, social et environnemental (CESE) et l’autre par la Défenseure des droits.
Le ou la président(e) et les membres seront nommés pour un mandat de trois ans, renouvelable une fois.
Vers un avenir éclairé et responsable
La création du C.C.N.E. du Numérique représente une avancée significative pour encadrer et guider les développements numériques dans une perspective éthique. En éveillant, animant et éclairant les réflexions individuelles et collectives, ce comité jouera un rôle crucial pour assurer que les progrès technologiques soient accompagnés d’une réflexion éthique approfondie et responsable.
Le décret de création du Comité peut être consulté sur le site Légifrance.

-
ActuIA

-
Marketing : comprendre et surmonter les hésitations relatives à l’utilisation de l’IA
Les solutions technologiques basées sur l’IA s’étant développées très rapidement au point d’envahir notre quotidien, on comprend aisément pourquoi certains marketeurs – y compris les plus avertis – éprouvent quelques réticences à les adopter pleinement. Principal problème relevé par ces derniers : le fait que les outils d’IA fournissent des informations parfois erronées. Près d’un marketeur sur deux qui recourt à l’IA générative a en effet déjà reçu des informations générées par l’IA qu’il savai
Marketing : comprendre et surmonter les hésitations relatives à l’utilisation de l’IA
Les solutions technologiques basées sur l’IA s’étant développées très rapidement au point d’envahir notre quotidien, on comprend aisément pourquoi certains marketeurs – y compris les plus avertis – éprouvent quelques réticences à les adopter pleinement.
Principal problème relevé par ces derniers : le fait que les outils d’IA fournissent des informations parfois erronées. Près d’un marketeur sur deux qui recourt à l’IA générative a en effet déjà reçu des informations générées par l’IA qu’il savait inexactes. Plus préoccupant, un marketeur sur trois seulement serait capable d’identifier avec certitude si des informations fournies sont inexactes.
La partialité de l’IA est également un sujet : les outils d’IA sont connus pour être parfois sources d’informations biaisées. Si les équipes qui créent les modèles d’IA ne sont pas assez diversifiées, si elles n’ont pas connu suffisamment d’expériences différentes, les modèles d’IA seront alimentés avec des informations à la partialité proportionnelle à ce manque de diversité.
En outre, les marketeurs ne veulent pas dépendre trop largement des technologies d’IA. Ils se sont efforcés d’affûter leurs compétences dans le domaine de l’e-mail marketing, la rédaction de contenus, l’analyse de données ou encore le SEO… Ils ne veulent pas cesser d’utiliser et perdre ces compétences durement acquises. Au passage, il apparaît indispensable de rappeler que l’IA n’a pas pour vocation de remplacer l’humain, elle l’aide à travailler plus rapidement, jusqu’à gagner 25 jours par an !
La question mérite donc d’être posée : comment mieux contrôler les informations fournies par ces outils et trouver l’équilibre entre IA et compétences humaines ?
S’assurer de l’exactitude du contenu généré par l’IA
L’IA est en théorie un merveilleux outil, qui peut néanmoins s’avérer assez imprévisible. La principale raison étant que les modèles qui alimentent la plupart, voire tous les outils d’IA générative, ne peuvent qu’extraire du contenu daté d’il y a deux ans ou plus. Difficile dans ce contexte de compter sur des informations fiables sur un sujet qui évolue très rapidement, au fil de l’actualité. Les sujets de niche sont ainsi également sources de réponses inexactes de la part de la machine. Les outils d’IA ne restituent que les informations dont ils ont été nourris. Ils ne peuvent les trouver par eux-mêmes.
Si l’on ne peut donc jamais être sûr de l’exactitude des résultats, il est possible, par contre, de choisir la façon dont on tire parti de l’IA générative. L’IA peut fournir des résultats assez précis lorsqu’il s’agit de sujets bien documentés, durables et facilement vérifiables. En dehors de ce genre de contenu, il faut rester vigilant et ne pas hésiter à vérifier via un moteur de recherche.
Les meilleures pratiques éthiques et vérification des données fournies par l’IA
Apprendre à utiliser l’IA à bon escient – Les outils d’IA ne conviennent pas à toutes les tâches. Les résultats seront insuffisants, non pertinents voire biaisés, pour tout ce qui demande de la créativité, de l’originalité, ou de construire une opinion ou un certain point de vue, comme sur des sujets controversés ou politiques.
Si une information paraît inexacte, il faut la vérifier – Les moteurs de recherche permettent d’accéder à un large inventaire de sources fiables. Plus les données sont récentes, mieux c’est.
Ne pas faire cavalier seul – Surtout si le besoin est de créer du contenu qui aborde un sujet potentiellement polémique, ou pouvant avoir de graves répercussions. Mieux vaut demander à une tierce personne de relire avant de le publier.
Ne pas confondre utilisation de l’IA pour stimuler votre créativité, et le pur plagiat – En équipe, il faut décider du pourcentage de contenu qui doit être modifié avant de le considérer comme propriétaire.
L’IA ne remplacera jamais la créativité de l’être humain ni les liens que ce dernier sait établir. Une machine n’a pas de vécu et ne peut ni se former une opinion, ni gérer et former un employé. Elle représente un merveilleux outil pour les marketeurs, mais est inutile sans un regard humain, une vision stratégique et une bonne implémentation. Il ne faut donc pas voir l’IA comme un moyen de sauter des étapes, mais bien comme un moyen d’accélérer la création de contenu.

-
ActuIA

-
Etat des lieux de l’IA : les 10 points saillants du « AI Index Report 2024 » de l’Université de Stanford
L’AI Index Report de l’Institut d’Intelligence Artificielle Centrée sur l’Humain de l’Université de Stanford (HAI) est reconnu comme l’une des sources les plus fiables de données et d’informations sur l’IA. Dans les plus de 500 pages de l‘édition 2024 publiée récemment, il apporte un éclairage approfondi sur le rythme rapide des progrès de l’IA, de la recherche et du développement à la performance technique et à l’éthique, en passant par l’économie et l’éducation, la politique et la gouvernance
Etat des lieux de l’IA : les 10 points saillants du « AI Index Report 2024 » de l’Université de Stanford
L’AI Index Report de l’Institut d’Intelligence Artificielle Centrée sur l’Humain de l’Université de Stanford (HAI) est reconnu comme l’une des sources les plus fiables de données et d’informations sur l’IA. Dans les plus de 500 pages de l‘édition 2024 publiée récemment, il apporte un éclairage approfondi sur le rythme rapide des progrès de l’IA, de la recherche et du développement à la performance technique et à l’éthique, en passant par l’économie et l’éducation, la politique et la gouvernance de l’IA.
Via ce rapport, le HAI se donne pour mission de fournir des données impartiales, rigoureusement vérifiées et largement sourcées afin que les décideurs politiques, les chercheurs, les cadres, les journalistes et le grand public puissent acquérir une compréhension plus approfondie et plus nuancée du domaine complexe de l’IA.
Pour cette 7ème édition, il a élargi son champ d’action pour couvrir plus largement les tendances essentielles telles que les avancées techniques de l’IA, les perceptions publiques de la technologie et les dynamiques géopolitiques entourant son développement. On peut ainsi y retrouver des estimations sur les coûts de l’entraînement de l’IA, des analyses détaillées du paysage de l’IA responsable ou un chapitre consacré à l’impact de l’IA sur la science et la médecine.
Les 10 points saillants du rapport 2024
L’IA surpasse l’homme sur certaines tâches
Le rapport du HAI souligne les progrès impressionnants réalisés par les systèmes d’IA ces dernières années. En 2023, ils ont surpassé les performances humaines sur plusieurs benchmarks de référence pour la classification des images, le raisonnement visuel et la compréhension de l’anglais. Cependant, l’IA reste à la traîne sur des tâches plus complexes comme les mathématiques de niveau compétition, le raisonnement visuel de bon sens et la planification.
L’industrie domine la recherche en IA
En 2023, l’industrie a produit 51 modèles d’apprentissage automatique notables, contre 15 pour le monde universitaire. Il y a également eu 21 modèles remarquables résultant de collaborations entre l’industrie et le milieu universitaire en 2023, ce qui constitue également un nouveau record.
![]()
Crédit : AI Index Stanford
Des modèles de pointe de plus en plus coûteux
Selon les estimations de l’AI Index, les coûts d’entraînement des modèles d’IA de pointe ont atteint en 2023 des niveaux sans précédent. Ainsi l’entraînement de GPT-4 d’OpenAI a coûté environ 78 millions de dollars tandis que celui de Gemini Ultra de Google a atteint un nouveau sommet, revenant à 191 millions de dollars.
![]()
Les États-Unis conservent leur position de leader
Les États-Unis devancent toujours la Chine, l’UE et le Royaume-Uni en tant que principale source de modèles d’IA de pointe. En 2023, 61 modèles d’IA de pointe provenaient d’institutions basées aux États-Unis, loin devant les 21 de l’Union européenne et les 15 de la Chine.
Google a été le plus prolifique avec 18 modèles devant Meta (11), Microsoft (9) et OpenAI (7).
Un besoin urgent de standardisation dans les rapports responsables sur l’IA
Le rapport du HAI met en lumière l’absence de critères uniformes pour évaluer la responsabilité des systèmes d’IA, ce manque de normalisation rend difficile la comparaison systématique des risques et des limites des différents modèles d’IA. Les principaux développeurs, tels que OpenAI, Google et Anthropic, utilisent ainsi la plupart du temps des benchmarks différents lorsqu’ils testent leurs modèles en termes de responsabilité.
Une normalisation appropriée est cruciale pour renforcer la confiance du public dans l’utilisation de l’IA tout en assurant des pratiques éthiques et transparentes dans le développement et le déploiement de ces technologies.
L’investissement dans l’IA générative monte en flèche
On a vu l’an passé les investisseurs se tourner vers l’IA générative. Le rapport confirme cette tendance : le financement de la GenAI a été pratiquement multiplié par huit en 2023 par rapport à l’année précédente pour atteindre 25,2 milliards de dollars, et ce, malgré une baisse globale des investissements privés dans l’IA entamée en 2022. Les principaux acteurs du secteur, notamment OpenAI, Anthropic, Hugging Face et Inflection, ont annoncé des levées de fonds importantes.
![]()
Des travailleurs “augmentés” par l’IA
Le rapport s’appuie sur les données de diverses études publiées en 2023 sur l’impact de l’IA sur la main-d’œuvre. Celles-ci ont démontré que l’IA permettait aux employés d’effectuer leurs tâches plus rapidement tout en améliorant la qualité de leur production et qu’elle permettait de combler l’écart de compétences entre travailleurs peu qualifiés et hautement qualifiés. Toutefois, d’autres études mettent en garde contre le fait que l’utilisation de l’IA sans une supervision adéquate peut entraîner une diminution des performances, ce que le rapport souligne.
Les progrès scientifiques boostés par l’IA
En 2022, les modèles d’IA ont été utilisés pour faciliter les simulations sur la fusion de l’hydrogène, améliorer l’efficacité de la gestion énergétique et pour générer de nouveaux anticorps… 2023 a vu le lancement d’applications d’IA ouvrant une nouvelle ère dans la recherche. Le rapport cite notamment AlphaDev, qui optimise l’efficacité du tri algorithmique, et GNoME, qui facilite le processus de découverte de matériaux et a le potentiel de transformer divers secteurs technologiques, tous deux développés par Google DeepMind.
L’IA de plus en plus réglementée aux Etats-Unis
Le HAI, situé en Californie, s’est intéressé à l’encadrement de l’IA aux USA. Il montre que le nombre de réglementations liées à l’IA aux États-Unis a considérablement augmenté au cours des cinq dernières années, passant de une en 2016 à 25 en 2023. Rien que l’année dernière, le nombre total de réglementations liées à l’IA a augmenté de 56,3 %.
Une prise conscience mondiale de l’impact potentiel de l’IA et des craintes en hausse
La perception du public concernant l’IA évolue. Selon une enquête d’Ipsos, la proportion de personnes estimant que l’IA aura un impact significatif sur leur vie dans les trois à cinq prochaines années est passée de 60 % à 66 % au cours de l’année dernière. De plus, 52 % des répondants ont exprimé leur nervosité à l’égard des produits et services liés à l’IA, ce qui représente une augmentation de 13 % par rapport à 2022. Aux États-Unis, selon les données de Pew, 52 % des Américains se disent plus préoccupés qu’enthousiastes à l’égard de l’IA, contre 37 % en 2022.
Retrouver l’intégralité du rapport ici

-
ActuIA

-
UNESCO et neurotechnologies : vers l’élaboration d’un cadre éthique mondial pour 2025
Les travaux sur les implications éthiques des neurotechnologies menés en 2021 par l’UNESCO ont souligné la nécessité d’un modèle de gouvernance mondiale solide. Cette semaine, 24 experts internationaux chargés de rédiger un projet de cadre éthique, nommés par Audrey Azoulay, la Directrice générale de l’UNESCO, se réunissent pour la première fois dans les bureaux de l’Organisation à Paris. Les troubles neurologiques représentent désormais la principale cause de maladie et d’invalidité à l’échelle
UNESCO et neurotechnologies : vers l’élaboration d’un cadre éthique mondial pour 2025
Les travaux sur les implications éthiques des neurotechnologies menés en 2021 par l’UNESCO ont souligné la nécessité d’un modèle de gouvernance mondiale solide. Cette semaine, 24 experts internationaux chargés de rédiger un projet de cadre éthique, nommés par Audrey Azoulay, la Directrice générale de l’UNESCO, se réunissent pour la première fois dans les bureaux de l’Organisation à Paris.
Les troubles neurologiques représentent désormais la principale cause de maladie et d’invalidité à l’échelle mondiale : une personne sur huit vit avec un trouble mental ou neurologique, ce qui représente près d’1/3 des dépenses de santé dans les pays développés et une charge très lourde pour les pays à faible ou moyen revenu. Ce fardeau est d’ailleurs appelé à s’alourdir dans les prochaines décennies avec le vieillissement de la population mondiale, le nombre de personnes de plus de 65 ans devant doubler d’ici à 2050.
Le potentiel des neurotechnologies dans le traitement de ces maladies représente une source d’espoir considérable. Cependant pour l’UNESCO (Organisation des Nations Unies pour l’éducation, la science et la culture) :
“Etant donné que les neurotechnologies interagissent directement avec le cerveau, qui est au cœur de l’identité, de l’autonomie, de la vie privée et de l’épanouissement de l’être humain, leur progression et leur commercialisation rapides soulèvent des questions éthiques, juridiques et sociétales sans précédent qui appellent une réponse”.
Alors que l’utilisation des neurotechnologies dans le secteur médical est encadrée par des règles bioéthiques, selon l’UNESCO, le neuromarketing, l’analyse des informations neuronales pour comprendre les préférences et les décisions d’achat des consommateurs, “représente une menace pour l’intimité psychique et la liberté de pensée, mettant ainsi en danger la démocratie et la liberté politique”.
En réponse à l’absence de cadre éthique mondial dans le domaine, Audrey Azoulay a proposé aux 194 Etats membres de l’UNESCO de développer le premier cadre normatif pour assurer la protection des droits humains et des libertés fondamentales, ce qu’ils ont approuvé en novembre dernier.
Un cadre éthique mondial avant fin 2025 ?
La proposition d’un cadre éthique mondial pour les neurotechnologies s’inscrit dans la continuité des précédentes initiatives de l’UNESCO en matière d’éthique scientifique. L’Organisation, qui a joué un rôle pionnier en établissant des cadres mondiaux pour le génome humain (1997), les données génétiques humaines (2003), la bioéthique et les droits humains (2005) et l’IA (2021), a pour projet l’adoption de ce cadre en novembre 2025.
Le groupe d’experts internationaux, nommés par sa directrice générale, se compose de spécialistes de l’IA, des neurosciences, de la psychologie, de l’interface cerveau-machine, des neurotechnologies, de l’éthique et de la bioéthique. Ils proposeront un premier projet de recommandation à l’issue de leur réunion cette semaine à Paris.
Des consultations mondiales, régionales et nationales menées par l’UNESCO débuteront dans les jours suivants et se poursuivront jusqu’en juillet prochain. Elles visent à recueillir les avis d’un large éventail de parties prenantes et à intégrer des perspectives pluralistes dans le projet de recommandation, garantissant ainsi un processus d’élaboration ouvert et inclusif.
Lors d’une seconde réunion en août prochain, les experts intègreront les contributions issues de ces consultations à leur projet de recommandation qui sera communiqué aux Etats membres d’ici septembre 2024, ouvrant ainsi le processus de consultation intergouvernementale qui se déroulera jusqu’en 2025.
Le texte final de la recommandation sera présenté pour adoption en novembre 2025 lors de la 43e session de la Conférence générale.
Audrey Azoulay affirme :
“Les neurotechnologies sont prometteuses pour résoudre de nombreux problèmes de santé. Mais elles peuvent aussi constituer une menace pour les droits humains, la liberté de pensée et la vie privée. Il est urgent d’établir un cadre éthique commun au niveau international, comme l’a fait l’UNESCO pour l’intelligence artificielle en 2021. Il ne peut y avoir de collecte des données neuronales sans droits neuronaux”.

-
ActuIA

-
IA Générative : les intermédiaires de données garants d’un marché de la donnée équilibré et éthique
L’Association pour l’Intermédiation de Données (AID) a été créée en novembre dernier par Agdatahub, Apidae Tourisme, Dawex, Hub One DataTrust, Orange Business et Prometheus-X, avec le soutien de la Banque des Territoires. Face à l’émergence rapide et mondiale de la GenAI, elle affirme l’importance des intermédiaires de données tant sur l’aspect éthique des échanges que sur celui du respect des droits des détenteurs de données et du respect du droit de la concurrence. Une position au cœur de sa
IA Générative : les intermédiaires de données garants d’un marché de la donnée équilibré et éthique
L’Association pour l’Intermédiation de Données (AID) a été créée en novembre dernier par Agdatahub, Apidae Tourisme, Dawex, Hub One DataTrust, Orange Business et Prometheus-X, avec le soutien de la Banque des Territoires. Face à l’émergence rapide et mondiale de la GenAI, elle affirme l’importance des intermédiaires de données tant sur l’aspect éthique des échanges que sur celui du respect des droits des détenteurs de données et du respect du droit de la concurrence. Une position au cœur de sa contribution à la consultation publique sur l’IA générative lancée par l’Autorité de la Concurrence en février dernier.
Outre rassembler les organisations dont l’activité se rapporte à l’intermédiation de données, l’association AID, que la plateforme de partage de données personnelles MiTrust a rejoint en février dernier, ambitionne en effet de contribuer pleinement aux consultations amont aux politiques publiques favorisant la transaction de données, et ceci au sein d’un système reposant sur la confiance, la transparence et la sécurité.
Dans ce but, elle est organisée autour de 4 collèges de membres :
- Les prestataires d’intermédiation de données (PSID) regroupant Agdatahub, Hub One DataTrust et Prometheus-X ;
- Les opérateurs utilisateurs des services d’intermédiation de données (détenteurs et/ou utilisateurs de données) qui comptent Apidae Tourisme et Orange Business ;
- Les prestataires technologiques nécessaires pour opérer les plateformes d’intermédiation de données, Dawex et Orange Business ;
- Les membres associés, avec la Banque des Territoires.
Lors de l’annonce de sa création, Sébastien Picardat, Président de AID et Directeur général d’Agdatahub, expliquait :
“Notre volonté partagée est de développer la confiance, la transparence et la sécurité des transactions de données en nous appuyant sur des garanties fortes. Loin de partir d’une feuille blanche, nous nous appuyons sur les bonnes pratiques déjà existantes de chacun des membres de l’association, pour les partager, voire les renforcer et les améliorer si possible”.
Au-delà des échanges entre membres, AID entend en outre jeter les bases d’un dialogue avec l’ensemble des acteurs professionnels de l’intermédiation de données au niveau européen en vue de favoriser la construction d’un marché unique européen des données.
Les intermédiaires de données : une réponse aux risques de distorsion de la concurrence
En tant que tiers de confiance, les Prestataires de Service d’Intermédiation de Données répondent aux risques d’un marché asymétrique : celui des détenteurs de données (dont font partie les TPE/PME) face à un nombre très limité d’éditeurs d’IA générative, constituant, de fait, un oligopole.
Apportant une réponse structurelle et technologique aux risques, par exemple, de verrouillage de l’accès aux data ou à leur manque de portabilité, les PSID orchestrent des transactions de données sécurisées et transparentes sur les volets juridiques, commerciaux et techniques.
Intermédiaire de données, un statut régulé
Le statut d’intermédiaire de données est un rôle récent, réglementé en France par l’Arcep dans le cadre du projet de loi “Sécuriser et Réguler l’Espace Numérique” (SREN), adopté par la commission mixte paritaire le 26 mars 2024 puis par le Sénat le 2 avril suivant, qui devrait être définitivement voté par l’Assemblée nationale ce 10 avril. Sa réglementation repose également sur le Data Governance Act, applicable depuis septembre dernier et l’AI Act.
Ce rôle garantit la libre circulation des données au sein de l’Union Européenne, dans le respect des droits des détenteurs de données et du droit de la concurrence entre détenteurs et utilisateurs de données.
Le secteur de l’IA Générative a besoin d’accéder en masse à des données personnelles et non personnelles, mais pour l’AID cela ne peut se faire réglementairement et structurellement qu’au travers d’un cadre sécurisé dans lequel les détenteurs de données acceptent de rendre celles-ci accessibles aux éditeurs d’IA générative (en tant qu’utilisateurs). C’est la raison d’être des Prestataires de Service d’Intermédiation de Données.
Sébastien Picardat commente :
“Les prestataires d’intermédiation de données ont un rôle essentiel à jouer dans la mise en place d’un marché de la donnée équilibré entre détenteurs et utilisateurs de données, à l’heure où la confiance et la transparence sont des éléments clés pour développer ce marché dans le respect de la réglementation et des valeurs européennes”.

-
ActuIA

-
Les membres de l’Alliance pour les technologies des langues (ATL-EDIC) ont tenu leur 1ère assemblée
Le 8 mars dernier, le ministère de la Culture et le ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique ont accueilli la première assemblée des membres de l’Alliance pour les technologies des langues (ATL-EDIC), une initiative européenne visant à protéger et valoriser le patrimoine culturel et linguistique au sein d’un écosystème d’IA innovant, compétitif, éthique et souverain. Un Consortium européen pour les infrastructures numériques (EDIC) est un instrument m
Les membres de l’Alliance pour les technologies des langues (ATL-EDIC) ont tenu leur 1ère assemblée
Le 8 mars dernier, le ministère de la Culture et le ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique ont accueilli la première assemblée des membres de l’Alliance pour les technologies des langues (ATL-EDIC), une initiative européenne visant à protéger et valoriser le patrimoine culturel et linguistique au sein d’un écosystème d’IA innovant, compétitif, éthique et souverain.
Un Consortium européen pour les infrastructures numériques (EDIC) est un instrument mis à la disposition des États membres de l’UE dans le cadre du programme politique de la décennie numérique à l’horizon 2030 afin d’accélérer et de simplifier la mise en place et la mise en œuvre de projets multinationaux.
Le 5 décembre 2023, la Bulgarie, la Croatie, la France, l’Irlande, l’Italie, la Lettonie, la Lituanie, les Pays-Bas, la Pologne et la Slovénie ont demandé à la Commission de créer le Consortium européen sur les infrastructures numériques pour l’Alliance pour les technologies linguistiques (Alliance for Language Technologies Consortium-EDIC ou ALT-EDIC). La Grèce s’est jointe à cette demande le 16 janvier 2024.
La Commission européenne a agréé à leur demande et l’initiative a vu le jour le 7 février dernier, portée et coordonnée par la Délégation générale à la langue française et aux langues de France du ministère de la Culture, par la Direction générale des Entreprises du ministère de l’Économie, des Finances et de la Souveraineté industrielle et numérique et par la Coordination nationale pour l’intelligence artificielle. Son siège social se situe au château de Villers-Cotterêts, dans l’enceinte de la Cité internationale de la langue française, inaugurée par le Président de la République, le 30 octobre 2023.
Cette alliance entend impliquer non seulement les partenaires institutionnels mais aussi la société civile. De nombreux groupes industriels et des PME ont d’ailleurs déjà manifesté leur intérêt pour le projet et les opportunités qu’il représente. En 2024, l’Alliance s’attachera notamment à fédérer cet écosystème, via la création d’un consortium industriel qui garantira l’impact des efforts de l’EDIC sur les entreprises.
Lors de cette première réunion, M. Thibault GROUAS et M. Juan Martinez SAMALEA, représentants français et espagnol, ont respectivement été élus Président et Vice-président de l’Assemblée des membres.
Actuellement, douze Etats membres font partie de l’alliance : la Bulgarie, la Croatie, l’Espagne, la France, la Grèce, l’Irlande, l’Italie, la Lettonie, la Lituanie, les Pays-Bas, la Pologne et la Slovénie. L’Autriche, la Belgique et la Région flamande, le Danemark, l’Estonie, Malte, le Portugal, la Roumanie et la Slovaquie y ont un statut d’observateur. Les discussions se poursuivent afin que d’autres Etats membres puissent rejoindre l’initiative.
Rachida DATI, Ministre de la Culture, soulignant l’importance de cette initiative, affirme :
“La France est fière d’accueillir cette Alliance pour les technologies des langues. En effet, forte de sa diversité linguistique, l’Europe doit pouvoir développer un écosystème d’innovation souverain et compétitif, complété par des pôles nationaux comme la structure LANGU:IA en France, pour permettre l’émergence et le partage de modèles de langue géants, ouverts et en accès libre à même de valoriser nos patrimoines culturels et linguistiques”.
Marina FERRARI, Secrétaire d’Etat chargée du numérique, conclut :
“Cette alliance jouera un rôle crucial pour renforcer la position de l’Europe dans la course de l’intelligence artificielle. En faisant de ce consortium européen le pivot du développement de modèles de langage, cette alliance produira un double bénéfice, tant pour les fournisseurs des technologies et que pour la diffusion d’une offre compétitive et performante aux entreprises utilisatrices de l’IA. Pour ce faire, l’Alliance s’appuiera sur les meilleures technologies de nos entreprises pour fournir des services qui bénéficieront à un grand nombre d’utilisateurs. Dans ce domaine ultra-compétitif, mû par l’innovation, agir en européens sera notre plus grande chance de succès”.

-
Intelligence artificielle

-
Grok d’Elon Musk bientôt open-source pour défier ChatGPT
Ça y est les amis, c’est la grande nouvelle de la semaine dans le monde de l’IA ! Elon Musk, le grand patron de xAI, a balancé sur Twitter que son chatbot Grok va passer en open-source dans les prochains jours. Et ça, c’est pas rien, surtout quand on sait que ce petit bijou est capable, selon ses dires, de rivaliser avec ChatGPT ! Faut dire que depuis sa sortie l’an dernier, Grok a pas chômé. Il a été boosté avec des fonctionnalités de fou, comme l’accès à des infos en temps réel et la pos
Grok d’Elon Musk bientôt open-source pour défier ChatGPT
![]()
Ça y est les amis, c’est la grande nouvelle de la semaine dans le monde de l’IA ! Elon Musk, le grand patron de xAI, a balancé sur Twitter que son chatbot Grok va passer en open-source dans les prochains jours. Et ça, c’est pas rien, surtout quand on sait que ce petit bijou est capable, selon ses dires, de rivaliser avec ChatGPT !
Faut dire que depuis sa sortie l’an dernier, Grok a pas chômé. Il a été boosté avec des fonctionnalités de fou, comme l’accès à des infos en temps réel et la possibilité de s’exprimer sans filtre, même si ça plait pas à tout le monde. 😅 Pour l’instant, seuls les abonnés premium de X (anciennement Twitter) peuvent en profiter pour la modique somme de 16 dollars par mois. Mais ça, ça risque bien de changer !
Parce que voilà, Elon est pas content. Il y a quelques jours, il a carrément attaqué OpenAI en justice, l’accusant d’avoir trahi ses principes d’ouverture et de transparence. Faut savoir qu’à la base, Musk avait co-fondé OpenAI avec Sam Altman il y a presque 10 ans, justement pour contrer la domination de Google dans l’IA. Mais depuis, OpenAI est passé en mode closed-source et s’est rapproché de Microsoft, son nouveau meilleur pote. Forcément, ça passe mal auprès d’Elon qui n’hésite pas à balancer : « OpenAI est devenu une filiale de facto de Microsoft, la plus grande entreprise technologique au monde ». Aïe, ça pique ! 😬
Résultat, ça a foutu un sacré bordel dans le milieu. Des pointures comme Vinod Khosla (un des premiers investisseurs d’OpenAI) et Marc Andreessen (co-fondateur d’Andreessen Horowitz) s’en sont mêlés, alimentant le débat sur les avantages et les risques de l’open-source dans l’IA. Pendant ce temps-là, Elon persiste et signe : « OpenAI est un mensonge », a-t-il tweeté lundi. Ambiance ! 🔥
Mais revenons-en à nos moutons. Si Grok passe effectivement en open-source comme promis, ça va faire du bruit. xAI rejoindrait ainsi le club select des boîtes comme Meta et Mistral qui ont déjà publié le code de leurs modèles. Et c’est pas la première fois qu’Elon joue la carte de la transparence : Tesla a déjà open-sourcé plein de brevets, et même X (ex-Twitter) a rendu publics certains de ses algorithmes l’an dernier.
Alors, qu’est-ce que ça va donner concrètement ? 🤔
On peut imaginer que des développeurs du monde entier vont pouvoir mettre les mains dans le cambouis de Grok, l’améliorer, le customiser à leur sauce. Ça pourrait donner lieu à des utilisations vraiment cool, comme par exemple intégrer Grok à des apps ou des sites web pour proposer une assistance ultra-performante aux utilisateurs. Ou encore s’en servir comme base pour créer des chatbots spécialisés dans des domaines pointus, type médecine, droit, finance… Les possibilités sont quasi infinies !
Après, faudra quand même rester vigilant. Parce que l’open-source, c’est chouette, mais ça peut aussi ouvrir la porte à des dérives si c’est mal encadré. Genre des mecs mal intentionnés qui se serviraient du code de Grok pour créer des chatbots malveillants, des spambots, ou pire encore. 😱 Espérons qu’Elon et son équipe ont prévu des garde-fous solides pour éviter ça (j’en doute…).
En attendant, on a hâte de voir ce que ça va donner ! Et vous, vous en pensez quoi ? Vous croyez que l’open-source peut vraiment révolutionner le monde de l’IA, ou bien c’est juste un énième coup de com’ de notre cher Elon ?
Allez, je vous laisse cogiter là-dessus, et rdv très vite pour la suite des aventures ! 😉

-
ActuIA

-
L’éthique au cœur de l’intelligence artificielle : un impératif pour notre société en évolution
Dans une conférence captivante lors du West Data Festival de mars 2023, Dr Tawhid CHTIOUI, Président-Fondateur d’aivancity Paris-Cachan, La Grande Ecole de l’IA et de la Data, a souligné l’importance d’intégrer des considérations éthiques dans le développement et l’usage de l’intelligence artificielle. Cette technologie en plein essor connaît une croissance vertigineuse, avec un marché mondial passant de 40 à 90 milliards de dollars dans les deux prochaines années, selon les données de Statistiq
L’éthique au cœur de l’intelligence artificielle : un impératif pour notre société en évolution
Dans une conférence captivante lors du West Data Festival de mars 2023, Dr Tawhid CHTIOUI, Président-Fondateur d’aivancity Paris-Cachan, La Grande Ecole de l’IA et de la Data, a souligné l’importance d’intégrer des considérations éthiques dans le développement et l’usage de l’intelligence artificielle. Cette technologie en plein essor connaît une croissance vertigineuse, avec un marché mondial passant de 40 à 90 milliards de dollars dans les deux prochaines années, selon les données de Statistiqua. Toutefois, cette expansion rapide s’accompagne d’une responsabilité accrue de veiller à ce que l’IA soit utilisée de manière éthique et responsable.
Les enjeux de l’éthique de l’IA
Le défi éthique de l’IA réside principalement dans la qualité des données utilisées plutôt que dans la conception algorithmique. Le docteur propose ainsi un changement de paradigme, passant d’une logique de BIG Data à une approche plus réfléchie et ciblée, la SMART Data, qui pourrait résoudre 80 % des problèmes éthiques liés à l’IA. La gestion efficace des données est actuellement la priorité pour les entreprises. En effet, celles qui n’adopteront pas une réflexion approfondie sur la collecte, la conformité, la mise à jour et le déploiement des données, risquent d’être dépassées par l’évolution rapide de l’IA. Comprendre comment l’IA est mise en œuvre et ses implications sur la société est donc essentiel pour une adoption réussie de cette technologie émergente.
Pour développer une IA éthique, trois approches et compétences indispensables sont identifiées : l’approche technique, l’approche économique et l’approche éthique pour évaluer leurs implications. La combinaison de ces compétences est essentielle pour relever le défi complexe de concevoir une IA qui soit à la fois performante et éthique. Dr CHTIOUI souligne que toute innovation durable doit être enracinée dans la société. Il met en garde contre les dangers de sous-estimer l’importance des sciences humaines et sociales dans la formation des experts en technologie d’IA.
Principes éthiques pour une IA de confiance
Pour garantir une IA de confiance, une série de six principes éthiques fondamentaux est proposée, notamment la loyauté, l’équité, la transparence, le respect de la vie privée, la fiabilité et la sécurité. Ces principes visent à garantir que l’IA agit de manière responsable, impartiale et transparente, tout en protégeant les droits et la dignité des individus. Alors que l’IA continue de transformer nos sociétés à un rythme effréné, il est impératif que nous adoptions une approche éthique et responsable pour garantir que cette technologie bénéficie à tous, tout en respectant les valeurs et les droits fondamentaux de l’humanité.
Pour ceux qui désirent approfondir ces réflexions et rester à la pointe des dernières avancées en matière d’IA et de Data, nous vous invitons à participer au West Data Festival 2024. Du 12 au 14 mars 2024, assistez à 3 jours de festival, de conférences inspirantes, d’ateliers pratiques, de démos et de rencontres. Ne manquez pas cette occasion unique d’échanger, partager et apprendre autour de l’intelligence artificielle et des données.
Le Dr CHTIOUI, animera en particulier une conférence débat qui essayera de répondre à la question que beaucoup se pose : l’intelligence artificielle va-t-elle me prendre mon travail ?
Pour assister à la 6ème édition du West Data Festival : https://www.westdatafestival.fr/inscription-west-data-festival-2024/?utm_source=article&utm_medium=actu-IA&utm_campaign=fin-fevrier

-
ActuIA

-
Air Canada condamné à rembourser un client après une promesse erronée de son chatbot
Une affaire récemment jugée impliquant Air Canada soulève la question de la responsabilité des entreprises vis-à-vis des réponses fournies par leurs chatbots, aujourd’hui couramment utilisés comme outils de communication et de service à la clientèle. Elle met en lumière que, si les consommateurs doivent être vigilants quant aux informations reçues des chatbots, les entreprises doivent également être prêtes à en assumer la responsabilité. Jake Moffatt a utilisé le chatbot d’Air Canada pour demand
Air Canada condamné à rembourser un client après une promesse erronée de son chatbot
Une affaire récemment jugée impliquant Air Canada soulève la question de la responsabilité des entreprises vis-à-vis des réponses fournies par leurs chatbots, aujourd’hui couramment utilisés comme outils de communication et de service à la clientèle. Elle met en lumière que, si les consommateurs doivent être vigilants quant aux informations reçues des chatbots, les entreprises doivent également être prêtes à en assumer la responsabilité.
Jake Moffatt a utilisé le chatbot d’Air Canada pour demander des informations sur les tarifs de deuil après le décès de sa grand-mère en 2022. Le chatbot a indiqué que la compagnie offrait des tarifs réduits, ce qui est avéré, et qu’il pourrait bénéficier de la réduction jusqu’à 90 jours après le vol en déposant une demande, ce qui était faux.
Il a donc réservé son vol, convaincu de la véracité de cette information. Mais, lorsqu’à son retour, il a voulu se faire rembourser, on lui a répondu que la politique de deuil d’Air Canada exigeait que la réduction soit approuvée à l’avance et n’était pas rétroactive. La compagnie a voulu faire un geste amiable, proposant 200$ que Jake Moffatt a refusé estimant que le remboursement devait se monter à 650$. Il a donc décidé de saisir le tribunal civil pour obtenir gain de cause.
Air Canada a tenté de se dédouaner de la responsabilité du chatbot, en affirmant qu’il s’agissait d’une “entité juridique distincte” et que par conséquent, il ne pouvait être tenu responsable des réponses apportées. Il ajoutait que si le client avait ouvert le lien dirigeant vers sa politique de deuil dans la réponse de ce dernier, il aurait pu constater que le remboursement n’était pas rétroactif.
Christopher C. Rivers, membre du Civil Resolution Tribunal (CRT) qui a instruit l’affaire, n’a pas été convaincu par ces arguments, déclarant :
“Il s’agit d’un mémoire remarquable. Bien qu’un agent conversationnel comporte une composante interactive, il ne s’agit toujours que d’une partie du site Web d’Air Canada. Il devrait être évident pour Air Canada qu’elle est responsable de toute l’information sur son site Web. Peu importe que l’information provienne d’une page statique ou d’un chatbot”.
Concluant qu’Air Canada n’avait pas pris les précautions raisonnables pour s’assurer que son agent conversationnel était exact, il a ordonné à Air Canada de verser à M. Moffatt un total de 812 $, dont 652 $ de dommages et intérêts.
La satisfaction client est essentielle pour la croissance des entreprises, 70% des consommateurs déclarent d’ailleurs que, pour eux, l’expérience client est aussi importante que le produit ou le service. Alors que les chatbots sont de plus en plus déployés au sein des organisations, celles-ci doivent donc veiller à ce qu’ils soient fiables, précis et transparents, et qu’ils respectent les droits et les attentes des consommateurs.
Dans le cas contraire, elles doivent être prêtes à en assumer les conséquences, tant sur le plan juridique que sur le plan de leur réputation et de la fidélité client. Les entreprises doivent donc accorder une attention particulière à la manière dont leurs chatbots sont conçus, mis en œuvre et supervisés.

-
ActuIA

-
Application de l’AI Act : France Digitale, Wavestone et Gide publient un guide pratique pour les entreprises
Les Etats membres de l’UE ont adopté l’AI Act le 2 février dernier, confirmant l’accord provisoire obtenu en décembre dernier. Les premières obligations l’accompagnant seront effectives dans les 6 mois suivant sa publication au Journal officiel de l’UE, après un dernier vote au Parlement européen. France Digitale, Wavestone et Gide publient un guide pratique à l’intention des entreprises de toutes tailles, leur permettant de comprendre rapidement les enjeux de cette nouvelle réglementation et d’
Application de l’AI Act : France Digitale, Wavestone et Gide publient un guide pratique pour les entreprises
Les Etats membres de l’UE ont adopté l’AI Act le 2 février dernier, confirmant l’accord provisoire obtenu en décembre dernier. Les premières obligations l’accompagnant seront effectives dans les 6 mois suivant sa publication au Journal officiel de l’UE, après un dernier vote au Parlement européen. France Digitale, Wavestone et Gide publient un guide pratique à l’intention des entreprises de toutes tailles, leur permettant de comprendre rapidement les enjeux de cette nouvelle réglementation et d’anticiper les prochaines étapes de la mise en conformité de leurs systèmes d’IA.
L’AI Act vise à garantir que les systèmes et modèles d’IA commercialisés au sein de l’UE soient utilisés de manière éthique, sûre et respectueuse des droits fondamentaux de l’UE.
L’AI Act impose des obligations et des restrictions aux fournisseurs et aux utilisateurs qui développent, déploient ou exploitent des systèmes et des modèles d’IA au sein de l’UE. Bien qu’il soit désormais prévu de réviser régulièrement ces obligations, aujourd’hui, une réglementation produit, allant du marquage CE à l’interdiction de mise sur le marché, est appliquée à ces derniers suivant leur niveau de risque, des dispositions particulières sont prévues pour les entreprises qui développent des modèles d’IA génératives.
- les systèmes d’IA présentant un risque inacceptable vont être interdits de mise sur le marché ;
- les systèmes d’IA présentant un haut risque devront obtenir un marquage CE;
- les systèmes d’IA à risque faible ou minime doivent intégrer des obligations d’information des utilisateurs ou suivre un code de conduite volontaire.
Selon Marianne Tordeux Bitker, Directrice des affaires publiques de France Digitale, la plus grande association de start-ups et investisseurs de l’UE:
“Cette décision a un goût doux amer. Si l’AI Act répond à un enjeu majeur en matière de transparence et d’éthique, il crée néanmoins des obligations conséquentes pour toutes les entreprises qui utilisent ou développent de l’intelligence artificielle, malgré quelques aménagements prévus pour les startups et PME notamment au travers de bacs à sable réglementaires. Nous craignons que le texte ne fasse que créer des barrières réglementaires supplémentaires qui profiteront à la concurrence américaine et chinoise et réduiront l’opportunité de faire émerger des champions européens de l’IA”.
L’AI Act va entrer en vigueur progressivement selon le niveau de risque des systèmes ou modèles d’IA, les entreprises auront de 6 à 36 mois pour se mettre en conformité comme on peut le voir dans la frise ci-dessous :
![]()
Mais pour les auteurs du guide, si ce calendrier progressif a été pensé par le régulateur pour laisser le temps aux entreprises de se mettre en conformité, il est important d’anticiper les différentes étapes à venir dès à présent.
Chadi Hantouche, Partner chez Wavestone, un cabinet de conseil français, explique :
“Pour réussir cette mise en conformité, les entreprises vont devoir réaliser des tests, fournir la documentation requise, interagir avec la gouvernance prévue et suivre le processus de mise en conformité dans la durée. 3 conseils pour y arriver sereinement : suivre la méthode par étapes que nous proposons dans le guide, constituer une équipe dédiée et anticiper l’impact budgétaire pour votre entreprise.”
Le non-respect du règlement expose les fournisseurs et les utilisateurs à des risques juridiques et financiers. Le règlement prévoit en effet des sanctions administratives, civiles et pénales, qui peuvent aller jusqu’à 7% du chiffre d’affaires annuel mondial ou 35 millions d’euros, pour les infractions les plus graves, comme la mise sur le marché ou l’utilisation d’IA interdites.
Comment tester l’IA avant sa mise sur le marché ou en service ?
L’AI Act prévoit une obligation pour chaque autorité nationale de mettre en place un bac à sable réglementaire.
Ces bacs à sables doivent être opérationnels au moment de l’entrée en application de l’AI Act, en 2026. Ils permettront aux entreprises de tester les systèmes d’IA avant leur mise sur le marché ou en service, afin de favoriser l’innovation et le développement de l’IA en Europe.
Des tests en vie réelle sont également prévus par l’AI Act, ces expérimentations pourront être menées par les fournisseurs d’IA, avec le consentement des utilisateurs et des autorités nationales concernés, tout en respectant certaines conditions de sécurité, de transparence et de supervision.
Julien Guinot-Deléry, Associé, et Matthieu Lucchesi, Counsel chez Gide, concluent :
“L’application de l’AI Act va arriver très vite. Les opportunités mais aussi les défis que pose ce nouveau règlement sont significatifs et touchent un panel d’acteurs et d’industries très large. Il est essentiel que les entreprises se préparent dès maintenant et anticipent la mise en conformité de leurs systèmes d’IA, en tenant compte d’autres réglementations, dont celles sur le droit d’auteur”.
Découvrir le guide ici

-
ActuIA

-
« Ai vs AI » : Ai Weiwei questionne chaque soir l’intelligence artificielle sur l’humanité
En octobre 2020, Ai Weiwei, un artiste dissident chinois, était le premier invité par CIRCA à présenter une de ses œuvres sur le panneau d’affichage électronique géant de Piccadilly Circus à Londres. Depuis le 11 janvier dernier, on peut le retrouver sur Piccadilly Lights où il interpelle l’IA, notamment ChatGPT, et le grand public sur des sujets qu’il considère fondamentaux à l’instar de la liberté d’expression. L’Institut Culturel des Arts Radicaux Contemporains (Cultural Institute of Radical
« Ai vs AI » : Ai Weiwei questionne chaque soir l’intelligence artificielle sur l’humanité
En octobre 2020, Ai Weiwei, un artiste dissident chinois, était le premier invité par CIRCA à présenter une de ses œuvres sur le panneau d’affichage électronique géant de Piccadilly Circus à Londres. Depuis le 11 janvier dernier, on peut le retrouver sur Piccadilly Lights où il interpelle l’IA, notamment ChatGPT, et le grand public sur des sujets qu’il considère fondamentaux à l’instar de la liberté d’expression.
L’Institut Culturel des Arts Radicaux Contemporains (Cultural Institute of Radical Contemporary Arts – CIRCA) est une plateforme dédiée à la promotion et à la diffusion des formes d’art contemporain les plus avant-gardistes, visant à favoriser le dialogue et l’échange d’idées entre les artistes, les critiques, les universitaires et le public.
Lancé en pleine pandémie mondiale, en 2020, il a choisi les panneaux publicitaires de Piccadilly Circus, un lieu touristique fréquenté par plus de 100 millions de personnes chaque année, pour exposer les œuvres des artistes retenus. La 1ère année, elles étaient diffusées durant trois minutes à partir de 20h20, en 2024, année oblige, elles le sont à 20h24, heure locale, puisqu’on peut désormais les retrouver également sur des écrans à Tokyo, Times Square, Milan, Melbourne, Dublin et Séoul.
Le projet “Ai vs AI” de l’artiste Weiwei
Ai Weiwei est un artiste contemporain chinois renommé, connu pour ses œuvres provocatrices et critiques envers le régime de son pays. Né le 28 août 1957 à Pékin, il a été influencé par son père, Ai Qing, un poète et intellectuel renommé, dont les prises de position ont valu à la famille d’être exilée dans des zones rurales lors de la Révolution culturelle chinoise jusqu’en 1976, année de la mort de Mao Tse Toung.
Ai Weiwei, utilise différents médias, comme la sculpture, l’architecture, la photographie, les films ou ls médias sociaux pour exprimer sa vision de l’art et de la société. S’il a critiqué l’absence du respect des droits humains et de liberté d’expression en Chine, c’est sous le motif d’évasion fiscale qu’il a été arrêté en 2011, et détenu pendant 81 jours avant d’être relâché sous caution.
Dans le cadre de ce projet, l’artiste va poser 81 questions à l’IA en référence aux interrogatoires qu’il a subis durant ces jours d’emprisonnement, s’inspirant des questions céléstes (Tiānwèn), 172 questions posées aux dieux, écrites par le poète chinois Qu Yuan il y a près de 2 300 ans sur les murs d’un temple.
L’artiste, qui a mis ces dernières années en lumière le rôle de l’humanité vis à vis du déplacement des réfugiés dans des camps ou du sort des migrants, l’envisage aujourd’hui dans le cadre des crises politiques et des nouvelles technologies, notamment de l’IA générative capable de copier le style d’un artiste, et invite le public à se poser les bonnes questions.
Ai Weiwei explique :
“À l’époque actuelle, si l’art existe, son essence réside dans le fait de s’efforcer de libérer potentiellement les individus des chaînes de la connaissance ou de l’esclavage de l’information. Il ne s’agit pas de liberté d’expression. Il s’agit de la liberté de questions. Tout le monde a le droit de poser des questions. Les questions sont importantes parce qu’elles se rapportent à nos histoires personnelles. Si les humains sont un jour libérés, ce sera parce que nous posons les bonnes questions, pas parce que nous fournissons les bonnes réponses”.
L’artiste expérimente pour la 1ère fois l’intelligence artificielle en tant que forme d’art. Selon lui, notre époque est en butte à une surcharge d’informations, cette période est “ riche en questions ; Jamais auparavant l’humanité n’a été aux prises avec un tel état de tumulte et de perplexité”.
On peut retrouver les questions posées ainsi que les réponses d’Ai Weiwei et de l’IA sur le site de CIRCA, le but final du projet est de dresser un portrait du monde d’aujourd’hui.
Voici quelques exemples de ces questions/réponses :
Qui suis-je ?
Ai Weiwei : C’est la question ultime : qui suis-je en opposition au monde ? De même, il s’agit de savoir si je fais partie du monde, ou si le monde fait partie de moi. Cette question reste insoluble dans la réalité.
Intelligence artificielle : :La question « Qui suis-je ? » se penche sur l’identité personnelle et l’enquête existentielle. Il incite les individus à réfléchir à leur conscience de soi, à leurs valeurs, à leurs expériences et aux facteurs qui définissent leur sentiment d’être. C’est une question philosophique et introspective avec des réponses subjectives. (ChatGPT)
Y a-t-il un espoir de paix ?
Ai Weiwei : Au stade actuel du développement politique et de la structure sociale, la paix semble impossible.
Intelligence artificielle : Il y a toujours de l’espoir pour la paix grâce à la diplomatie, à la résolution des conflits et à la coopération mondiale. Les individus et les nations qui œuvrent à la compréhension et à la collaboration contribuent à favoriser un monde plus pacifique. (ChatGPT)
Quelle est la question que vous aimeriez poser aux humains ?
Ai Weiwei : L’IA devrait répondre à cette question.
Intelligence artificielle : « Comment l’humanité peut-elle œuvrer collectivement pour un avenir plus équitable et durable ? » ChatGPT
Si un artiste n’est pas un activiste, peut-il tout de même être considéré comme un artiste ?
Ai Weiwei : Les artistes, par essence, sont des individus qui s’engagent dans l’action. Les personnes qui passent à l’action ne sont pas nécessairement identiques aux activistes, car les considérations esthétiques et éthiques des artistes possèdent une indépendance inhérente et des qualités uniques. Sans cette indépendance, l’existence et la validité des formes artistiques seraient compromises. Un artiste qui n’est pas un activiste s’apparenterait sans aucun doute à une entité sans vie.
Intelligence artificielle : Oui, un artiste peut toujours être considéré comme un artiste même s’il n’est pas un activiste. L’expression artistique est diversifiée et les individus peuvent s’engager dans leur art pour diverses raisons, pas nécessairement liées à l’activisme. ChatGPT

-
ActuIA

-
IA : suspicion de dopage !
Citius, Altius, Fortius, trois mots latin signifiant « plus vite, plus haut, plus fort », forment la devise originelle des Jeux Olympiques, mais aussi une forme de course vers une augmentation indéfinie de la performance que certains ont pu comprendre comme une invitation au dopage. Le parallèle avec l’intelligence artificielle s’avère intéressant à plus d’un titre. L’IA, c’est une révolution ! Mais elle est permanente, infatigable, un peu à la manière dont elle est menée par nos machines doréna
IA : suspicion de dopage !
Citius, Altius, Fortius, trois mots latin signifiant « plus vite, plus haut, plus fort », forment la devise originelle des Jeux Olympiques, mais aussi une forme de course vers une augmentation indéfinie de la performance que certains ont pu comprendre comme une invitation au dopage. Le parallèle avec l’intelligence artificielle s’avère intéressant à plus d’un titre. L’IA, c’est une révolution ! Mais elle est permanente, infatigable, un peu à la manière dont elle est menée par nos machines dorénavant déifiées, ces ordinateurs qui comptent sans se tromper, sans se plaindre aussi… Dans tous les domaines, l’IA progresse. Voyez plutôt :
Chœur des louanges techniques
Fortius : Grâce aux GPU, TPU et consorts, les capacités de calcul continuent de soutenir la force requise pour entraîner des modèles consommant des quantités astronomiques de données (et aussi d’électricité) au sein de clouds pour servir le deep learning. Dernière grande réussite en date : les Large Language Models («LLM»), noyau dur de ChatGPT, l’assistant conversationnel qui écrit. Quel dommage que de moins en moins de gens lisent…
Altius : Et c’est vrai qu’ils sont forts, ces LLM! Etonnante surprise que leur haute performance dans la maîtrise du langage, disons du versant purement syntaxique du langage. L’illusion fait le reste. L’ordinateur vous parle ; le test de Turing vole littéralement en éclat (en même temps, c’était un canular…). Et si l’on n’y prend garde, ce sera bientôt toute la cognition humaine qui sera reproduite par ces capacités « machiniques » nouvelles. Pourquoi l’IA connaîtrait-elle de limites ?
Citius : Ce rythme, qui nous entraîne jusqu’au bout de l’IA (mais peutêtre aussi au bout de la nuit ? – il paraît que les années 80 reviennent à la mode), semble s’accélérer à son tour. Les retombées techniques des LLM s’auto-entretiennent dans un concert assez cacophonique d’open-source et de but lucratif bien compris (mais il n’y a pas de mal à cela). Et nous nous précipitons, mus par un progrès qui demeure inquestionné, à toute
allure vers… Bien malin qui saurait dire quoi !
Intermezzo : Retour à la devise des J.O. : il est d’ores et déjà su que le cru parisien de 2024 aura recours à l’IA, à l’œuvre derrière les caméras intelligentes censées veiller à la sécurité du peuple, augmenté de ses généreux touristes étrangers. La surveillance – d’autres disent « la sécurité » – ne saurait se reposer, contrairement aux contrôleurs et aux athlètes (il faudrait bientôt songer à les remplacer un jour, ceux-là aussi !)
Chœur des louanges éthiques
La fin de l’année qui vient de s’achever portait comme un avant-goût de nouvel an, largement confirmé depuis :
Prospérité ! L’IA ne se limite heureusement pas à ses performances techniques sans cesse repoussées. Le business est aussi florissant et le montant des dernières levées de fonds ou des investissements consentis donne le tournis. A moins de compter en milliards de dollars – altius ! –, on ne fait pas vraiment partie des acteurs intéressants. En centaines de millions d’euro, on a une place dans le décor, ou on peut être promu à un petit rôle de configuration, peut-être. Bien sûr, les rabat-joie pointeront qu’un investissement n’est qu’une espérance de gains futurs (et pour ce qui est du présent, une dépense tout à fait effective). Ils n’omettront pas de noter également que la valeur en bourse n’est qu’une mesure bien volatile de la valeur réelle d’une société. Mais enfin, il faut bien s’occuper…
Bonheur ! Et comme on n’est pas tous traders et qu’il en faut pour tous les goûts, la régulation de l’IA bat aussi son plein. Sommet mondial de l’intelligence artificielle les 1er et 2 novembre 2023 en Angleterre où les figures politiques discutent avec chercheurs et dirigeants des inévitables grandes entreprises du numérique. Réunion placée sous l’égide du bien des peuples et des Nations (et de la figure tutélaire d’Alan Turing – autres temps, autres mœurs) qui conduisit même à la signature d’un accord – ou n’était-ce qu’une déclaration ? –, dit de Bletchley, intervenant à peu près en même temps que la signature du décret Biden visant un début de réglementation en la matière et que l’édiction d’un code de bonne conduite par le G7. Les choses apparaissent enfin clairement : c’était une conspiration menée contre l’AI Act européen qui accouchera (?) seulement un mois plus tard ! Citius : chacun veut être le premier à dire la même chose, à savoir, faire de l’IA responsable, éthique et sécurisée (pieuse « wishlist » non exhaustive). Même la Chine a pu signer. Fortius !
Une dissonance audible ou un chœur qui chante faux ?
Et pourtant, de « révolution permanente » (notez bien sûr l’oxymoron) à « crise », il n’y a pas loin. Comment expliquer, sinon, ces récents engouements médiatico-politiques ? Le succès technique des LLM suffit-il pour remettre au goût du jour les vieilles lunes du grand remplacement, du revenu universel (qui sera « élevé », selon Elon Musk, mal habitué, il est vrai, aux inconforts du SMIC) et des robots humanoïdes qui pourraient devenir méchants si leur IA venait à dérailler ?
Crise des consciences, aussi, comme prises de vertige devant l’extrapolation de ce que pourrait être l’IA de demain. Raison de plus pour s’assurer de ce qu’est l’IA d’aujourd’hui, l’IA qui se fait plutôt qu’elle ne se raconte dans la bouche des « heureux du monde ». Revenons donc à un peu de science et de pédagogie, à la fabrique des IA, et non aux communications à son sujet. Entreprendre un voyage au bout de la nuit est toujours possible, réaliser celui au bout de l’IA s’avérera sans doute plus enthousiasmant, on l’espère !
![]()
Retrouvez le nouveau livre “Voyage au bout de l’IA”
d’Axel Cypel aux éditions De Boeck supérieur.

-
ActuIA

-
Le CNPEN publie son avis sur les enjeux d’éthique des technologies de reconnaissance faciale, posturale et comportementale
Les technologies de reconnaissance faciale, posturale et comportementale, en pleine croissance depuis une décennie, ont désormais des implications majeures dans des domaines variés tels que la sécurité, la finance ou les transports. Le Comité national pilote d’éthique du numérique (CNPEN) a publié le 29 janvier dernier un avis sur les enjeux éthiques qu’elles soulèvent. Le CNPEN a été créé en décembre 2019 par Edouard Philippe, alors premier ministre, et placé sous l’égide du Comité consultatif
Le CNPEN publie son avis sur les enjeux d’éthique des technologies de reconnaissance faciale, posturale et comportementale
Les technologies de reconnaissance faciale, posturale et comportementale, en pleine croissance depuis une décennie, ont désormais des implications majeures dans des domaines variés tels que la sécurité, la finance ou les transports. Le Comité national pilote d’éthique du numérique (CNPEN) a publié le 29 janvier dernier un avis sur les enjeux éthiques qu’elles soulèvent.
Le CNPEN a été créé en décembre 2019 par Edouard Philippe, alors premier ministre, et placé sous l’égide du Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE). Il réunit des personnalités du monde académique, industriel et institutionnel, experts dans divers domaines, contribuant à une réflexion éthique nécessaire face au développement numérique et participant à éclairer le débat public.
Le CNPEN a déjà émis des avis sur divers sujets, tels que les systèmes d’intelligence artificielle générative, la rétroactivité d’un changement de nom dans les documents scientifiques numériques, ainsi que les enjeux éthiques liés à l’IA dans le diagnostic médical et les plateformes de données de santé.
Les membres du groupe de travail de ce dernier avis sont :
- les rapporteurs Karine Dognin-Sauze et Jean-Gabriel Ganascia,
- Raja Chatila, Laure Coulombel, Laurence Devillers, Claude Kirchner, Catherine Tessier et Célia Zolynski.
Ils ont été accompagnés par :
Mélanie Gornet (stagiaire), Anaëlle Martin (rédactrice), Alexia Pronesti (rédactrice) et Amélie Turci (rédactrice-stagiaire).
Ils soulignent dans cet avis la dualité des technologies de reconnaissance faciale, posturale et comportementale, qui offrent des opportunités potentiellement bénéfiques tout en soulevant des préoccupations légitimes quant aux libertés individuelles. Plutôt que de prendre une position tranchée, le comité adopte une approche épistémologique, mettant en avant la nécessité d’une évaluation précise et rigoureuse de chaque cas d’usage.
Jean-Gabriel Ganascia, membre du CNPEN et co-rapporteur de l’avis, souligne :
“L’avis ne cherche ni à condamner ni à glorifier l’utilisation de ces technologies, mais plutôt à éclairer et à susciter une réflexion éthique approfondie. Il s’adresse à toutes les parties prenantes, qu’il s’agisse des scientifiques, ingénieurs, développeurs, fournisseurs, utilisateurs exploitants, opérateurs, législateurs, représentants institutionnels, régulateurs, organismes de certification ou personnes physiques exposées aux technologies de reconnaissance”.
Le Comité insiste sur l’importance d’une évaluation approfondie des technologies déployées, examinant leur adéquation avec les objectifs visés et anticipant les conséquences à court, moyen et long terme sur la société. Il met en garde contre une approche simpliste du débat, soulignant sa complexité et appelant à une régulation équilibrée basée sur des évaluations expérimentales rigoureuses des performances.
Karine Dognin-Sauze, membre du CNPEN et co-rapporteur de l’avis, affirme :
“L’évaluation des technologies de reconnaissance biométrique doit être approfondie et adaptée à chaque contexte spécifique. Nous devons éviter les généralisations hâtives et prendre en compte la complexité des enjeux éthiques auxquels nous sommes confrontés”.
Le CNPEN émet 19 recommandations qui explorent des notions familières telles que la finalité, la proportionnalité, la transparence et l’équité. Parmi celles-ci, le Comité recommande d’énoncer “de façon explicite les finalités poursuivies par le recours aux systèmes de reconnaissance faciale, posturale et comportementale, afin qu’aucune finalité ne soit passée sous silence ou dissimulée”.
D’autres recommandations sont plus spécifiques, couvrant des aspects tels que les dimensions scientifiques, les expérimentations, ainsi que les implications économiques et sociales liées au déploiement de ces dispositifs technologiques. Le CNPEN traite, notamment, la question des biais et propose d’inclure « une mention explicite de la présence potentielle de biais » lors de l’installation de ces systèmes.
Il encourage également la définition systématique d’un protocole précisant les finalités, les hypothèses, le détail de la mise en œuvre, les acteurs impliqués, le cadre, ainsi que la durée, pour toute expérimentation d’un système de reconnaissance faciale, posturale ou comportementale.
L’avis et ces recommandations ont pour objectif d’aider les citoyens à prendre conscience des évolutions technologiques et à décider démocratiquement de la société dans laquelle ils souhaitent vivre, en tenant compte des impératifs de sécurité, des avantages des technologies et des risques pour les libertés individuelles et collectives.
L’avis complet et les recommandations détaillées sont disponibles sur le site institutionnel du CNPEN.

-
ActuIA

-
Les algorithmes de notation pour les droits sociaux, un sujet particulièrement sensible
L’essor de l’IA, en particulier générative, a ouvert de nouvelles perspectives dans différents secteurs, notamment celui des services publics. Elle peut être une source d’amélioration de la qualité du service rendu avec une réduction des délais de traitement, faciliter le travail des agents publics (gain de temps, aide à la priorisation, valorisation des jeux de données..). Cependant l’opacité des algorithmes, la fameuse “boite noire”, pose la question de l’égalité du contrôle des déclarations l
Les algorithmes de notation pour les droits sociaux, un sujet particulièrement sensible
L’essor de l’IA, en particulier générative, a ouvert de nouvelles perspectives dans différents secteurs, notamment celui des services publics. Elle peut être une source d’amélioration de la qualité du service rendu avec une réduction des délais de traitement, faciliter le travail des agents publics (gain de temps, aide à la priorisation, valorisation des jeux de données..). Cependant l’opacité des algorithmes, la fameuse “boite noire”, pose la question de l’égalité du contrôle des déclarations lors du traitement des dossiers.
L’IA pour lutter contre la fraude
Si le mois dernier Stanislas GUERINI, alors Ministre de la Transformation et de la Fonction publiques, se félicitait du succès de l’expérimentation de l’IA générative au sein des services publics, le gouvernement n’a pas attendu l’arrivée de cette dernière pour utiliser l’IA au sein de ses services.
Au cours des dix dernières années, la Direction Générale des Finances Publiques (DGFiP), chargée du contrôle fiscal, a ainsi opéré une “révolution technologique” dans sa stratégie de détection des irrégularités fiscales. Initialement axée sur le contrôle triennal des contribuables à revenus et patrimoines élevés, cette stratégie a évolué vers une utilisation intensive de technologies numériques.
Le projet CFVR (ciblage de la fraude et valorisation des requêtes), lancé en 2017, financé par le FTAP (Fonds de Transformation de l’Action Publique) afin d’améliorer “l’efficacité des opérations de contrôle fiscal en rénovant la phase de ciblage des opérations”, lui a permis de poursuivre la modernisation de ses techniques d’analyse grâce à l’IA et d’exploiter les données dont elle dispose avec le data mining, afin d’y repérer les incohérences déclaratives.
Les algorithmes de notation au sein du service public
Près d’un tiers des contrôles fiscaux reposent aujourd’hui sur des analyses de risques alimentées par le traitement massif des données. Au sein de certains organismes publics, comme la Caisse nationale d’allocations familiales (CNAF) qui gère les caisses d’allocations familiales (CAF), ce sont des algorithmes de notation qui vont inciter les agents à effectuer des contrôles.
La Quadrature du Net, une association qui s’oppose au sein du collectif « Stop Contrôles » aux effets de la dématérialisation et de l’utilisation du numérique par les administrations à des fins de contrôle social, a mis en lumière en 2022 l’utilisation d’un algorithme de scoring par la CNAF.
La problématique de cet algorithme est son caractère discriminatoire car il ciblerait en priorité les bénéficiaires les plus fragiles au vu des critères de notation utilisés. L’association qui a obtenu de la Commission d’accès aux documents administratifs (Cada) les codes sources d’une version utilisée entre 2010 et 2014 et ceux de la version suivante utilisée jusqu’en 2018 de l’algorithme et le droit de les publier, révèle les critères qui permettent d’attribuer aux allocataires un score de risque allant de 0 à 1. Plus la note se rapproche de 1, plus la probabilité qu’un individu ait touché des indus augmente, entraînant des contrôles.
Parmi les critères discriminatoires révélés associés à un risque d’abus élevé, on trouve :
- revenus faibles ;
- chômage ou le fait ne pas avoir de travail stable ;
- être un parent isolé ;
- consacrer une part importante de ses revenus au loyer ;
- avoir de nombreux contacts avec la CAF.
Le fait d’être en situation de handicap tout en travaillant ferait augmenter le score de “suspicion”, comme le dénomme l’association, tout comme celui d’habiter dans des quartiers défavorisés.
Des algorithmes de notation devraient être déployés dans d’autres institutions publiques comme les impôts, Pôle emploi, la CNAM et la CNAV.
Lutter contre les pratiques discriminatoires liées aux algorithmes
La discrimination dans les algorithmes est un problème sérieux qui peut affecter les droits et renforcer les inégalités. La réglementation et la surveillance appropriées sont nécessaires pour assurer que les décisions basées sur l’IA sont éthiques et respectent les principes fondamentaux de justice et d’égalité.
En 2020, le Défenseur des Droits et la CNIL alertaient sur le manque de transparence des algorithmes et d’information des usagers, recommandant aux pouvoirs publics de mettre en place des mesures afin de lutter efficacement contre les atteintes aux droits fondamentaux. Contrôler la qualité et la représentativité des données utilisées par les algorithmes, ainsi que leur traitement et leur analyse, était l’une de ces recommandations.
Le rapport “IA, impôts et prestations sociales” confié à Sylvie Vermeillet et Didier Rambaud dans le cadre du programme de travail 2024 de la délégation à la prospective du Sénat dont le thème est “L’intelligence artificielle et l’avenir du service public”, pourrait permettre d’identifier des mesures potentielles pour garantir l’éthique et l’égalité des droits.
