Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Promesses et défis de la révolution IA dans les systèmes de santé en transition : l’exemple du Maroc

L’intelligence artificielle se développe au Maroc dans plusieurs établissements hospitaliers, comme outils d’aide au diagnostic, en télémédecine pour la prise en charge de populations rurales, etc. Les premiers résultats sont prometteurs. Mais ces technologies posent aussi nombre de questions d’ordre éthique, juridique et aussi de fiabilité. Par exemple, le fait que la plupart des systèmes d’IA en santé soient développés sur des données issues de populations occidentales pose question.


Le Maroc a franchi un cap symbolique en 2024 avec le lancement de sa stratégie nationale de développement de l’intelligence artificielle et la feuille de route « Maroc IA 2030 » qui a placé la santé parmi ses secteurs prioritaires.


À lire aussi : L’Afrique à l’assaut de l’IA, avec le Rwanda, le Maroc et le Kenya en moteurs


Cette ambition intervient alors que l’Organisation mondiale de la santé (OMS) estime que l’IA pourrait améliorer significativement l’accès aux soins dans les pays à ressources limitées.

Mais comment cette révolution technologique peut-elle s’adapter aux réalités du système de santé marocain, entre espoirs légitimes et défis considérables ?

Des applications concrètes qui transforment déjà la pratique médicale

L’intelligence artificielle commence à s’implanter dans plusieurs hôpitaux marocains, particulièrement dans les centres hospitaliers universitaires de Casablanca et Rabat. Les algorithmes d’aide au diagnostic médical montrent des résultats prometteurs, notamment en radiologie où ils détectent avec une précision comparable aux radiologues expérimentés certaines anomalies pulmonaires ou osseuses.

Prenons l’exemple concret d’une radiographie thoracique : là où un radiologue peut mettre plusieurs minutes à analyser l’image et rédiger son compte-rendu, un algorithme d’IA peut identifier en quelques secondes les zones suspectes, signalant par exemple une pneumonie ou une tumeur potentielle. Le médecin garde bien sûr le dernier mot, mais dispose d’une aide précieuse, particulièrement dans les services surchargés.

La télémédecine constitue un autre domaine d’application majeur. Dans un pays où les disparités géographiques d’accès aux soins restent importantes, les systèmes d’IA permettent de faire le lien entre patients des zones rurales et spécialistes urbains.

Imaginons une patiente diabétique vivant dans une région reculée de l’Atlas : grâce à une application mobile équipée d’IA, elle peut photographier ses analyses de sang, recevoir une première analyse automatisée et être mise en relation avec un endocrinologue si nécessaire, sans avoir à parcourir des centaines de kilomètres.

La gestion hospitalière bénéficie également de ces technologies. Les algorithmes prédictifs aident à anticiper les besoins en ressources, à optimiser la planification des blocs opératoires et à gérer les stocks de médicaments. Un système d’IA peut par exemple prédire les pics d’affluence aux urgences en fonction de multiples facteurs (épidémies saisonnières, accidents, conditions météorologiques) et permettre d’ajuster les effectifs en conséquence.

Des défis éthiques et juridiques à ne pas sous-estimer

L’enthousiasme technologique ne doit pas occulter des questions fondamentales. La protection des données de santé constitue le premier enjeu. Le Maroc dispose certes d’une loi sur la protection des données personnelles, mais son cadre juridique reste encore incomplet concernant spécifiquement les données de santé et leur utilisation par des algorithmes d’IA.

Concrètement, que se passe-t-il lorsqu’un hôpital collecte les dossiers médicaux de milliers de patients pour entraîner un algorithme ? Qui a accès à ces données ? Comment garantir leur anonymisation ? Peuvent-elles être transférées à l’étranger pour être traitées par des entreprises technologiques internationales ? Ces questions restent largement sans réponse.

L’équité d’accès représente un autre défi majeur. Si l’IA est déployée prioritairement dans les grands centres urbains, elle risque d’accentuer les inégalités territoriales existantes. Un cardiologue de Casablanca pourrait bénéficier d’un électrocardiogramme analysé instantanément par IA, tandis qu’un médecin généraliste isolé dans une commune rurale continuerait à travailler avec des moyens limités.

La question de la responsabilité médicale soulève également des interrogations inédites. Imaginons qu’un algorithme rate un diagnostic de cancer sur une mammographie et que la patiente ne soit diagnostiquée que des mois plus tard, à un stade avancé. Qui est responsable : le radiologue qui a validé l’analyse automatisée, l’établissement qui a adopté le système, ou la société qui l’a développé ? Le cadre juridique marocain actuel n’apporte pas de réponses claires.

Les biais algorithmiques, un risque invisible mais réel

Un problème plus subtil mais tout aussi crucial concerne les biais des algorithmes. La plupart des systèmes d’IA en santé sont développés sur des données issues de populations occidentales. Leur transposition directe au contexte marocain pose question : les particularités génétiques, épidémiologiques et socioculturelles de la population marocaine sont-elles suffisamment représentées ?

Un exemple parlant : un algorithme de diagnostic dermatologique entraîné principalement sur des peaux claires pourrait avoir des difficultés à détecter correctement un mélanome sur une peau plus foncée. De même, un outil d’évaluation du risque cardiovasculaire calibré sur des populations européennes pourrait sous-estimer ou surestimer les risques pour des patients marocains ayant un profil génétique et des habitudes alimentaires différents.

Des recherches internationales ont démontré que des algorithmes peuvent reproduire voire amplifier des discriminations existantes. Dans le contexte marocain, cela pourrait également se traduire par des performances dégradées pour certaines populations déjà vulnérables.

Vers une adoption responsable et adaptée

Pour que l’intégration de l’IA dans le système de santé marocain soit réellement bénéfique, plusieurs conditions doivent être réunies. D’abord, développer un cadre réglementaire spécifique combinant protection des données, certification des algorithmes médicaux et définition des responsabilités. L’Union européenne a récemment adopté une législation sur l’IA (l’AI Act) dont le Maroc pourrait s’inspirer.

Ensuite, investir massivement dans la formation des professionnels de santé. L’IA ne remplacera pas les médecins mais transformera leurs pratiques. Un jeune médecin marocain doit aujourd’hui apprendre non seulement la sémiologie clinique traditionnelle, mais aussi à interpréter les recommandations d’un algorithme, à identifier ses limites et à conserver son esprit critique.

La recherche locale en IA santé doit également être encouragée. Les universités marocaines doivent développer des algorithmes entraînés sur des données locales, reflétant les spécificités de la population et des pathologies prévalentes au Maroc.

Enfin, une approche inclusive s’impose. Le déploiement de l’IA en santé doit s’accompagner d’investissements dans les infrastructures de base : connectivité Internet dans les zones rurales, équipements médicaux numériques, formation du personnel… L’objectif étant que la technologie serve à réduire les inégalités plutôt qu’à les creuser.

L’intelligence artificielle offre au Maroc une opportunité historique de moderniser son système de santé et d’améliorer l’accès aux soins de millions de citoyens. Mais cette transformation ne réussira que si elle s’accompagne d’une réflexion éthique approfondie, d’un cadre juridique adapté et d’une volonté politique de garantir l’équité.

La technologie n’est qu’un outil : c’est la manière dont nous choisissons de l’utiliser qui déterminera si elle servira réellement l’intérêt général.

The Conversation

Oumaima Omari Harake ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Comprendre les « modèles de fondation », ces nouvelles infrastructures numériques à la base de nombreuses applications d’IA

La polyvalence des modèles de fondation les transforme en une nouvelle « infrastructure » numérique, au même titre que le cloud ou Internet. Au lieu de reconstruire un modèle d’IA spécifique à chaque projet, on peut se brancher directement sur des briques généralistes existantes. C’est un des secrets qui permet de développer des applications si sophistiquées et qui restent accessibles aux non-spécialistes.


Les systèmes d’apprentissage automatique ne se limitent plus à des outils conçus pour une seule tâche, comme la traduction ou la recommandation de produits. Une transformation majeure tient à l’émergence des foundation models, ou modèles de fondation : de très grands modèles entraînés sur des volumes massifs de données pour acquérir des connaissances générales, réutilisables dans de nombreux contextes.

Dans les organisations, ils agissent comme un accélérateur potentiel de transformation, mais leurs effets sur le terrain obligent, pour l’instant, à nuancer les promesses spectaculaires. Comment fonctionnent-ils ? Comment sont-ils régulés et quels sont les obstacles à une adoption qui porte ses fruits ?

Comment fonctionnent les modèles de fondation ?

Les modèles de fondation reposent sur un principe simple : apprendre des structures générales à partir de très grandes quantités de données hétérogènes – textes, images, codes, sons, vidéos, bases de données ouvertes et contenus sous licence, ou une combinaison de ces types de données.

L’objectif de l’entraînement initial est de permettre au modèle d’identifier des régularités statistiques dans les données et de construire des représentations générales du langage, des images ou d’autres formes d’information. Sur le plan technique, ces systèmes utilisent le plus souvent des architectures de réseaux de neurones profonds. Durant la phase d’entraînement, le modèle apprend à prédire une partie manquante de l’information, par exemple le mot suivant dans une phrase ou une portion d’image, en ajustant progressivement des milliards de paramètres. Ce processus d’apprentissage, appelé pré-entraînement, nécessite des ressources de calcul considérables et constitue la base du caractère « généraliste » de ces modèles.


À lire aussi : Aux sources de l’IA : le prix Nobel de physique attribué aux pionniers des réseaux de neurones artificiels et de l’apprentissage machine


Une fois pré-entraîné, le modèle de fondation peut être adapté à des usages spécifiques, allant de l’analyse de sentiment ou la réponse à des questions jusqu’à des tâches plus techniques, comme l’assistance au diagnostic médical.

Cette adaptation peut se faire grâce à un ajustement supplémentaire appelé fine-tuning, par exemple en nourrissant un modèle généraliste d’imagerie médicale avec des radiographies spécifiques à une maladie permettant à l’outil d’apprendre à prédire l’évolution d’une pathologie précise.

Elle peut aussi passer par l’apprentissage avec retour humain (reinforcement learning with human feedback), qui consiste à faire évaluer plusieurs réponses par des humains pour inciter le modèle à privilégier des formulations claires et sécurisées plutôt que de simples suites de mots statistiques.

Enfin, cette adaptation peut s’opérer simplement par prompting, en guidant le modèle par des instructions textuelles du type : « Résume ce document en trois points. »

C’est cette capacité à être réutilisés dans de nombreux contextes qui explique pourquoi ces systèmes sont qualifiés de « modèles de fondation » : ils servent de base technologique à une large gamme d’applications. Par exemple, GPT-4 ou GPT-5 servent déjà de socle opérationnel à de nombreuses applications, à l’image de ChatGPT, tout en conservant un potentiel d’extension encore largement ouvert.

infographie décrivant l’entraînement puis la spécialisation de modèles issus de modèles de fondation
Les modèles de fondation servent de base technologique à une large gamme d’applications. Cette infographie décrit l’entraînement puis les applications spécifiques issues de modèles de fondation. Sabrine Mallek, Fourni par l'auteur

Comprendre l’écosystème : comment modèles de fondation, LLM et IA générative s’articulent-ils ?

Concrètement, les modèles de fondation ne sont pas une application en soi, mais une infrastructure de base. Ils marquent une évolution récente de l’intelligence artificielle (IA), rendue possible par la combinaison de trois facteurs : l’explosion des données, les progrès des capacités de calcul et l’apparition de nouvelles architectures d’apprentissage.

Un tournant majeur intervient en 2017 avec l’architecture des transformers. Cette innovation permet de mieux capter les relations dans les données (notamment le langage), et devient la base de modèles comme BERT ou GPT. Lorsqu’un modèle de fondation (une expression née officiellement en 2021) est spécialisé dans le traitement du langage, on parle alors de grand modèle de langage (LLM). Et c’est sur cette base que se développent aujourd’hui les usages les plus visibles : ceux de l’IA générative, capable de produire du texte, des images, des vidéos, du son ou du code – qui est devenue grand public et commercialement viable avec le lancement de ChatGPT, fin 2022, marquant le passage de l’infrastructure à l’usage de masse.

Le rapport entre ces modèles de fondation et l’IA générative peut être comparé à celui d’un « moteur » par rapport à sa « fonction ». Le modèle de fondation est ce moteur puissant, pré-entraîné sur des données colossales et conçu pour être adaptable à une multitude de tâches. L’IA générative, quant à elle, est la fonction d’application finale : c’est la capacité de ce moteur à produire un contenu inédit.

Concrètement, si l’on prend un modèle de fondation comme GPT-4 (le moteur), on peut l’utiliser pour analyser des milliers d’avis clients (une tâche purement analytique). Mais lorsqu’on lui demande de rédiger un e-mail, on active alors sa fonction d’IA générative. De la même manière, dans le domaine visuel, un modèle de fondation entraîné sur des millions d’images peut servir de moteur aussi bien pour détecter une anomalie sur une radiographie médicale (classification) que pour dessiner un paysage imaginaire à partir d’une simple phrase (IA générative).

Imbrication entre infrastructure technique, spécialisation linguistique (LLM) et fonction de génération. La génération est une fonction parmi d’autres (c’est une application pratique des modèles de fondation lorsqu’on leur demande de générer du contenu). Sabrine Mallek, Fourni par l'auteur

Promesses d’efficience et réalités de terrain

Cette polyvalence signifie que les modèles de fondation tendent à devenir une nouvelle « infrastructure » numérique, au même titre que le cloud ou Internet : au lieu de reconstruire un modèle d’IA spécifique propre à chaque projet, les acteurs économiques se branchent directement sur ces briques généralistes existantes.

Dans les organisations, ils agissent comme un accélérateur potentiel de transformation, mais leurs effets sur le terrain obligent à nuancer les promesses de gains de productivité spectaculaires. Beaucoup d’entreprises peinent encore à dégager un retour sur investissement évident pour l’automatisation administrative, constatant souvent que les modèles de fondation ne réduisent pas la charge de travail, mais l’intensifie : les employés doivent désormais consacrer davantage d’énergie à vérifier et à corriger les résultats.

Par ailleurs, l’assistance aux experts (aide au code, à la décision) se heurte à une « frontière technologique en dents de scie » : face à une tâche donnée, le modèle peut exceller, mais s’avérer contre-productif s’il est utilisé aveuglément en dehors de sa zone de compétence.

Néanmoins, ces modèles permettent de créer de nouveaux services comme la personnalisation de la relation client à grande échelle. Mais pour libérer ce potentiel, la simple mutualisation technologique ne suffit pas. Il faut impérativement repenser l’organisation du travail en formant les employés pour leur donner l’autonomie nécessaire face à la machine.

Les débats européens sur la régulation

En Europe, les enjeux se sont cristallisés dans les discussions autour de l’AI Act, qui introduit une catégorie spécifique pour les « systèmes d’IA à usage général », dont les modèles de fondation sont l’exemple emblématique. L’idée est de ne plus réguler uniquement les cas d’usage finaux, mais aussi ces briques génériques qui irriguent tout l’écosystème.

La Commission nationale de l’informatique et des libertés (Cnil) s’est également saisie de ces enjeux à travers un plan d’action consacré à l’intelligence artificielle, visant à accompagner l’innovation tout en garantissant la protection des droits fondamentaux. Elle met notamment l’accent sur la protection des données utilisées pour entraîner les modèles, la transparence des systèmes ainsi que le développement d’IA respectueuses de la vie privée.

Dans ce contexte, l’entraînement de ces modèles soulève aussi des défis importants au regard du règlement général sur la protection des données (RGPD), notamment concernant l’origine des données utilisées, la possibilité pour les individus d’exercer leurs droits sur leurs données et la capacité technique des systèmes à supprimer ou de ne plus exploiter certaines informations après leur intégration dans l’apprentissage. Pour les entreprises, cela signifie que ces technologies doivent être intégrées dans des démarches structurées de conformité, de documentation et de gestion des risques.

La question devient donc : dans quelles conditions utiliser les modèles de fondation ? Cela implique une gouvernance claire entre fournisseurs, intégrateurs et utilisateurs, des exigences de transparence et de documentation, l’anticipation des impacts sur l’emploi à travers la formation et la reconversion ainsi qu’une articulation avec les politiques de responsabilité sociétale des entreprises (RSE), afin d’évaluer leurs effets sociaux, organisationnels et environnementaux.

The Conversation

Sabrine Mallek ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Intelligence artificielle : quels sont les apports concrets de la régulation européenne ?

L’intelligence artificielle s’impose désormais au cœur de décisions qui engagent directement la vie, la santé et les droits des citoyens européens. Dans des entreprises, des administrations, des hôpitaux ou sur des plateformes numériques, des algorithmes trient, évaluent, recommandent et parfois décident. Face à cette automatisation croissante, une question centrale se pose : la réponse de l’Union européenne pour encadrer l’intelligence artificielle est-elle à la hauteur des risques qu’elle prétend prévenir ?


Imaginons qu’une entreprise décide d’utiliser une intelligence artificielle (IA) pour automatiser son processus de recrutement. L’algorithme, conçu pour analyser des milliers de CV, est entraîné sur les données RH de l’entreprise des dix dernières années. Or, les profils recrutés durant cette période sont majoritairement masculins. L’algorithme déduit alors de ces données que les candidats masculins sont préférables et exclut de fait les profils féminins.

Ce scénario n’est pas fictif : il s’inspire directement du cas d’Amazon, dont l’outil de recrutement par IA a dû être abandonné après la révélation de ces biais eu égard aux risques juridiques qu’ils engendraient. Cet exemple illustre précisément les risques que le législateur entend prévenir : erreurs algorithmiques, atteintes aux droits fondamentaux, captation et fuite de données, dépendance technologique.

En réponse, l’Union européenne a bâti depuis plusieurs années un arsenal juridique ambitieux, allant du Règlement général sur la protection des données (RGPD) au Règlement sur l’intelligence artificielle (RIA). Ces textes doivent relever un défi de taille : concilier innovation et protection, réguler les acteurs internationaux sans les éloigner du marché européen, et garantir les droits fondamentaux sans censure – le tout face à des technologies transversales, opaques et en constante évolution. Cet ensemble de règles constitue-t-il une réponse satisfaisante ?

Pas de régulation de l’IA, sans régulation des données

La régulation de l’intelligence artificielle ne saurait être envisagée indépendamment d’une politique structurée de la donnée. La donnée constitue en effet le carburant indispensable au développement et au perfectionnement des systèmes d’intelligence artificielle. En cela, la quantité de données compte tout autant que leur qualité.

C’est pourquoi, le législateur européen a d’abord cherché à réguler la donnée avant de réguler l’IA : d’une part avec le RGPD dont la finalité est de protéger les données à caractère personnel (les informations concernant une personne physique identifiée ou identifiable, comme un numéro de téléphone ou une adresse postale).

D’autre part avec une série de textes portant sur la régulation des données non personnelles (les informations ne se rapportant à aucune personne identifiable, comme une statistique ou un nombre d’accidents sur une autoroute visée). Ceux-ci comprennent le DSA, le DMA, le DGA, le Data Act et visent notamment à limiter la domination des géants du numérique et organiser le partage et l’accès de certaines données entre plateformes, entreprises, administrations publiques et utilisateurs, condition indispensable au développement de l’IA.

Ces textes relatifs aux données ont été le préalable à l’élaboration de la première réglementation générale au monde sur l’intelligence artificielle : le RIA.

Quelles sont les obligations imposées aux entreprises par le RIA ?

Contrairement aux États-Unis, qui privilégient une approche dérégulée, et à la Chine, qui encadre principalement certains usages ciblés, l’Union européenne a fait le choix d’un cadre juridique général et contraignant, s’appliquant à l’ensemble des secteurs et des systèmes d’intelligence artificielle, afin de poser les bases d’un véritable droit commun de l’IA au sein du marché européen depuis son entrée en vigueur le 1er août 2024.

Son objectif est d’encadrer

« le développement, la mise sur le marché et l’utilisation de systèmes d’intelligence artificielle, qui peuvent poser des risques pour la santé, la sécurité ou les droits fondamentaux ».

Pour atteindre cet objectif, le RIA commence par définir précisément le champ des technologies qu’il entend encadrer. Il distingue : les systèmes d’intelligence artificielle, qui correspondent aux applications concrètes utilisées par les utilisateurs (ex : un outil de tri de candidatures, ChatGPT) et les modèles d’intelligence artificielle à usage général, qui constituent le socle technologique sur lequel reposent ces applications, comme GPT-4 pour ChatGPT.

Pour assurer un équilibre entre protection des personnes et innovation, le RIA classe les systèmes d’intelligence artificielle en quatre niveaux de risque :

  • le risque inacceptable (ex : système de notation sociale des citoyens, présentant un risque d’une atteinte grave aux droits fondamentaux) impliquant l’interdiction du système d’IA.

  • le risque élevé (ex : une IA utilisée pour évaluer des salariés, présentant un risque d’atteinte au droit du travail et à la vie privée) imposant des obligations comme celle de réaliser des audits ou celle d’entraîner le système sur des données qualitatives et exemptes de biais.

  • le risque limité (ex : assistant conversationnel d’un service client, présentant le risque d’une collecte de données sans consentement éclairé) obligeant notamment les opérateurs à informer les utilisateurs de l’usage de l’IA.

  • le risque minimal (ex : IA intégrée dans un jeu vidéo) dont ne découle aucune obligation spécifique.

Pour chaque niveau de risque, des obligations spécifiques et proportionnées sont donc édictées en fonction de leurs effets potentiels sur les droits fondamentaux, la sécurité et la santé des personnes. Ces obligations s’imposent à différents opérateurs selon le moment où ils interviennent dans la chaîne de valeur de l’IA : fournisseur, mandataire, importateur, distributeur…

Par exemple, un système d’IA utilisé pour l’analyse d’images médicales, qualifié de système à risque élevé, est soumis à des obligations spécifiques qui varient selon l’opérateur concerné : le fournisseur doit concevoir le système en conformité avec les exigences de sécurité et de gestion des risques comme s’assurer qu’il ne peut pas y avoir de faux positif ou de faux négatif dans le diagnostic mais également que le système ne présente pas de biais du fait d’une sous-représentation de certains groupes ethniques ou de genre, l’importateur et le distributeur doivent vérifier que cette conformité a été respectée, et l’hôpital qui déploie le système doit s’assurer qu’il est utilisé correctement et sous supervision humaine.

Concernant les modèles d’IA à usage général (ex : GPT-4, algorithme sur lequel repose ChatGPT), le législateur européen a édicté différentes règles selon qu’ils présentent ou non un risque systémique.

L’article 3 § 65 du RIA définissant le risque systémique comme :

« un risque spécifique aux capacités à fort impact des modèles d’IA à usage général, ayant une incidence significative sur le marché de l’Union en raison de leur portée ou d’effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle tout au long de la chaîne de valeur ».

Ce risque est évalué selon la puissance de calcul du modèle. Les modèles d’IA à usage général qui présentent un risque systémique doivent notamment signaler les incidents graves (des biais, des faux positifs, une cyberattaque), prendre d’importantes mesures de cybersécurité ou encore tester le modèle et atténuer les risques systémiques identifiés (grâce à des audits, des mesures de protection contre les piratages ou encore des mesures de détection de biais). Plusieurs autorités ont été désignées pour contrôler la bonne application du règlement, c’est le cas notamment du comité européen de l’intelligence artificielle au niveau européen, et de la CNIL au niveau national.

Les limites du RIA

Le RIA a suscité des critiques des experts du droit et du monde professionnel à propos de sa mise en œuvre. Ainsi, 46 dirigeants d’entreprise ont dénoncé, dans une lettre ouverte destinée à la présidente de la Commission européenne, « des règlementations européennes peu claires, qui se chevauchent et deviennent de plus en plus complexes ». La technicité du RIA conjuguée à la complexité des algorithmes compliquent l’application du texte, en particulier pour les obligations de transparence – incompatibles avec l’opacité des algorithmes – et pour l’identification des responsabilités, les entreprises peinant à déterminer quelles obligations leur incombent selon leur position dans la chaîne de valeur et le niveau de risque du système.

En découle alors une autre problématique, le risque de freiner les acteurs français et européens, comme Orasio, H Company ou DeepL, qui tentent de concurrencer les géants américains de l’intelligence artificielle qui ont davantage de moyens (juridiques, technologiques, financiers) pour mettre en œuvre les obligations du RIA.

À cet égard, il convient de relever que le législateur européen a finalement renoncé, le 11 février 2025, à adopter une législation spécifique relative à la responsabilité civile des acteurs de l’intelligence artificielle, dont la finalité était d’harmoniser les règles de responsabilité civile pour les dommages causés par l’IA, afin de protéger les victimes et d’unifier le cadre juridique au sein de l’UE. Cet abandon est intervenu suite à une opposition de certains États membres, notamment la France, mais aussi des critiques formulées par le lobbying de grandes entreprises technologiques qui dénonçaient un risque de surrégulation et une insécurité juridique susceptible de freiner l’innovation. En l’absence d’un tel cadre spécifique, ce sont donc les règles de droit positif de responsabilité civile qui demeurent applicables aux dommages causés par les systèmes d’intelligence artificielle.

Les enjeux de la régulation

En combinant protection des données, encadrement des usages et obligations pesant sur les acteurs les plus puissants, l’Union européenne a posé les bases d’un véritable droit commun de l’IA unique au monde.

Cependant, cette réponse n’est satisfaisante qu’à une condition : que son application ne transforme pas la régulation en barrière à l’entrée pour les acteurs européens tels que Mistral AI, NEURA Robotics ou Dust. En effet, le risque est de renforcer la domination des géants américains et chinois plutôt que de la combattre. D’autant que cette domination ne se limite pas au plan économique : elle s’exerce également sur le plan politique. Un rapport de Corporate Europe Observatory et LobbyControl, deux ONG spécialisées dans la surveillance du lobbying, montre ainsi que les Big Tech auraient une influence significative sur la rédaction des Codes de bonnes pratiques prévus par le RIA notamment en parvenant à affaiblir certaines obligations.

La véritable réussite de la régulation européenne ne se mesurera donc pas seulement à la protection des citoyens, mais à sa capacité à faire émerger une intelligence artificielle européenne, à la fois éthique, compétitive et souveraine.

The Conversation

Chloé Dornbierer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Quel avenir pour les animaux sur les plateaux de cinéma ?

Dans *l’Odyssée de Pi*, Ang Lee a eu recours à un vrai tigre du Bengale, mais aussi aux images de synthèse. Allociné

Dès ses débuts, le cinéma a utilisé les animaux comme des acteurs à part entière. Mais leur présence sur les plateaux se fait moindre avec l’essor des images de synthèse, tandis que les associations de défense des animaux œuvrent pour en finir avec des pratiques parfois maltraitantes.


L’histoire des acteurs non humains est longue et riche en anecdotes, de Luke, le chien de la star du cinéma muet Roscoe (alias Fatty) Arbuckle, aux colleys qui ont incarné Lassie au cinéma et à la télévision. L’ours Bart a accumulé plus de 20 apparitions au cinéma et à la télévision dans les années 1980 et 1990, tandis que d’innombrables chevaux ont contribué aux séries historiques qui inondent aujourd’hui les plateformes de streaming.

Mais les affaires ne vont plus aussi bien qu’avant pour les dresseurs qui se spécialisent dans la location d’animaux de toutes sortes aux productions cinématographiques et télévisuelles.


À lire aussi : Décoloniser notre rapport aux animaux pour inventer un nouveau rapport au monde


Selon The Hollywood Reporter, la tendance est présente depuis au moins vingt-cinq ans, et elle est due à un mélange d’activisme en faveur des droits des animaux et de progrès technologiques, ce que j’ai observé moi-même dans mes recherches sur les animaux à l’écran.

Moins de rôles à se partager

L’adoption par Hollywood des images de synthèse a joué un rôle immense dans la « mise au chômage » de ces animaux « acteurs ». Depuis que Jurassic Park (1993) a osé mêler des dinosaures en computer-generated imagery (CGI) à des acteurs humains, de plus en plus d’animaux numériques sont apparus aux côtés des humains.

Mais d’autres facteurs ont accéléré cette tendance. La pandémie de Covid-19, les grèves des acteurs et scénaristes hollywoodiens de 2023 et une récente baisse du nombre de nouvelles séries télévisées ont entraîné une diminution du nombre de productions et de rôles disponibles, qu’ils soient destinés à des humains ou à des animaux.

Mais, même avant ces événements récents, des voix s’élevaient pour demander à Hollywood de réduire radicalement sa dépendance vis-à-vis des animaux de cinéma.

En 2012, The Hollywood Reporter – le même magazine spécialisé qui a récemment déploré une baisse des locations d’animaux – a publié un reportage répertoriant des incidents au cours desquels des animaux sont morts, ont été blessés ou ont été exposés à de graves dangers sur les plateaux. Ces productions ont néanmoins continué à arborer le célèbre crédit « No Animals Were Harmed » (« Aucun animal n’a été maltraité durant ce tournage ») décerné par l’American Humane Association, quand bien même les animaux avaient été maltraités. L’American Humane Association a affirmé que ces incidents étaient tragiques, mais sans conclure qu’ils résultaient d’une négligence.

En 2016, l’association Pour une éthique dans le traitement des animaux (PETA) a publié les résultats d’enquêtes menées sous couverture documentant des conditions de vie inférieures aux normes et des problèmes médicaux non traités chez Birds & Animals Unlimited, qui gère des centres de dressage d’animaux pour le cinéma et la télévision. En 2024, l’organisation a détaillé les cas de négligence envers les animaux confiés aux soins d’Atlanta Film Animals. Les deux sociétés ont nié ces allégations.

Il existe bien sûr de nombreuses façons de réduire au minimum, voire d’éviter complètement, l’utilisation d’animaux réels au cinéma et à la télévision.

La Planète des singes : Les Origines et ses suites ont utilisé la capture de mouvement, c’est-à-dire des humains reproduisant les mouvements de personnages qui ont ensuite été transformés par images de synthèse en chimpanzés, gorilles, bonobos et orangs-outans.

Pour la production d’Ang Lee de 2012, l’Odyssée de Pi, les artistes en effets visuels ont créé des milliers d’animaux virtuels (cependant, un tigre du Bengale en chair et en os a également été sollicité et a failli se noyer, ndlr), tandis que le réalisateur Darren Aronofsky a opté pour des animaux entièrement numériques, complétés par quelques accessoires réels, dans Noé, en 2014.

À contre-courant des tendances high-tech, le film d’horreur Primate (2025) a fait un retour aux sources sans recourir à de vrais animaux, en faisant appel à un artiste vêtu d’un costume et de prothèses pour incarner un chimpanzé enragé et meurtrier.

Le film d’horreur de 2025 Primate n’utilise ni images de synthèse ni animal, mais fait appel à un humain déguisé pour incarner le singe fou.

Les images de synthèse peuvent-elles désensibiliser les spectateurs à la violence envers les animaux ?

Il existe sans aucun doute des dresseurs qui se soucient profondément de leurs protégés et respectent les meilleures pratiques en matière d’élevage. Mais il va de soi que moins il y a d’animaux en captivité, mieux c’est, et les récentes avancées en matière d’IA ont rendu les effets visuels et les images de synthèse encore plus réalistes et plus faciles à modéliser.

Cependant, le fait de remplacer des animaux en chair et en os par des créatures faites de pixels semble avoir ouvert la voie à des abus sans limites. Prenons l’exemple de la violence brutale dans les remakes de la Planète des singes, qui incluent des combats au corps à corps, le marquage au fer rouge et une scène de crucifixion.

Autrefois, le fait que les animaux présents sur le plateau soient réels freinait parfois les pulsions les plus sauvages des cinéastes ; la violence était suggérée ou se déroulait hors champ dans des films familiaux comme Jody et le faon (1946) et Fidèle Vagabond (1957).

Parallèlement, des astuces de caméra et des accessoires ont été utilisés pour créer des scènes de cruauté envers les animaux dans de nombreux films, d’American Psycho (2000) à John Wick (2014).

Bien que les effets des médias violents sur les spectateurs soient notoirement difficiles à étudier, certaines données suggèrent que certains publics peuvent devenir insensibles aux conséquences réelles de contenus malsains et violents. On comprend aisément comment cette désensibilisation pourrait s’étendre au visionnage de scènes de cruauté envers les animaux à l’écran.

Les spectateurs peuvent encore flairer le virtuel

Une approche hybride de la représentation des animaux à l’écran semble s’être imposée, utilisant ce qu’un chercheur a appelé – en référence aux chiens à l’écran – des « performances canines composites ».

L’équipe à l’origine de la version 2025 de Superman, par exemple, a cherché à créer un chien réaliste, jusque dans les moindres poils ébouriffés. Mais il fallait qu’il défie la gravité et d’autres lois de la physique. Ils ont donc intégré juste assez d’animaux réels en préproduction pour animer une créature principalement en images de synthèse, le chien du réalisateur James Gunn servant de « modèle », ou de « référence » au super-chien Krypto.

Cette technique rappelle les méthodes des animateurs de Disney qui, face au défi de créer les personnages de Bambi (1942), se sont retrouvés dans une impasse. Ils ont donc étudié l’anatomie animale, photographié des cerfs dans la nature et dessiné des animaux amenés au studio afin de mieux capturer leurs mouvements sur le papier.

Mais lorsqu’il s’agit de films en prises de vues réelles ancrés dans la vie quotidienne, les animaux réels ont encore leur place sur le plateau. D’une part, il est généralement moins coûteux de faire appel à de vrais animaux. De plus, la plupart des animaux virtuels à l’écran ne sont tout simplement pas assez réalistes pour permettre la suspension totale de l’incrédulité qui fait la magie du cinéma.

C’est pourquoi, dans l’adaptation de 2025 des Mémoires d’Helen MacDonald, H Is for Hawk, les cinéastes auraient utilisé cinq vautours pour incarner Mabel, l’oiseau adopté par Helen (Claire Foy). C’est pourquoi le film Marty Supreme, nominé aux Oscars, mettait en scène toute une ménagerie d’animaux vivants, notamment un cheval, un chameau, un tatou, un chien, un lapin et même un lion de mer jouant au ping-pong. Oui, l’otarie de la scène était réelle, mais la balle ne l’était pas.

L’avenir des dresseurs et de leurs protégés semble dépendre de la qualité des effets visuels. Pour certains défenseurs des animaux – sans parler des animaux eux-mêmes, qui n’ont pas leur mot à dire sur leur travail –, ce jour n’arrivera jamais assez tôt.

Les cinéphiles et les défenseurs des animaux, quant à eux, pourraient espérer un juste milieu : un avenir dans lequel seuls les animaux traités de manière éthique continueraient à apparaître à l’écran.

The Conversation

Cynthia Chris ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Recourir à une IA quand on n’est pas médecin n’aide pas à poser un meilleur diagnostic

De plus en plus de gens consultent les agents conversationnels dopés à l’intelligence artificielle pour répondre aux questions du quotidien. Ces nouveaux outils sont également sollicités pour fournir des informations en lien avec la santé. Pourtant, ils sont encore très loin de pouvoir remplacer les médecins, comme le révèle une nouvelle étude.


Désormais, pour obtenir des conseils sur des sujets aussi variés que la cuisine ou la façon de remplir leur déclaration d’impôts, des millions de personnes se tournent vers des agents conversationnels (chatbots, en anglais) basés sur l’intelligence artificielle (IA). Un nombre croissant d’individus leur pose également des questions concernant leur santé. Or, comme le rappelait récemment le médecin-chef du Royaume-Uni, lorsqu’il s’agit de prendre des décisions médicales, une telle démarche peut s’avérer risquée.

Dans une étude récente, mes collègues et moi-même avons évalué dans quelle mesure les chatbots reposant sur des grands modèles de langage (LLM) sont réellement capables d’aider le grand public à faire face à certains problèmes de santé courants. Nos résultats, frappants, démontrent que les chatbots que nous avons testés ne sont pas encore en mesure d’endosser le rôle de médecin.

Utiliser un chatbot ne permet pas de prendre de meilleures décisions en matière de santé

Avant tout, soulignons qu’une objection fréquente face à des recherches telles que celles que nous avons menées est d’affirmer que l’IA évolue plus vite que le cycle de publication académique : au moment où un article paraît, les modèles étudiés ont souvent déjà été mis à jour, rendant ses conclusions obsolètes. Pourtant, des études menées dans le contexte du triage médical (processus visant à déterminer à la phase initiale de la prise en charge d’un patient, la filière adaptée à son état en matière de délai et de type de soins, ndlr) et portant sur des versions plus récentes de ces systèmes suggèrent que les mêmes problèmes persistent.

Nos travaux ont consisté à soumettre à des participants de brèves descriptions de situations médicales courantes. Les volontaires ont été répartis de manière aléatoire en deux groupes. Les membres du premier groupe devaient interagir avec l’un des trois chatbots que nous avions sélectionnés (des chatbots courants, facilement accessibles pour le grand public), tandis que ceux de l’autre groupe pouvaient recourir aux sources qu’ils avaient l’habitude de consulter ordinairement, chez eux. À l’issue de l’interaction, nous leur posions deux questions : quelle affection était la plus compatible avec les symptômes décrits ? Et, en conséquence, vers quelle structure de soins valait-il mieux se tourner ?

Les utilisateurs de chatbots se sont révélés moins aptes à identifier la bonne affection que ceux qui n’en avaient pas utilisé. Ils ne se montraient pas non plus meilleurs que le groupe témoin pour déterminer la bonne modalité de recours aux soins. En d’autres termes, interagir avec un chatbot n’a pas permis aux participants de prendre de meilleures décisions en matière de santé.

Des connaissances solides, mais des résultats décevants

Ces résultats ne signifient pas que les connaissances médicales des modèles de chatbots testés sont lacunaires : les LLM sont, en effet, capables de passer facilement des examens de certification médicale. D’ailleurs, une fois que nous avons mis de côté l’élément humain, en soumettant directement les mêmes scénarios aux chatbots, leurs performances se sont sensiblement améliorées.

Sans intermédiaire humain, les modèles ont identifié les affections pertinentes dans la grande majorité des cas et suggéré le plus souvent des modalités de recours aux soins appropriées.

Pourquoi, alors, les résultats se dégradent-ils dès lors que des utilisateurs réels entrent en jeu ? L’analyse des échanges a mis en lumière plusieurs écueils. Il arrivait fréquemment que les chatbots mentionnent la bonne hypothèse diagnostique au fil de la conversation, sans que les participants ne la retiennent ou ne la restituent dans leur réponse finale.

Dans d’autres cas, les utilisateurs transmettaient des informations parcellaires, ou bien le chatbot interprétait mal des détails essentiels. L’échec ne relevait donc pas d’un simple manque de connaissances médicales. Il tenait à un problème de communication entre l’être humain et la machine.

Ne pas confondre la théorie et la pratique

Cette étude démontre qu’avant de déployer de nouvelles technologies dans des environnements où les enjeux sont importants, les décideurs politiques doivent impérativement avoir des données collectées « en condition réelles » pour estimer les véritables performances des outils concernés. C’est évidemment le cas dans le secteur de la santé.

Nos résultats mettent en évidence que bon nombre des évaluations actuellement menées pour déterminer l’intérêt de l’IA en médecine présentent d’importantes lacunes. En effet, les modèles de langage obtiennent souvent d’excellents résultats lorsqu’il s’agit de répondre à des questions d’examen structurées, ou durant des interactions simulées entre différents modèles.

Mais l’usage réel de ces outils est bien plus complexe que cela. Dans la réalité, les patients décrivent leurs symptômes de façon vague ou incomplète. Ils peuvent aussi mal comprendre les explications qui leur sont données, ou poser leurs questions selon un ordre imprévisible. Un système dont les résultats lors des tests d’évaluations s’avèrent impressionnants peut se comporter très différemment une fois confronté à de véritables utilisateurs.

Cette étude souligne également un point fondamental sur la nature même de la pratique clinique. En tant que médecin généraliste, mon travail ne se limite pas à mobiliser des faits mémorisés antérieurement. La médecine est souvent décrite comme un art autant qu’une science. Une consultation n’a pas pour seul objet d’établir le bon diagnostic : elle consiste à interpréter le récit du patient, à sonder l’incertitude et à prendre des décisions qui sont le résultat d’une négociation.

Cette complexité du colloque singulier entre le médecin et son patient est depuis longtemps reconnu par les enseignants en médecine. Pendant des décennies, les futurs médecins ont été formés selon le modèle de Calgary-Cambridge. Celui-ci implique d’instaurer une relation de confiance avec le patient, de recueillir les informations en le questionnant et en l’écoutant avec la plus grande attention, de comprendre ses préoccupations et ses attentes, de lui expliquer clairement les conclusions et de s’accorder avec lui sur un plan de prise en charge.

Ces processus reposent sur l’établissement d’une connexion humaine, rendue possible grâce à une communication sur mesure, faite d’exploration précautionneuse, afin d’aboutir à l’établissement d’un jugement façonné par le contexte et la confiance. Toutes ces qualités ne peuvent pas être facilement appréhendées par des techniques de reconnaissance de formes (techniques à la base des modèles d’IA, qui permettent à l’ordinateur de détecter, à partir de données brutes ou prétraitées, la présence de formes ou de régularités, ndlr)

Les chatbots IA, des assistants plus que des médecins

Nos travaux ne démontrent pas que l’IA n’a pas sa place dans le secteur de la santé – loin de là. La leçon à retenir est qu’il est crucial de comprendre ce que ces systèmes savent faire à l’heure actuelle, et où se situent leurs limites.

Les chatbots actuels doivent être davantage considérés comme des assistants que comme des médecins. Ils excellent dans l’organisation de l’information, la synthèse de textes et la structuration de documents complexes. Des tâches qui sont précisément celles pour lesquelles les modèles de langage s’avèrent déjà utiles au sein des systèmes de santé, qu’il s’agisse de rédiger des comptes rendus cliniques, de synthétiser des dossiers médicaux ou de générer des lettres d’adressage, par exemple.

Les promesses de l’IA en médecine demeurent réelles, mais à court terme, son rôle sera vraisemblablement plus un rôle de soutien qu’une véritable révolution. On ne peut pas attendre des chatbots qu’ils soient la porte d’entrée dans le système de soins. Ils ne sont pas encore en mesure de poser des diagnostics ni d’orienter les patients vers les prises en charge pertinentes.

Certes, l’IA est déjà capable de réussir des examens de médecine. Mais de même que réussir un examen du Code de la route ne fait pas de vous un conducteur compétent, exercer la médecine ne se limite pas à répondre correctement à des questions.

Retrouver son chemin au cœur de la complexité qui se dissimule derrière chaque rencontre clinique requiert de savoir faire preuve d’empathie et de discernement. Cela reste encore l’apanage des humains. Pour l’heure, du moins.

The Conversation

Rebecca Payne travaille sur le projet REMEDY, financé par Health and Care Research Wales, et bénéficie également d'une bourse Clarendon-Reuben de l'université d'Oxford. Elle est membre du Royal College of General Practitioners et membre senior de la Faculty of Medical Leadership and Management.

OpenAI en Bourse : les marchés peuvent-ils gouverner ChatGPT et l’IA ?

Les bureaux d’OpenAI à San Francisco (Californie) lors de la création de la société en 2015. HaeB/Wikimedia, CC BY-SA

L’entreprise OpenAI, créatrice de ChatGPT, pourrait bientôt entrer en Bourse. Derrière cette opération financière se joue bien plus qu’une levée de fonds : le basculement d’un projet conçu pour l’intérêt général vers une logique de marché. À l’heure où l’intelligence artificielle devient une infrastructure critique, une question s’impose : peut-on en confier son développement aux seuls marchés financiers ?


OpenAI est née en 2015 dans un contexte d’inquiétude croissante autour de l’intelligence artificielle (IA). Fondée notamment par Sam Altman et Elon Musk, elle a adopté une structure à but non lucratif. Son objectif explicite était de développer une IA « bénéfique envers l’humanité » et d’éviter qu’elle ne soit capturée par quelques acteurs dominants. Cette ambition la distinguait des grandes entreprises technologiques, comme Google, Microsoft, Meta ou Amazon, construites sur des modèles propriétaires et des effets de rente.

Par contraste, OpenAI entendait défendre l’intérêt général en mettant l’accent sur la recherche ouverte et la diffusion des connaissances. Or, cette orientation, symbolisée par son nom, OpenAI (« IA ouverte »), s’est rapidement heurtée à une contrainte structurelle, le coût astronomique de l’intelligence artificielle générative.

Des coûts massifs

Contrairement aux logiciels traditionnels, dont le coût marginal tend vers zéro (la millionième copie de Windows ne coûte rien à Microsoft, par exemple), l’IA générative requiert des infrastructures massives. Chaque interaction mobilise des ressources de calcul, de l’énergie et des équipements spécialisés. Une requête standard sur ChatGPT, comprenant une question et une réponse, coûte ainsi de l’ordre de 0,1 à 1 centime de dollar. De même, la génération d’une image en haute définition peut coûter entre 10 et 20 centimes. Pris isolément, ces montants semblent négligeables, mais, à l’échelle de plusieurs milliards de requêtes quotidiennes en 2026, ils deviennent considérables.

Cela s’explique par l’infrastructure sous-jacente, en particulier les processeurs graphiques (GPU), fournis par des acteurs comme Nvidia. Ces puces peuvent coûter plusieurs dizaines de milliers de dollars à l’achat et plusieurs dollars de l’heure en accès cloud. OpenAI, comme ses concurrents, dépend de dizaines de milliers de ces GPU fonctionnant en continu dans de gigantesques centres de données. Selon certaines estimations, les investissements nécessaires se chiffrent en centaines de milliards d’ici à la fin de cette décennie.


À lire aussi : Pourquoi la hausse du prix des mémoires vives informatiques est une menace pour l’économie européenne


Dès la fin des années 2010, il était devenu évident qu’un modèle purement non lucratif ne pouvait répondre à une telle intensité capitalistique. C’est pourquoi OpenAI a adopté, en 2019, un statut hybride lui permettant de lever des fonds tout en maintenant un contrôle par une fondation. Il s’agissait d’une première incursion dans l’économie de marché, mais tempérée par l’ambition de résister aux exigences des investisseurs.

Accélération brutale avec ChatGPT

Cependant, fin 2022, l’agent conversationnel ChatGPT a transformé radicalement la donne en attirant 100 millions d’utilisateurs en seulement deux mois, avant de dépasser les 900 millions d’utilisateurs hebdomadaires, début 2026. Le chiffre d’affaires d’OpenAI est passé ainsi d’environ 200 millions de dollars (173,15 millions d’euros) en 2022 à plus de 10 milliards (8,65 milliards d’euros) en 2025, soit une multiplication par soixante en trois ans !

Cette croissance exponentielle s’est accompagnée de la mise en place d’un modèle économique incluant plusieurs sources de revenus. Pour les particuliers, OpenAI propose des abonnements payants (allant de 20 à 200 dollars, soit de 17 euros environ à 173 euros, par mois). L’essentiel du chiffre d’affaires provient cependant des entreprises, via des abonnements proposés entre 25 et 60 dollars (de 21,6 à 52 euros) par utilisateur et par mois. Une entreprise de 10 000 salariés représente ainsi un revenu annuel de plusieurs millions de dollars.

L’argent des entreprises

De plus, OpenAI facture l’usage de ses modèles à des entreprises qui les intègrent directement dans leurs propres solutions. Chaque utilisation est alors facturée, souvent à très grande échelle. Une application traitant un million de requêtes par jour peut ainsi générer plusieurs dizaines de milliers de dollars de facturation mensuelle.

Enfin, une part croissante des revenus provient d’accords stratégiques, notamment avec Microsoft, qui intègre les technologies d’OpenAI dans ses produits sous la dénomination Copilot.

C’est l’ensemble de ces flux (abonnements, licences, usage par des entreprises tierces et partenariats) qui a permis à OpenAI d’atteindre environ un milliard de dollars (plus ou moins 865,85 millions d’euros) de revenus mensuels en 2025. Pourtant, cette montée en puissance commerciale masque une fragilité économique intrinsèque.

Une gigantesque machine à brûler du cash

Or, malgré des revenus en forte progression, OpenAI reste structurellement déficitaire. Sur le premier semestre 2025, l’entreprise aurait réalisé un chiffre d’affaires d’environ 4,3 milliards de dollars, tout en enregistrant des pertes comprises entre 7 et 13 milliards, soit plus de 2 milliards de pertes chaque mois. Au total, ses pertes cumulées pourraient dépasser les 140 milliards de dollars (121,19 milliards d’euros) entre 2024 et 2029.

Cette dérive s’explique par la nature même du modèle économique d’OpenAI, où chaque interaction génère un coût, avec des investissements nécessaires gargantuesques. Outre l’infrastructure, la recherche et développement (R&D) constitue un poste majeur. Afin de rester dans la course technologique face à un environnement de plus en plus concurrentiel, OpenAI aurait ainsi investi près de 16 milliards de dollars (plus de 13,8 milliards d’euros) en recherche et développement rien qu’en 2025.

À cela s’ajoute le coût des ressources humaines, parfois hors norme. Si les salaires de base des experts en intelligence artificielle les plus demandés se situent déjà entre 250 000 et 700 000 dollars (entre 216 000 et 605 000 euros) par an, leur rémunération – incluant actions et bonus – dépasse fréquemment le million de dollars. Dans certains cas, la rémunération annuelle excède même les 10 millions de dollars (8,65 millions d’euros). Là encore, la surenchère des concurrents, comme Meta, oblige OpenAI à s’aligner, par crainte de voir ses compétences clés disparaître.

Un dépôt de bilan proche ?

Au total, l’activité d’OpenAI ne suffit pas à couvrir ses coûts, au point que certains analystes évoquent que, à ce rythme, elle pourrait être contrainte de déposer le bilan dès 2027. Un recours aux financements extérieurs est donc indispensable pour couvrir ces pertes.

Afin de soutenir sa croissance, OpenAI a déjà levé environ 58 milliards de dollars (plus de 50 milliards d’euros) depuis sa création, dont plus de 13 milliards de dollars auprès de Microsoft. En 2025, un tour de table exceptionnel aurait permis de lever jusqu’à 40 milliards de dollars supplémentaires, portant ainsi sa valorisation à plusieurs centaines de milliards de dollars. Fin mars 2026, une nouvelle levée de fonds de 122 milliards de dollars (plus de 105,6 milliards d’euros), notamment auprès d'Amazon (50 milliards de dollars), Nvidia et SoftBank (30 milliards de dollars chacun), a permis d'atteindre une valorisation à 852 milliards de dollars (soit 737,6 milliards d’euros). Pourtant, ces montants restent insuffisants au regard des besoins.

Dépendance industrielle

La dépendance à l’égard des partenaires industriels apparaît comme particulièrement problématique. Microsoft fournit à OpenAI son infrastructure cloud via Azure, tandis que Nvidia joue un rôle clé en amont en fournissant les GPU. Tout comme à l’époque de la ruée vers l’or, ce sont les vendeurs de pelles qui se sont enrichis aux dépens des prospecteurs, dans la filière de l’intelligence artificielle, ce sont les fournisseurs d’infrastructure qui font fortune, pas les concepteurs de modèles.

En pratique, chaque requête d’intelligence artificielle génère des revenus pour les fournisseurs d’infrastructure, ce qui revient à une forme de « taxe invisible » captée en amont. En 2025, Nvidia a ainsi dégagé près de 73 milliards de dollars de bénéfices nets pour un chiffre d’affaires d’environ 130 milliards (soit 112,5 milliards d’euros), et sa valorisation en Bourse est 1,5 fois supérieure à celle de l’ensemble du CAC 40 !

Errements dans le gouvernement

Les tensions économiques d’OpenAI se sont répercutées sur son gouvernement d’entreprise. L’hybridation entre une mission d’intérêt général et des mécanismes de financement privés s’est traduite par une structure complexe. Une fondation à but non lucratif contrôle ainsi une entreprise commerciale de type public benefit corporation (une version américaine et moins contraignante de la société à mission française), financée par des investisseurs et chargée de lever des capitaux et de développer les activités, tout en restant théoriquement subordonnée à la mission d’intérêt général de la fondation. Cette construction, pensée pour éviter une logique purement financière, a rapidement attisé des tensions entre différentes parties prenantes.

Le départ d’Elon Musk en 2018 a constitué un premier signal de désaccord stratégique. En 2020, plusieurs chercheurs ont quitté OpenAI pour fonder Anthropic, en mettant en avant des divergences sur la sécurité et la gouvernance. Cependant, c’est surtout la crise de novembre 2023 qui a pleinement révélé les fragilités du système, lorsque le conseil d’administration a annoncé de manière soudaine le renvoi de Sam Altman, invoquant un manque de transparence dans ses communications.

En quelques heures, la situation s’est transformée en crise ouverte. La quasi-totalité des salariés a menacé de quitter l’entreprise si Altman n’était pas réintégré. Microsoft, principal partenaire et investisseur, a publiquement apporté son soutien à Altman et a même évoqué la possibilité de le recruter avec ses équipes. Face à cette pression, le conseil d’administration a été contraint de revenir sur sa décision en quelques jours. Sam Altman a été réintégré, et la composition du conseil a été profondément remaniée.

Cet épisode a mis en lumière les tensions internes, et notamment la difficulté à faire coexister des logiques divergentes au sein d’une même organisation, entre posture éthique, impératifs industriels et exigences des investisseurs.

Une concurrence qui s’intensifie

À ces contraintes internes s’ajoute une intensité concurrentielle particulièrement vive. Google, l’inventeur de l’IA générative, réalise des progrès rapides avec Gemini. Anthropic, avec Claude, s’est imposé sur certains segments, notamment la programmation, tout en mettant l’accent sur la sécurité. Le Chinois DeepSeek a affirmé utiliser des processeurs moins coûteux. Le Français Mistral AI défend une approche frugale et la souveraineté numérique de l’Europe. Signe de ce retournement, Apple, initialement partenaire d’OpenAI pour inclure ChatGPT pour certaines fonctionnalités liées à Siri, a choisi de le remplacer par Gemini.

Dans ce contexte de recomposition de l’écosystème, la position d’OpenAI, bien que toujours centrale, est contestée. L’intensification de la concurrence renforce la nécessité de disposer de ressources financières toujours plus conséquentes.

La Bourse, sauvetage ou mirage ?

L’introduction en Bourse d’OpenAI est présentée comme une réponse à ces contraintes : financer des investissements massifs et consolider une position concurrentielle fragilisée. La Bourse pourrait permettre de lever entre 50 et 100 milliards de dollars, en cédant entre 10 et 20 % du capital. Une telle opération constituerait l’une des plus importantes de l’histoire des marchés financiers.

Les Échos, 2026.

Cependant, cette transformation implique des arbitrages délicats. Une entreprise cotée est soumise à des exigences de rentabilité et de transparence qui peuvent entrer en tension avec la nature expérimentale de l’intelligence artificielle. À cela s’ajoute la dépendance persistante à Microsoft et à Nvidia, qui limite l’autonomie stratégique de l’entreprise.

Surtout, rien n’indique que l’introduction en Bourse suffirait à résoudre les problèmes structurels d’OpenAI. Au mieux, sans évolution significative du modèle économique, elle permettrait de reculer sa faillite de quelques années. Le modèle économique de l’intelligence artificielle générative reste aujourd’hui fondamentalement non stabilisé.

Une question qui dépasse OpenAI

Au-delà du cas d’OpenAI, on peut légitimement s’interroger sur le fonctionnement actuel de l’économie dominée par les géants de la technologie. L’intelligence artificielle s’impose comme une infrastructure essentielle, dont les effets dépassent largement le cadre économique. Pour certains analystes, le contrôle de l’IA revêt désormais la même importance géostratégique que la possession de l’arme nucléaire.

Dès lors, une question civilisationnelle se pose : peut-on confier le développement et l’orientation d’une telle technologie aux seuls marchés financiers ? Imagine-t-on qu’Elon Musk ou Mark Zuckerberg puisse posséder personnellement l’équivalent d’une ou plusieurs bombes atomiques ? L’introduction en Bourse d’OpenAI ne fournira pas à elle seule la réponse. Cependant, elle en constituera l’un des premiers tests à grande échelle.

The Conversation

Frédéric Fréry ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

L’immortalité artificielle à nos portes : panacée ou danger ?

Grâce aux récents développements en intelligence artificielle (IA), il est désormais possible de préserver des représentations de personnes décédées et d’interagir avec elles. La « réapparition » des personnes se fait parfois de manière volontaire et programmée, mais parfois sans le consentement des familles ni des proches endeuillés. L’humain a toujours eu le fantasme de vivre éternellement. Mais que penser de cette nouvelle façon de prolonger l’existence « artificiellement » ? Est-elle souhaitable ? Quels sont les principaux enjeux éthiques que soulève l’apparition des « griefbots » ou « deadbots » ?


Professeure associée à l’École de santé publique (ESPUM) de l’Université de Montréal, je suis éthicienne et chercheuse spécialisée en gouvernance, éthique, droit, IA et conduite responsable en recherche. Je dirige notamment un projet de recherche, intitulé Immortalité artificielle : perspectives éthiques, juridiques et artistiques. Dans le cadre de ce projet, j’ai publié avec deux étudiantes un article portant sur les considérations éthiques liées à l’immortalité artificielle.

Des frontières fragiles

Les avatars numériques posthumes sont créés à partir des traces numériques laissées de leur vivant par des personnes décédées. Les écrits sur les réseaux sociaux, les photos, les enregistrements audios et visuels sont autant de traces qui nourrissent ces avatars. Construits grâce à la fusion de l’IA, de l’apprentissage automatique et de l’analyse avancée des données, ces avatars peuvent recréer la ressemblance tant physique que psychologique, la personnalité et même les souvenirs des personnes décédées.

Le résultat est tel qu’il peut laisser un doute chez l’utilisatrice ou l’utilisateur : s’agit-il de la « vraie » personne ? Il faut dire que cette technologie prend racine dans un monde où la vie virtuelle est bien établie. Ainsi, l’échange avec l’avatar numérique, posthume ou non, devient presque banal. Or, l’avènement des avatars posthumes soulève des enjeux éthiques de taille.


À lire aussi : Près de 80 % des travailleurs canadiens utilisent l’IA sans cadre institutionnel


L’autonomie, la protection des données et la vie privée

Au nombre de ces enjeux, soulignons le respect de l’autonomie et la protection des données, l’altération des rapports interpersonnels et sociaux, ainsi que le bouleversement de la finitude humaine, engendrant une nouvelle conscience de la vulnérabilité et de moyens de la transcender. La création d’avatars numériques posthumes a un impact sur le respect de l’autonomie de trois catégories de personnes :

  • Celles qui laissent des traces numériques laissées dans le domaine public, notamment sur les réseaux sociaux : il s’agit de personnes qui anticipent leur décès ou qui sont décédées, et dont les traces sont volontairement ou involontairement mises à la disposition de tierces parties (proches, entreprises, etc.).

  • Celles qui reçoivent les traces numériques d’autrui lors du décès : il s’agit de membres de la famille, de proches ou d’entreprises. L’une des questions qui se posent quant à leur autonomie est celle du contrôle sur l’avatar de l’être cher. Par exemple, les personnes qui reçoivent les traces numériques d’autrui peuvent-elles refuser de créer un avatar numérique posthume ou un site virtuel de commémoration ?

  • Celles qui interagissent avec les services d’« avatarisation » : il s’agit des personnes qui utilisent ou consomment les services et produits mis de l’avant dans l’industrie de l’au-delà virtuel. Elles interagissent avec des avatars numériques posthumes pour des motifs variés, allant de la curiosité à la gestion d’un deuil particulièrement souffrant. L’on se demande si ces dernières pourraient développer des dépendances malsaines envers ces services et produits, alors même que l’industrie est instable et qu’elle pose le risque de modifier ou interrompre brusquement des offres de services.

Toutes ces personnes sont à risque de perdre le contrôle de l’identité perpétuée de la personne décédée, compte tenu de la multitude des représentations virtualisées.

Deuil public et pathologique

Par ailleurs, lorsque l’avatar est accessible à un grand nombre de personnes, le deuil devient public, c’est-à-dire qu’il est possible de l’éprouver à la fois de façon intime et collective. Ce nouveau phénomène altère le rapport à la mort et au deuil, redéfinissant la place des personnes décédées dans nos vies.

L’histoire de la jeune Jang Nayeon, décédée en 2016, a fait l’objet du documentaire Meeting You et exprime le malaise qu’engendre le deuil public. Dévastée par le décès prématuré de sa fille, sa mère a approuvé la création d’un avatar numérique posthume, afin de pouvoir la revoir et interagir avec elle en réalité virtuelle. Les retrouvailles ont été diffusées sur plusieurs plates-formes web en temps réel et ont généré des inconforts chez l’auditoire. Il s’agit d’un exemple d’autant plus expressif de l’hypervisibilité d’un deuil.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Dans un versant positif, les avatars numériques posthumes peuvent être utilisés sous la supervision d’une ou d’un thérapeute, dans le cadre d’un accompagnement clinique. Mais il est à noter, cependant, que seule une minorité des usages se fait actuellement sous la supervision de spécialistes.


À lire aussi : « Je suis sorti et j'ai pleuré » : ce que le personnel des établissements pour personnes âgées dit de son chagrin lorsque des résidents décèdent


Par conséquent, plusieurs personnes utilisent cette technologie à titre individuel et sont plus vulnérables à la dépendance, ou cherchent à fuir la réalité du deuil. Elles sont à risque de tomber dans un deuil dit « pathologique », soit un deuil compliqué ou prolongé, marqué par sa durée et son intensité (incapacité, après plus d’un an, à gérer la souffrance émotionnelle, à réintégrer les activités quotidiennes ou à trouver du sens à la vie).

Surexposition et voyeurisme silencieux

Les espaces virtuels où sont conservées les traces des personnes décédées, par exemple Facebook, sont parfois fréquentés par des personnes passives, des observatrices ou observateurs qui ne cherchent pas forcément à interagir, mais qui participent à un phénomène de voyeurisme silencieux.

Cette passivité, bien que non nécessairement malveillante, s’inscrit dans une dynamique de surveillance et d’observation continues qui peut mener à une surexposition et à du voyeurisme. L’enjeu éthique concerne le fait que l’intimité des unes et des uns peut désormais devenir l’objet de consommation des autres, qu’il s’agisse de curiosité, de fascination, ou encore d’une planification d’un détournement ultérieur des données.

L’exploitation des données peut se traduire par une visibilité perpétuelle des données générées par la personne défunte sur le web, notamment à travers des avatars numériques posthumes qui interagissent avec les familles et les proches. Elles permettent de maintenir l’illusion d’une présence après la mort.

Cette illusion vient modifier notre rapport à la mort puisque l’être cher peut artificiellement rester dans nos vies. Plus fondamentalement, cela pose la question de notre finitude humaine, à savoir qu’au-delà de la vie biologique, il y a désormais la promesse d’une vie artificiellement éternelle. Est-ce souhaitable ?

Pour ne pas conclure

Connaître et comprendre les principaux risques et enjeux éthiques soulevés par l’immortalité artificielle constitue une étape cruciale afin de réfléchir au déploiement de ces avatars. Il demeure incontournable de nourrir les réflexions quant au bien-fondé de l’essor de ces avatars, afin de préserver la dignité humaine, posthume ou non, et éviter ses dérives dans un monde en profonde transformation.


Je tiens à remercier Josianne Barrette-Moran, candidate au doctorat en bioéthique à l’École de santé publique de l’Université de Montréal, pour l’assistance technique apportée lors de la rédaction du présent article.

La Conversation Canada

Je dirige un projet de recherche financé par l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (Obvia), intitulé Immortalité artificielle : perspectives éthiques, juridiques et artistiques (https://www.obvia.ca/recherche/projets/limmortalite-artificielle-perspectives-ethiques-juridiques-et-artistiques)

Ce que les frappes iraniennes sur des centres de données Amazon changent – ou non – à la conduite de la guerre

Un panache de fumée s’élève à Abu&nbsp;Dhabi, le 1<sup>er</sup>&nbsp;mars 2026, à la suite de frappes de drones iraniens sur la ville, notamment contre les centres de données. Ryan Lim/AFP via Getty Images

L’intelligence artificielle est devenue un outil central des opérations militaires, notamment pour l’armée des États-Unis. Les centres de données qui la font fonctionner, principalement basés dans la région du Golfe, constituent donc des infrastructures cruciales. Et comme tout dispositif critique, ils deviennent des cibles potentielles en temps de guerre.


Le 1er mars 2026, peu avant l’aube, des drones iraniens ont visé deux centres de données Amazon situés aux Émirats arabes unis. Un troisième centre, au Bahreïn, a également été touché, bien qu’il ne soit pas établi qu’il avait été visé de façon délibérée. L’Iran a en tout cas indiqué qu’il considérait les centres de données commerciaux comme des cibles.

Il s’agit de la première fois qu’un État cible délibérément des centres de données dans le cadre d’un conflit armé. Par le passé, ces infrastructures avaient fait l’objet d’opérations d’espionnage et de cyberattaques, notamment en 2024, lorsque des hackers ukrainiens ont détruit des données stockées dans des centres militaires russes, mais l’attaque iranienne se distingue par sa nature : ses drones ont cette fois endommagé des infrastructures matérielles.

Les progrès de l’intelligence artificielle accroissent l’importance stratégique des centres de données. L’armée états-unienne, en particulier, a largement investi dans des outils d’IA destinés aux systèmes d’aide à la décision (SAD) dans le cadre de ses opérations en Iran et au Venezuela. C’est pourquoi les forces iraniennes pourraient chercher à neutraliser les infrastructures qui, selon leurs dirigeants, sont employées dans le cadre de ces opérations militaires.


À lire aussi : La guerre à l’heure de l’IA


Il n’est cependant pas établi que ces centres spécifiques aient été utilisés par l’armée états-unienne. Les attaques pourraient avoir eu pour seul objectif de punir les Émirats arabes unis en raison de leurs liens avec les États-Unis.

Doctorant à Georgia Tech spécialisé dans l’impact des technologies sur la sécurité internationale, je ne considère pas que ces attaques transforment fondamentalement la nature de la guerre. Elles contraignent néanmoins les nations à reconnaître que les centres de données constituent désormais des cibles potentielles dans les conflits armés – même lorsqu’ils ne soutiennent pas directement des opérations militaires.

Les centres de données et le « cloud »

L’armée américaine intègre de plus en plus l’intelligence artificielle dans ses systèmes d’aide à la décision. Lors de l’opération « Absolute Resolve », qui a permis à Washington d’enlever le président vénézuélien Nicolas Maduro comme actuellement avec les frappes militaires contre l’Iran, les États-Unis ont recours à l’IA, notamment Claude (d’Anthropic), à des fins d’analyse du renseignement et d’appui opérationnel.

Si l’IA permet d’accélérer la conduite des opérations militaires, les outils qu’elle mobilise ne sont pas embarqués à bord d’avions ou de navires. Lorsqu’un militaire utilise Claude, l’infrastructure informatique qui alimente le modèle et ses analyses est généralement hébergée sur une plateforme cloud sécurisée d’Amazon Web Services (AWS), qui stocke des données gouvernementales confidentielles ainsi que divers outils logiciels.

Les principes fondamentaux des centres de données expliqués.

Les centres de données commerciaux constituent le socle physique du cloud. Par exemple, chaque fois qu’un utilisateur ouvre Netflix pour regarder une série, le contenu est probablement diffusé depuis un centre de ce type, qui appartient d’ailleurs peut-être lui aussi à AWS. Lorsque ces centres tombent en panne, les interruptions affectent une multitude de services de divertissement, d’information, et de fonctions gouvernementales.

L’IA étant un moteur de croissance économique, les centres de données représentent une infrastructure critique. Ils assurent le bon fonctionnement de l’IA ainsi que d’une grande partie d’Internet dont dépendent les gouvernements et le secteur privé. Lorsque l’Iran a attaqué les centres de données des Émirats arabes unis, cela a provoqué des perturbations massives au sein du système bancaire local.

Les centres de données commerciaux font fonctionner la plupart des technologies sur lesquelles repose le monde moderne, y compris les systèmes d’IA. Les perturber revient à paralyser à la fois l’armée et la société d’un pays. Étant donné qu’AWS exploite un grand nombre de ces centres à l’échelle mondiale, il est probable que ses infrastructures continueront d’être prises pour cible dans les conflits à venir.

S’en prendre aux alliés des États-Unis

Des chercheurs de Just Security ont relevé, le 12 mars 2026, que les États-Unis exigent désormais des fournisseurs de services de cloud computing qu’ils stockent les données gouvernementales et militaires sur le territoire américain ou dans des bases du département de la Défense :

« Transférer ces données vers des centres de données Amazon dans la région du Golfe nécessiterait une autorisation spéciale ; nous ignorons si celle-ci a été accordée. »

Le Corps des gardiens de la révolution islamique a néanmoins affirmé que ces frappes visaient des centres de données soutenant les activités militaires et de renseignement de « l’ennemi ». Dix jours après l’attaque initiale, une agence de presse iranienne a déclaré que les centres de données des grandes entreprises technologiques et d’autres infrastructures physiques de la région étaient désormais considérés comme des « infrastructures technologiques ennemies ».

Plutôt que pour des motifs militaires, l’Iran visait peut-être les Émirats dans le but de déstabiliser l’économie mondiale et attirer l’attention internationale. Le Golfe étant l’un des principaux bénéficiaires des investissements technologiques américains, l’attaque pourrait avoir été symbolique en ciblant le cœur de la coopération américano-arabe. Les infrastructures d’IA, notamment les centres de données commerciaux, constituent une part croissante du leadership américain dans la région. Ce conflit pourrait donc compromettre l’avenir des infrastructures IA dans le Golfe.

Cette maquette représente un immense centre de données, qui fait partie du projet Stargate auquel participent des entreprises technologiques américaines, actuellement en construction aux Émirats arabes unis. Giuseppe Cacace/AFP

Une importance croissante, des cibles vulnérables

Et puisque les centres de données sont de plus en plus importants pour la sécurité nationale, l’économie et la société en général, il peut être tentant de considérer ces attaques comme un bouleversement fondamental dans la nature de la guerre. Toutefois, n’oublions pas que l’Iran a lancé des milliers de missiles et de drones contre des cibles aux Émirats. Bien que la grande majorité ait été interceptée, les deux ayant frappé les centres de données ne représentent qu’une petite part des frappes ayant touché des infrastructures civiles, notamment les aéroports et les hôtels.

La vulnérabilité des centres de données commerciaux – de grande taille, relativement fragiles et dépourvus de défenses aériennes propres – laisse penser que ceux situés aux Émirats ont pu être choisis comme cibles pour des raisons d’opportunité ou de facilité. Autrement dit, ils ont été frappés parce qu’ils pouvaient l’être.

Il semble toutefois probable que, à mesure que l’utilisation de l’IA et les services cloud prendront de l’ampleur à l’échelle mondiale, les centres de données commerciaux deviendront des cibles récurrentes dans les conflits futurs.

The Conversation

Dennis Murphy est affilié à Georgia Tech, au Georgia Tech Research Institute, à la RAND Corporation, au Notre Dame International Security Center et à l’Astra Fellowship. Il a auparavant été affilié au Lawrence Livermore National Laboratory, à la Marine Corps University et au programme ERA Fellowship de l’université de Cambridge.

Les étudiants laissent-ils vraiment l’IA écrire à leur place ? Une étude observe ce qui se passe pendant la rédaction

Plusieurs étudiants participant à l’étude ont eu recours à l’IA lorsqu’ils se sont sentis bloqués dans leur processus d’écriture. Rut Miit/Unsplash, CC BY

L’IA transforme-t-elle l’écriture universitaire ? En observant directement le processus de rédaction d’étudiants, une étude pilote suggère que les outils génératifs servent surtout à débloquer les idées et à retravailler les textes, sans remplacer entièrement l’auteur.


Les débats sur l’IA générative dans l’enseignement supérieur se sont appuyés sur des études portant sur des travaux d’étudiants déjà terminés, ou sur des données d’enquête déclaratives. Ces recherches montrent que les outils d’intelligence artificielle peuvent soutenir l’apprentissage, mais elles ont aussi soulevé des inquiétudes, notamment concernant la dépendance excessive des étudiants, la triche et la possible dégradation de l’esprit critique et de l’engagement.

Si ces types d’études offrent des instantanés intéressants des pratiques déclarées, leurs méthodologies peuvent toutefois passer à côté d’un aspect essentiel : la manière dont l’écriture se déroule réellement lorsque les étudiants rédigent avec l’aide de l’IA.

L'étude pilote que j’ai menée auprès d’étudiants de premier cycle à Kennesaw State University adopte une approche différente. En utilisant des protocoles de pensée à voix haute (think aloud protocols) – une méthode dans laquelle les participants verbalisent leurs pensées pendant qu’ils réalisent une tâche – notre recherche observe comment les étudiants interagissent avec les outils d’IA générative pendant le processus même d’écriture. Cette méthode permet de comprendre les processus de décision au moment où ils se produisent.

Nos premiers résultats suggèrent une réalité plus complexe que le récit souvent avancé selon lequel les étudiants se contenteraient de laisser l’IA rédiger leurs devoirs. Au contraire, beaucoup semblent négocier quand et comment l’IA a sa place dans leur travail d’écriture.

Regarder à l’intérieur du processus d’écriture

Dans notre étude, 20 étudiants de premier cycle ont réalisé une session d’écriture de vingt minutes en réponse à la consigne suivante :

Les gens passent beaucoup de temps à essayer d’atteindre la perfection dans leur vie personnelle ou professionnelle. Ils exigent souvent la perfection des autres, créant des attentes difficiles à satisfaire. À l’inverse, certaines personnes pensent que la perfection n’est ni atteignable ni souhaitable.

La tâche consistait à rédiger une thèse ainsi que des paragraphes argumentés fondés sur des éléments de preuve pour défendre leur position sur la valeur de la quête de perfection. Les étudiants savaient qu’ils n’étaient pas censés terminer leur texte, mais plutôt avancer dans leur processus d’écriture en direction d’un texte achevé. On leur a également précisé qu’il n’existait pas de bonne ou de mauvaise manière d’utiliser l’IA, et qu’ils devaient utiliser l’IA générative exactement comme ils le feraient habituellement lorsqu’ils écrivent.

Plutôt que d’observer directement les étudiants, l’étude s’est appuyée sur des captures d’écran réalisées après la session et sur l’analyse des descriptions que les étudiants ont faites de leur propre processus d'écriture. La collecte de ces données – leurs actions sur l’ordinateur et les transcriptions des enregistrements vocaux – a permis aux chercheurs d’analyser le processus sans l’interrompre.

Afin de réduire le risque que les étudiants modifient leur comportement s’ils se sentaient observés, les chercheurs ont lancé un minuteur puis quitté la salle pendant la session d’écriture. L’objectif était ainsi de limiter l’effet Hawthorne, un phénomène par lequel les individus modifient leur comportement parce qu’ils savent qu’ils sont observés.

Ce que nous avons observé

À travers les transcriptions, quelques tendances qualitatives sont apparues de manière récurrente dans la façon dont les étudiants collaboraient avec l’IA pendant l’écriture. D’abord, de nombreux participants se sont tournés vers ces outils au début du processus d’écriture afin de générer des idées ou d’esquisser une thèse.

On voit alors ces étudiants utiliser les propositions produites par l’IA pour stimuler et structurer leurs propres idées. Un étudiant décrit cette stratégie ainsi : « Après [avoir généré quelques idées], j’utilise généralement simplement ce [résultat] comme point de départ. »

Dans ces moments-là, l’IA fonctionnait moins comme une réponse définitive que comme un outil de remue-méninges aidant les étudiants à dépasser l’angoisse de la page blanche.

D'ailleurs, les étudiants poursuivaient souvent la rédaction de manière autonome après avoir généré ces premières idées. De nombreuses transcriptions contiennent des phrases comme « Je pense que ma thèse devrait être… » ou « Laisse-moi écrire cette partie », ce qui suggère que certains étudiants conservaient la maîtrise de leur argumentation.

Corriger le bot

Un autre motif fort qui ressort des transcriptions est que les étudiants acceptent rarement les textes produits par l’IA sans les modifier. Au contraire, ils révisent activement le langage généré. Comme l’a décrit un étudiant, l’IA « réécrit » ses premières consignes, puis l’étudiant réécrit à son tour la réponse de l’IA. Cela lui permet de revendiquer « la paternité et la maîtrise » de la version finale.

Un autre participant a également redirigé la réponse de l’outil lorsqu’elle ne correspondait pas à la consigne : « L’IA ne suit pas la consigne… réessaie. »

Ces moments montrent que les étudiants évaluent de manière critique les réponses de l’IA et la traitent presque comme un partenaire de débat, plutôt que de simplement les copier.

Nous avons également constaté que certains étudiants rejetaient totalement les suggestions de l’IA. Dans plusieurs sessions d’écriture, les participants ont explicitement décidé de ne pas utiliser les réponses générées par l’IA. Un étudiant a commenté ce choix pendant qu’il écrivait : « Je n’utilise pas vraiment l’IA pour mes recherches. »

D’autres transcriptions montrent des étudiants revenant à leur propre rédaction lorsque les réponses de l’IA leur semblaient trop génériques ou déconnectées de leur argumentation. Ces moments indiquent qu'ils ne se contentent pas de collaborer avec l’IA : ils tracent aussi des limites quant à la place qu’elle peut occuper dans leur processus d’écriture.

Enfin, plusieurs transcriptions montrent que les étudiants se tournaient vers l’IA dans des moments d’incertitude ou lorsqu’ils se sentaient bloqués. Comme l’a expliqué un participant : « J’ai beaucoup utilisé l’IA parce que j’avais du mal. » Même dans ces cas-là, toutefois, les étudiants l'utilisaient souvent comme un soutien pendant la rédaction de leur essai, plutôt que de copier-coller directement ses réponses.

Ce que cela dit de l’IA et de l’écriture

Notre analyse suggère que l’IA générative s’intègre dans l’écriture étudiante non pas comme un remplacement complet de l’auteur humain, mais comme une forme de collaboration négociée. Les résultats indiquent qu'elle intervient le plus souvent au moment de la génération d’idées, de la révision et lorsque un sentiment de blocage apparaît, tandis que les étudiants conservent le contrôle sur le choix des arguments, la façon d'écrire et la formulation finale.

Comprendre comment les décisions d’utiliser l’IA se déploient pendant le processus d’écriture – et pas seulement ce qui apparaît dans l’essai final – peut aider les enseignants à concevoir des devoirs et des règles qui maintiennent clairement l’humain aux commandes.

Comme ces premiers résultats proviennent d’un groupe pilote de 20 étudiants de premier cycle, ils doivent être interprétés avec prudence. Pour vérifier si ces tendances se confirment à plus grande échelle, l’équipe de recherche étend actuellement l’étude à 100 participants. Cette phase élargie examinera également la manière dont des étudiants neurodivergents interagissent avec l’IA générative pendant le processus d’écriture, un domaine encore largement inexploré par la recherche.


Des étudiants chercheurs de premier cycle à Kennesaw State ont contribué à l’analyse préliminaire présentée dans cet article : Kylee Johnson, Vara Nath, Ruth Sikhamani et Kaylee Ward.

The Conversation

Jeanne Beatrix Law est membre fondatrice, à titre bénévole, du corps professoral de l’OpenAI Educator’s Council. Elle est également membre bénévole, de la communauté consultative d’enseignants de BoodleBox AI.

Consommation énergétique des data centers : la France à la croisée des chemins

La France a la volonté d’être une terre d’accueil pour les data centers dans les prochaines décennies. L’Agence de la transition écologique, l’Ademe, a réalisé un travail de prospective à l’horizon 2060 pour évaluer plusieurs scénarios de montée en puissance sur le territoire national de ces infrastructures très gourmandes en énergie et les choix de société qu’ils impliquent. Entretien avec Bruno Lafitte, expert data centers à l’Ademe, qui a coordonné cette étude.


The Conversation : Commençons par l’état des lieux : que sait-on aujourd’hui de la présence des data centers en France, des usages qui en sont faits et de leur consommation électrique totale ?

Bruno Lafitte : Aujourd’hui, l’Ademe recense 352 data centers en activité sur le territoire national. Leur consommation électrique totale représente 10 térawattheurs (TWh) par an, ce qui correspond à l’électricité consommée par environ 10 agglomérations de plus de 100 000 habitants pendant un an.

Cela équivaut à 2,2 % de la consommation annuelle électrique totale du pays. En effet, l’usage du numérique a une matérialité que l’on ne soupçonne pas toujours : des infrastructures énergivores en électricité, en eau pour le refroidissement, sans compter la chaîne de production des serveurs en amont qui charrie également son lot d’impacts environnementaux.


À lire aussi : Les métaux de nos objets connectés, face cachée de l’impact environnemental du numérique


Pourquoi la France souhaite-t-elle être une terre d’accueil pour ces infrastructures ?

B. L. : Il y a aujourd’hui une vraie volonté politique de la France de se placer en leader européen en matière d’accueil de data centers. Cela se traduit déjà par des investissements massifs dans le pays, qui sont facilités par une souplesse administrative. Ce choix repose sur deux grands constats.

L’un tient à l’enjeu crucial de souveraineté numérique : la moitié des usages numériques des Français est actuellement traitée par des data centers situés à l’étranger, et tous les scénarios montrent que cette dépendance augmentera à mesure que les usages s’intensifieront. Au regard des enjeux géopolitiques actuels, relocaliser nos données apparaît crucial.

L’autre est lié à l’avantage majeur dont dispose la France en la matière. Du fait de son mix électrique décarboné et de son électricité largement disponible, mais également de ses normes environnementales, les data centers seront en France mieux encadrés. De ce fait, ils auront des impacts climatiques moindres qu’ailleurs, et en particulier qu’aux États-Unis, où se concentrent aujourd’hui la majorité des data centers dont nous dépendons. (À titre d’exemple, l’intensité carbone de l’électricité française s’élevait, en 2024, à environ 30 gCO₂/kWh, tandis qu’aux États-Unis, celle-ci était en moyenne de 391 gCO₂/kWh en 2019, ndlr.)

Car, en 2050, près de 80 % des usages numériques français feront appel à des data centers basés à l’étranger. Ces usages délocalisés totaliseront 97 % des émissions de gaz à effet de serre liées à l'ensemble des usages français des data centers.

Que sait-on des perspectives de développement des data centers à horizon 2050 et de leur consommation énergétique ?

B. L. : Avec l’accélération de l’intelligence artificielle générative et, à moyen terme, de la blockchain, les besoins en data centers sont appelés à exploser. Leur typologie va évoluer vers de très grands centres dits « hyperscale », abritant des supercalculateurs très énergivores.

Pour donner un ordre d’idée, les très gros data centers aujourd’hui présents en France représentent 10 mégawatts (MW) de puissance électrique installée. Demain, ils avoisineront plutôt le gigawatt (GW) pour les plus importants – soit 100 fois plus.

Pour évaluer les perspectives en France, nous avons conçu un modèle prospectif, fondé sur le modèle international le plus fiable à ce jour, que nous avons actualisé, le modèle Masanet, qui tient compte du volume des serveurs et de l’évolution à venir de leur efficacité énergétique selon leur modèle type. Ce modèle ouvert sera mis à disposition du grand public.

Dans le scénario tendanciel, qui poursuivrait la trajectoire actuelle, la consommation d’électricité induite par les usages numériques français pourrait progresser d’un facteur de 3,7 d’ici à 2035 pour les data centers installés en France – et même de 4,4, en tenant compte de la consommation des data centers situés à l’étranger.

Dans cette configuration, les usages numériques français entraîneront, à l’horizon 2050, une consommation de 55 TWh par les data centers français – soit l’émission de 1,8 million de tonnes équivalent CO₂ –, et presque 200 TWh par des data centers situés à l’étranger – ce qui correspond à l’émission de plus de 48 millions de tonnes équivalent CO₂. (À titre de comparaison, la consommation d’électricité totale en France atteignait près de 450 TWh en 2024, ndlr.)


À lire aussi : Un data center près de chez soi, bonne ou mauvaise nouvelle ?


Quels défis et risques cela représente-t-il pour nos infrastructures électriques ?

B. L. : Cette évolution pose de nombreux défis territoriaux, environnementaux et socioéconomiques. Aujourd’hui, la France a accès à de l’électricité décarbonée en grande quantité (94 % de sa production, en 2024, ndlr). De ce fait, elle est relativement épargnée par les tensions engendrées par l’implantation de data centers au regard de certains de ses voisins européens.

Toutefois, elle s’est fixée, dans tous les domaines, des ambitions d’électrification (notamment pour la décarbonation de l’économie, ndlr) qui feront augmenter significativement les besoins et la pression sur le réseau électrique. S’y ajoute désormais le développement de data centers, pour répondre à la fois à l’explosion des usages et à la volonté de relocalisation exprimée par la France.

Nous avons pris en compte, dans notre étude, les progrès à venir en matière d’efficacité énergétique, mais ils ne suffiront pas à compenser l’augmentation du volume de données hébergées.

L’éventualité d’une révolution technologique, par exemple liée à l’informatique quantique, n’est certes pas à exclure, mais elle ne garantit pas des économies d’énergie. On sait, par ailleurs, que les innovations technologiques ont toujours amené l’éclosion de nouveaux services conduisant à l’augmentation des usages plutôt qu’à une baisse des consommations.


À lire aussi : Ordinateur quantique : comment progresse ce chantier titanesque en pratique


Quelles options s’offrent à la France pour répondre à sa volonté de souveraineté numérique en accueillant des data centers, tout en se tenant à son objectif de neutralité carbone à l’horizon 2050 ?

B. L. : Dans ce contexte, il s’agit pour la France de faire des choix de société. L’une des options est celle de la sobriété, avec une priorisation des usages numériques et une prise de distance, plus ou moins forte, avec le tout-numérique. Dans le scénario le plus frugal que nous avons envisagé, la puissance installée pour les data centers sur le territoire peut être limitée à seulement 5,7 TWh en 2050, soit 190 000 tonnes équivalent CO₂.

L’autre chemin consiste à miser sur l’innovation pour réduire les émissions de gaz à effet de serre des autres secteurs d’activité et à optimiser la consommation d’énergie du numérique. Notre modèle estime que la puissance installée pour les data centers en France avoisinerait alors les 64 TWh, soit 11 fois plus qu’en optant pour la sobriété. Cela correspondrait à l’émission de 2,15 millions de tonnes équivalent CO₂, soit 11 fois plus qu'en optant pour des choix de sobriété.

La question centrale ici, qui relève d’un choix citoyen, est celle du rôle que l’on souhaite donner demain au numérique dans notre société sans renoncer à notre objectif de neutralité carbone.

Propos recueillis par Nolwenn Jaumouillé.

The Conversation

Bruno Lafitte ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Quand l’IA trahit les identités professionnelles

Le recours à l’IA n’est pas neutre quant à la définition de l’identité professionnelle des individus (visuel créé par IA).

Utilisée dans un cadre professionnel, l’IA est souvent perçue comme un simple outil. Son usage peut pourtant avoir un impact sur la façon dont les individus construisent leur identité au travail. Les jeunes professionnels sont particulièrement exposés et pourraient rencontrer à terme des difficultés à reconnaître qui ils sont vraiment.


Votre CV est rédigé par ChatGPT. Votre profil LinkedIn, peaufiné par un algorithme. Vos mails professionnels sont corrigés en temps réel. Les conséquences de l’usage de l’intelligence artificielle (IA) dans un cadre professionnel ne se limitent pas à un gain de temps et d’efficacité. C’est votre identité professionnelle qui est en train de se redéfinir. Silencieusement. Profondément.

Il vaudrait mieux que ce ne soit pas à votre insu.

Être ou ne pas être authentique

Imaginez deux candidats à un même poste. L’un a rédigé sa lettre de motivation à la main, laborieusement, avec ses propres mots. L’autre a utilisé un assistant d’IA générative pour structurer, affiner et polir son discours en quelques minutes. Lequel est le plus compétent ? Lequel est le plus authentique ? Et surtout, lequel est le plus vraiment lui-même ?

Ces questions émergent aujourd’hui au cœur du marché du travail. De plus en plus, elles seront au centre du monde professionnel.


À lire aussi : Salariés, chefs d'entreprises : l'IA va tout changer, profitez-en !


« L’intelligence artificielle générative (IA générative) est une catégorie d’IA qui se concentre sur la création de données, de contenus ou de choses artistiques, de façon indépendante. Elle diffère de l’IA classique, qui se concentre, quant à elle, sur des tâches spécifiques telles que la classification, la prédiction ou la résolution de problèmes. L’IA générative vise à produire de nouvelles données qui ressemblent à celles créées par des êtres humains, que ce soit sous forme de textes, d’images ou encore de musique, par exemple»,

indique un article publié par Big média.

L’essor fulgurant des outils d’IA générative (Lechat, ChatGPT, Copilot, Claude…) transforme non seulement la manière dont nous travaillons, mais aussi la manière dont nous nous présentons, dont nous évaluons nos compétences, et dont nous construisons notre identité professionnelle.

C’est ce que révèle une étude qualitative menée auprès d’étudiants en alternance et de professionnels en activité dans des secteurs variés. À travers vingt-cinq entretiens approfondis, une double tension est apparue avec une fréquence remarquable : l’IA comme levier de professionnalisation… et l’IA comme source d’interrogation sur soi.

Qui parle ?

L’identité professionnelle n’est pas un fait donné. Elle se construit dans les interactions, les reconnaissances, les réussites accumulées. Depuis les travaux fondateurs du sociologue Claude Dubar, on sait que l’identité au travail résulte d’une transaction permanente entre ce que l’on pense être et ce que les autres reconnaissent en vous.

Or, l’IA vient perturber cette transaction. Quand une machine formule à votre place un argument que vous n’auriez pas trouvé seul, que reste-t-il de votre contribution réelle ? Que dit de vous le fait que vous ayez su bien poser la question ?

Quand un algorithme optimise votre profil LinkedIn de façon à en maximiser la visibilité, est-ce encore vous qui parlez ?

Plusieurs professionnels interrogés dans le cadre de notre étude expriment ce malaise avec une acuité saisissante. La frontière entre assistance et substitution devient floue, et avec elle, la frontière entre compétence réelle et compétence simulée.

« Quand j’utilise l’IA, j’ai l’impression que mon travail n’est pas honnête, que c’est pas vraiment moi qui l’ai fait. Le fait de tout donner à un outil remet en question mes propres capacités et la valeur que j’attribue à mon investissement. »
Étudiant en alternance dans le secteur financier.

Une forte tension identitaire

Ce témoignage n’est pas isolé. Il révèle une tension identitaire profonde entre l’identité « pour soi » – fondée sur l’effort, l’expertise, l’investissement personnel – et l’identité « pour autrui », c’est-à-dire l’image projetée vers les recruteurs, les collègues, les clients. L’IA peut soigner la seconde tout en fragilisant la première.

Cette fragilisation est d’autant plus insidieuse qu’elle opère à bas bruit. Ce n’est pas une perte de compétence objectivable, mais un ébranlement de la confiance en sa propre valeur. Ce que les psychologues nomment le « sentiment d’efficacité personnelle », théorisé par Albert Bandura, est mis à rude épreuve.

Ce phénomène a désormais un nom dans la littérature en sciences de gestion : la « menace de l’identité professionnelle » (Professional Identity Threat)

Une étude internationale publiée en 2025 dans la revue AI & Society confirme que plus un professionnel perçoit l’IA comme une menace pour son identité, moins il est enclin à l’adopter. Or, l’article montre également que les professionnels qui ont le plus besoin de maîtriser l’IA pour protéger leur position sont précisément ceux qui résistent le plus à l’adopter. Ceci crée un paradoxe productif et identitaire à la fois.

L’efficacité personnelle, une croyance ancrée dans l’expérience

Le sentiment d’efficacité personnelle désigne la conviction qu’a un individu de sa capacité à accomplir des tâches données. Ce n’est pas l’estime de soi en général mais une croyance spécifique, ancrée dans l’expérience : « Je suis capable de faire ce travail, même lorsque c’est difficile. »

Or, l’usage répété de l’IA peut progressivement éroder cette conviction. Plusieurs participants à notre étude décrivent un phénomène de dépendance progressive, presque invisible. On commence par vérifier un mail avec l’IA. Puis on ne sait plus envoyer un mail sans elle.

« Même si je suis sûre de moi, j’ai quand même ce réflexe automatique d’aller vérifier. Et ça crée une perte de confiance. Je me demande comment est-ce qu’avant je faisais sans l’IA ? »
Étudiante en alternance dans un cabinet de recrutement spécialisé dans la santé.

Plus ou moins de compétences

Ce témoignage illustre un paradoxe majeur. Conçue pour augmenter les capacités humaines, l’IA peut in fine les fragiliser psychologiquement. Non parce que l’individu perd réellement ses compétences, mais parce qu’il cesse de croire en elles indépendamment de l’outil.

Ce glissement est particulièrement préoccupant pour les jeunes professionnels en phase de construction identitaire. Ils n’ont pas encore accumulé suffisamment d’expériences fondatrices pour asseoir leur confiance sur un socle solide. L’IA risque alors de court-circuiter ce processus d’apprentissage par l’erreur et le dépassement de soi, pourtant essentiel au développement de l’identité professionnelle.

L’article de Nir Eisikovits et de Jacob Burley publié dans The Conversation, évoquait déjà les questions éthiques soulevées par l’utilisation de l’IA en contexte d’apprentissage d’étudiants du supérieur. Leur réflexion met en évidence le phénomène de « décharge cognitive » au cœur de la déstructuration du processus d’acquisition des connaissances.

En revanche, chez les professionnels expérimentés, l’équation semble différente. Forts d’un sentiment d’efficacité consolidé par des années de pratique, ils utilisent l’IA comme un amplificateur, non comme une béquille. Elle « professionnalise », « structure », « met des mots plus justes » – sans remettre en cause leur conviction d’être l’auteur véritable du travail produit.

Se vendre ou se trahir ?

Le personal branding ou marque personnelle, désigne la stratégie par laquelle un individu construit et diffuse une image professionnelle cohérente pour se différencier sur le marché du travail. LinkedIn en est l’arène principale, mais il s’étend à tout ce qui construit la réputation du salarié, aussi bien ses publications que ses interventions et autres recommandations.

L’IA transforme profondément les règles de ce jeu. Elle permet de produire des contenus « polishés », des profils optimisés, des CV sans fautes, quel que soit le niveau réel de l’individu. Elle démocratise la qualité de surface tout en risquant de niveler par le haut une concurrence déjà féroce.

Fnege Médias, 2025.

Un révélateur de fragilité

L’un des enseignements les plus marquants de cette recherche est peut-être le suivant : loin d’inventer les fragilités identitaires, l’IA agit comme un révélateur. Quand un étudiant ressent que son travail « n’est pas vraiment lui » lorsqu’il utilise l’IA, c’est souvent le signe que son identité professionnelle n’est pas encore suffisamment ancrée pour résister à l’intermédiation technologique.

En revanche, ceux qui disposent d’une identité professionnelle solide, construite sur des expériences vécues, des réussites reconnues, une trajectoire cohérente, intègrent l’IA sans s’y perdre. Ils la décrivent comme « une version améliorée d’eux-mêmes », non comme un substitut.

Ce constat a des implications importantes pour les établissements d’enseignement supérieur. Former des étudiants à l’IA ne peut pas se réduire à leur apprendre des outils. Il faut les aider à construire, avant tout, une identité professionnelle assez robuste pour que l’IA reste un levier et ne devienne pas une prothèse.

Apprendre à construire une identité

Développer cette identité suppose de travailler la réflexivité : la capacité à observer ses propres actions, à reconnaître ce qui vient réellement de soi et ce que l’on projette sur une machine. Cela implique aussi de mettre en valeur les expériences fondatrices : les échecs, les négociations compliquées, les projets menés jusqu’au bout sans soutien extérieur.

Aux amateurs de science-fiction et aux autres, la question n’est pas tant de savoir si l’IA va « prendre » les emplois. Elle est autrement plus subtile et plus urgente : l’IA va-t-elle vampiriser les identités professionnelles des individus ?


Cet article est fondé sur une étude qualitative, menée entre décembre 2025 et janvier 2026, s’appuyant sur 25 entretiens semi-directifs approfondis auprès d’étudiants en alternance et de professionnels en activité (assurance, finance, commerce, droit, management, technologie). Les auteurs remercient Yaël Salomon, étudiante de l’Inseec Grande École, pour sa contribution à la collecte et à la retranscription des données empiriques qui fondent cette étude.

The Conversation

Claudia-Roxana RUSU est membre de laboratoire de recherche IRGO de l'Université de Bordeaux.

Demba Ousmane DIOUF et Youssef Souak ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

Robots, IA, numérique : et si les syndicats accéléraient la transformation technologique ?

Robots, intelligence artificielle, numérique : à mesure que les technologies transforment le travail, les syndicats sont souvent présentés comme un obstacle à l’innovation. Sur quelles preuves repose cette opinion ? Et si, loin de freiner la transformation technologique, le dialogue social pouvait aussi l’accélérer… Au-delà des discours à l’emporte-pièce, les syndicats de salariés constituent-ils vraiment un frein à l’innovation technologique ? Ou sont-ils, dans certains contextes, un atout ?


Profondément ancrée, la représentation des syndicats comme étant par nature hostiles aux innovations et au changement technologique repose davantage sur des idées reçues que sur des résultats empiriques robustes. Les statistiques internationales disponibles ne suggèrent pas de relation mécanique négative entre syndicalisation et adoption de nouvelles technologies (Figure 1).

En effet, les pays nordiques, caractérisés par une forte syndicalisation, figurent parmi ceux où l’usage de l’IA est le plus répandu, tandis que plusieurs pays faiblement syndiqués affichent de façon égale des niveaux d’adoption modestes. Cette dispersion suggère que la présence syndicale, en elle-même, n’explique pas les écarts d’adoption technologique. Ces écarts invitent plutôt à s’intéresser aux cadres institutionnels et aux modalités du dialogue social.

Figure 1 – Syndicalisation et adoption de l’IA dans les entreprises européennes en 2024

Un débat ancien et loin d’être tranché

En fait, la relation entre syndicats et investissement productif est l’un des grands classiques de l’économie du travail.

Avec mon collègue Chris Doucouliagos, nous avions d’ailleurs proposé, il y a quelques années, une méta-analyse de la littérature sur cette question. Cette étude montrait que les effets des syndicats sur l’investissement et l’innovation étaient loin d’être univoques et dépendaient fortement des contextes institutionnels.

Elle mettait en évidence une opposition récurrente entre deux visions théoriques :

  • d’un côté, les syndicats comme freins à l’investissement ;
  • de l’autre, les syndicats comme acteurs du dialogue social susceptibles de favoriser des stratégies de long terme.

C’est précisément dans le prolongement de ce débat que s’inscrit, aujourd’hui, la question de l’adoption des technologies numériques avancées.


À lire aussi : La responsabilité sociale des entreprises, un outil pour court-circuiter les syndicats ?


Débats théoriques

La théorie économique n’offre pas une prédiction unique quant au rôle des syndicats. Dans une représentation néoclassique standard, la présence syndicale est associée à la hausse du coût du travail. À technologie donnée, cette augmentation du salaire relatif incite les entreprises à substituer du capital au travail, ce qui peut se traduire par davantage d’investissement productif ou technologique.

À l’inverse, la théorie dite du hold-up, proposée initialement par les économistes américains Benjamin Klein, Robert Crawford et Armen Alchian, souligne un mécanisme de désincitation à investir. En anticipant qu’une partie des gains liés à l’investissement pourra être captée plus tard par les salariés (à travers la négociation salariale, par exemple), l’entreprise peut renoncer à certaines technologies pourtant techniquement accessibles, conduisant à un sous-investissement.

Enfin, une troisième approche met l’accent sur le rôle des syndicats comme mécanismes de voix collective. En facilitant la coordination, la formation et l’acceptation du changement, le dialogue social peut rendre l’investissement plus efficace et plus durable.

L’influence du cadre institutionnel de négociation

L’importance relative de ces mécanismes dépend étroitement du cadre institutionnel dans lequel s’exerce la représentation syndicale, comme l’ont souligné les économistes Justus Haucap et Christian Wey. En particulier, l’effet des syndicats sur l’adoption des technologies numériques dépend étroitement du niveau auquel s’organise la négociation collective et du rôle concret que jouent les représentants du personnel dans l’entreprise.

Avec sa négociation salariale largement centralisée et son dialogue social de proximité, l’Italie est un terrain d’observation particulièrement éclairant. En Italie, la négociation salariale est largement centralisée au niveau des branches tandis que la représentation syndicale en entreprise porte davantage sur l’organisation du travail, la formation et les conditions d’emploi. Cette configuration limite les comportements de captation de rente au niveau de l’entreprise et renforce le rôle des syndicats comme acteurs du dialogue social local.

C’est dans ce contexte qu’une étude récente des économistes Fabio Berton, Stefano Dughera et Andrea Ricci, menée sur plusieurs milliers d’entreprises italiennes, analyse l’adoption des technologies numériques avancées, en mobilisant une méthodologie rigoureuse visant à corriger les biais de causalité.

Des résultats clairs… et contre-intuitifs

Pour dépasser ce problème classique de causalité, les auteurs ont eu recours à une méthode dite des variables instrumentales. Ils exploitent notamment un indicateur original : le niveau de dons de sang par habitant observé au niveau provincial dans les années 1990. Le don du sang reflète des dispositions altruistes et un sens du collectif, qui favorisent la présence syndicale, sans lien direct avec les choix technologiques des entreprises plusieurs décennies plus tard. Combiné à des informations sur la diffusion passée des syndicats par secteur et par région, cet outil permet d’isoler un effet propre de la représentation du personnel sur la transformation numérique des entreprises.

Le constat est sans ambiguïté : les entreprises dotées d’une représentation syndicale ont une probabilité significativement plus élevée d’adopter des technologies numériques avancées. En moyenne, cette probabilité est supérieure d’environ 15 points de pourcentage par an par rapport aux entreprises non syndiquées. Ces entreprises n’adoptent pas seulement plus souvent une technologie, mais en adoptent également un plus grand nombre, signe d’une transformation numérique plus profonde.

Des syndicats pour mieux identifier les résistances internes

Plusieurs mécanismes permettent de comprendre ce résultat. D’abord, la présence syndicale peut réduire les résistances internes face au changement. En donnant aux salariés une possibilité de s’exprimer, elle permet d’anticiper les conflits et de négocier les modalités de la transition technologique.

Ensuite, les entreprises « syndiquées » investissent davantage dans la formation et connaissent une plus grande stabilité de l’emploi. Or, les technologies numériques avancées nécessitent souvent des compétences spécifiques et une accumulation de savoirs internes, qui s’accommodent mal d’un fort turnover.

CFDT Cadres, 2019.

Enfin, le dialogue social contribue à instaurer un climat de confiance propice à l’investissement de long terme. La transformation numérique n’est pas seulement une affaire de machines, mais aussi d’organisation et de coopération.

Les élus du personnel, des agents favorables à la transformation ?

Ces résultats ne signifient pas que la présence syndicale favorise partout et toujours l’innovation. Ils soulignent surtout l’importance du cadre institutionnel. Dans des systèmes où la négociation est très décentralisée et où les syndicats disposent d’un fort pouvoir de fixation des salaires au niveau de l’entreprise, les effets peuvent être différents. Ils mettent également en lumière une limite importante de l’étude italienne : les auteurs ne distinguent pas la nature des organisations syndicales présentes dans l’entreprise.

Or, cette dimension est loin d’être anodine. Dans des contextes marqués par un fort pluralisme syndical, comme l’Italie – ou la France –, les syndicats peuvent poursuivre des stratégies différenciées et entretenir des relations variées avec les employeurs, susceptibles d’influencer les dynamiques d’innovation. Au fond, ce n’est donc pas tant la présence de syndicats qui importe que leurs modes d’action : selon les configurations, ils peuvent tout autant freiner l’innovation que la rendre possible.

À l’heure où l’intelligence artificielle et l’automatisation suscitent de fortes inquiétudes sociales, ces résultats invitent à dépasser une opposition simpliste entre innovation et protection des salariés. La transformation technologique est aussi un processus social, qui gagne à être négocié plutôt qu’imposé. Dès lors, plutôt que d’affaiblir le dialogue social au nom de la compétitivité, il pourrait être plus efficace de le renforcer pour accompagner la transition numérique des entreprises.

The Conversation

Patrice Laroche dirige le programme WAVE (Workplace Arrangements and Voice Effects) financé par l'Agence nationale de la recherche (ANR) au sein du CEREFIGE (Université de Lorraine)

IA et métacognition : savoir quand on peut faire confiance, ou non, à la machine n’est pas toujours évident

Cet article est publié en collaboration avec Binaire, le blog pour comprendre les enjeux du numérique.


Un système d’IA doit toujours être supervisé par un humain, mais encore faut-il que cette personne soit en mesure de distinguer quand elle comprend ce que propose la machine et quand elle peut être influencée.


Les cadres contemporains de gouvernance de l’intelligence artificielle (IA) reposent sur un présupposé rarement rendu explicite : lorsqu’un opérateur humain reçoit l’output d’un système d’IA, il doit être en mesure de l’évaluer de manière significative. Les dispositions de l’AI Act européen relatives aux systèmes à haut risque exigent transparence, explicabilité et supervision humaine.

Sont explicitement visés les systèmes utilisés dans le recrutement et l’évaluation des travailleurs, l’accès aux prestations sociales, les décisions d’octroi de crédit, le contrôle aux frontières, l’administration de la justice, et les soins de santé critiques.

Le plan d’action des États-Unis sur l’IA appelle au maintien d’un contrôle humain significatif sur les décisions IA à conséquences importantes. Les principes de l’OCDE sur l’IA inscrivent le centrage sur l’humain au cœur de ses engagements.

Ces engagements sont nécessaires mais insuffisants. Ils portent sur ce que les systèmes d’IA doivent fournir aux opérateurs humains et laissent entièrement sans réponse la question de ce que ces derniers doivent être capables de faire pour agir sur ce qu’ils reçoivent. Cette lacune n’est pas accidentelle. C’est un angle mort structurel dans l’architecture actuelle de la gouvernance de l’IA.

Le modèle implicite du superviseur humain dans la plupart des textes réglementaires est celui d’un professionnel compétent et attentif qui, face à des outputs précis et lisibles, formule des jugements éclairés. C’est une hypothèse plausible dans des environnements stables, à faibles enjeux et bien maîtrisés, mais une hypothèse fragile dans des contextes à forts enjeux, soumis à la pression temporelle, et techniquement opaques – précisément les contextes dans lesquels les systèmes d’IA sont de plus en plus déployés.

Par exemple, l’infirmier aux urgences en charge du triage aux urgences qui reçoit un score de triage produit par un système IA ne dispose pas systématiquement des explications qui l’ont généré. Le conseiller bancaire qui doit décider en quelques minutes de bloquer un compte sur la base d’une alerte de fraude automatisée travaille potentiellement avec un modèle propriétaire qu’il ne peut pas interroger. L’agent administratif qui valide l’attribution d’un logement social ou d’une prestation algorithmiquement priorisée ne peut généralement pas expliquer pourquoi un dossier a été classé avant un autre. L’enseignant qui contresigne une notation automatisée d’examen n’a pas accès aux critères qui ont produit le score. Dans chacun de ces cas, la supervision humaine est formellement présente – et substantiellement impossible.

Des opérateurs métacognitivements avertis

La métacognition – la capacité à monitorer et réguler ses propres processus cognitifs – est le substrat psychologique d’une supervision efficace. Un opérateur métacognitivement averti sait quand il comprend quelque chose, quand il conjecture, et quand son jugement est façonné par des facteurs qu’il n’a pas consciemment enregistrés. Cette capacité ne peut pas être présumée ; elle varie significativement selon les individus, les formations et les pressions situationnelles.

La recherche en interaction humain-automatisme a documenté un ensemble de modes de défaillance qui émergent spécifiquement lorsque des humains supervisent des systèmes automatisés ou alimentés par l’IA. Le biais d’automatisation – la tendance à surpondérer les recommandations générées par la machine par rapport à son propre jugement – est l’un des résultats les plus robustes du domaine. Dans une étude fréquemment citée, les chercheurs Parasuraman et Riley ont montré en 1997 que les humains mésusent (c’est-à-dire font un mauvais usage ou utilisent de manière inadéquate ou inappropriée) systématiquement de l’automatisation en l’appliquant là où elle est peu fiable, et la délaissent là où elle serait bénéfique – deux types d’erreurs qui reflètent un défaut d’étalonnage métacognitif plutôt qu’un défaut de provision d’information. Par exemple, dans des expériences en simulateur de vol citées par ces auteurs, des pilotes équipés d’un système d’alerte automatique ont éteint un moteur en réponse à une fausse alerte – une décision qu’ils avaient eux-mêmes déclaré, avant l’expérience, ne jamais prendre sur la seule foi d’une alerte automatisée.

Le défi est aggravé par les caractéristiques propres aux systèmes d’IA contemporains. Les travaux de Kahneman sur une cognition à double processus – connu aussi sous le nom de Système 1/Système 2, les deux vitesses de pensées – éclairent ce mécanisme. Face à un système IA qui produit un output avec fluidité et assurance, l’esprit humain tend à activer un traitement rapide et intuitif (celui qu’on mobilise pour des tâches familières et peu risquées), plutôt que de réaliser une analyse profonde de la situation, plus longue, plus réfléchi, plus logique, et donc plus gourmande cognitivement.

Plus concrètement, une explication qui paraît plausible déclenche des réponses cognitives différentes d’une explication qui l’est vraiment. Lorsque les explications des systèmes d’IA sont synthétiquement fluides, numériquement précises et visuellement formatées comme des outputs faisant autorité, elles suppriment précisément le scepticisme que nécessite une supervision significative.

Peut-être de manière contre-intuitive, fournir davantage d’explications n’améliore pas de manière fiable le jugement humain des résultats d’IA. Une équipe de recherche, dans une étude expérimentale rigoureuse, a constaté que les explications produites par l’IA n’amélioraient pas systématiquement les performances de l’équipe humain-IA, et les dégradaient dans plusieurs conditions – notamment lorsque les explications étaient techniquement exactes mais cognitivement incompatibles avec la manière dont les opérateurs formaient leurs propres jugements.

Plus concrètement, sur la tâche d’analyse de sentiment, l’IA expliquait son jugement en surlignant les mots qu’elle avait identifiés comme positifs ou négatifs. Or les participants humains évaluaient le ton d’un texte de manière globale, en tenant compte du contexte et de la cohérence d’ensemble – un processus que la mise en évidence de mots individuels ne peut pas restituer. Ici, l’IA et l’humain n’arrivent pas à leur jugement par le même chemin : L’IA identifie des élements locaux (un mot, une phrase), là ou l’humain construit un jugement holiste (l’ensemble du texte, le contexte, la cohérence interne). Quand l’explication fournie reflète la logique de la machine plutôt que celle du raisonnement humain, elle ne donne pas à l’opérateur les outils pour évaluer si la recommandation est fiable – elle le convainc simplement de la suivre.

L’explicabilité est ainsi une condition nécessaire mais insuffisante d’une supervision efficace. Ce qui réduit l’écart entre les deux, c’est la maturité métacognitive.

Trois implications pour la gouvernance de l’IA

Si la maturité métacognitive est une propriété réelle et variable des opérateurs humains, alors les cadres de gouvernance qui imposent l’explicabilité sans s’intéresser à la métacognition des opérateurs sont tout simplement incomplets. Selon les travaux de la littérature scientifique – parmi lesquels ceux de l’IA explicable, de l’interaction humain-automatisme, des sciences cognitives, de la psychologie, des sciences humaines et sociales –, trois implications peuvent être énoncées :

  • La transparence centrée sur la documentation est insuffisante. Ce n’est pas une intuition : c’est ce que la recherche montre depuis trente ans. Ainsi, documenter et expliquer le comportement d’un système ne suffit pas à garantir de bonnes décisions humaines sans impliquer les individus dans les processus de conception de ces explications et de cette documentation et prendre en compte le contexte du besoin métier à l’instant t. Des études contrôlées ont même montré que « trop d’explications » peuvent dégrader la performance de l’équipe humain-IA en noyant l’information pertinente dans le bruit.

  • La qualification métacognitive des opérateurs devrait être considérée comme une composante de la gouvernance IA. Il s’agit ici d’un gap que la recherche a commencé à nommer, sans qu’aucun référentiel n’ait encore été formalisé.

Plus concrètement, les textes réglementaires comme l’AI Act exigent que les superviseurs humains soient « compétents », mais sans jamais définir ce que cela signifie – et en particulier, aucun référentiel n’évalue ce que les chercheurs appellent la compétence métacognitive, soit la capacité à détecter les défaillances de son propre raisonnement face à un système opaque, compétence qui relève de la formation et du contexte, pas de l’intelligence brute. Une précision importante s’impose ici. Parler de la qualification métacognitive des opérateurs ne revient pas à questionner la valeur ou l’intelligence des personnes qui supervisent des systèmes d’IA. Il ne s’agit pas non plus de classer les humains selon leur capacité à « bien penser ». La métacognition n’est ni un trait de personnalité ni un indicateur de valeur. C’est une compétence situationnelle, sensible au contexte, à la formation, à la charge cognitive et aux conditions de travail. Par exemple, un chirurgien expérimenté peut présenter un excellent étalonnage métacognitif dans son domaine et être tout aussi vulnérable au biais d’automatisation qu’un débutant face à un système d’IA opaque dans un contexte pour lequel il n’a reçu aucune formation spécifique.

  • Les compétences métacognitives – savoir ce qu’on comprend, détecter ses propres erreurs de raisonnement, réguler ses stratégies cognitives – varie selon les individus et n’est pas uniformément répartie au sein de la population, ce qui crée un risque structurel pour la sécurité. Il s’agit d’une hypothèse, formulée à partir de travaux menés en psychologie de l’éducation, qui n’a pas encore été étudiée dans le contexte de la gouvernance de l’IA. C’est peut-être le prochain axe de recherche que les gouvernements devraient activement encourager. En effet, si les organisations les mieux dotées en moyens matériels et en ressources humaines peuvent satisfaire aux exigences de supervision réelle, celles qui n’en n’ont pas – non pas parce que leurs personnels seraient moins capables, mais parce que les conditions permettant le développement de cette compétence situationnelle n’ont pas été réunies – produiront une conformité de façade, insuffisante, générant une fausse sécurité particulièrement dangereuse dans les domaines critiques.
The Conversation

Ikram Chraibi Kaadoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Qu’est-ce que l’« IA agentique » ? Comprendre son histoire pour dépasser l’effet de mode

Réserver un voyage en comparant des centaines d’offres, rédiger un rapport à partir de plusieurs documents, analyser des données médicales ou corriger automatiquement un programme informatique : ces tâches exigent de la réflexion, de la méthode et des compétences variées. L’« IA agentique » promet désormais de les accomplir de manière autonome, en orchestrant les opérations nécessaires, en utilisant des outils et en corrigeant ses propres erreurs… Toutefois, l’IA agentique actuelle ne recouvre pas encore toute la richesse du concept d’« agent autonome » tel qu’il a été élaboré dans les décennies précédentes.


Le cabinet Gartner a présenté 2026 comme l’année des « agents IA ». Ces systèmes dépassent la simple amélioration des assistants conversationnels. Les agents IA d’OpenClaw sont d’ores et déjà capables de dialoguer entre eux et d’exécuter des tâches complexes avec une supervision humaine limitée. Pour les entreprises, que ce soit dans l’industrie, l’administration ou la santé, la promesse est celle d’une automatisation plus souple qu’avec les logiciels traditionnels, capable de s’adapter à des situations variées plutôt que d’appliquer des règles prédéfinies.

Pourtant, derrière l’apparente nouveauté se cache une histoire plus ancienne. L’IA agentique s’inscrit dans la continuité de plusieurs décennies de recherche sur les agents autonomes et les systèmes multi-agents. Ce qui change aujourd’hui, ce sont les outils, notamment les grands modèles de langage et leur capacité à interagir plus naturellement avec les humains.

De la génération de texte à l’action

Les modèles conversationnels, comme ChatGPT, Gemini ou Claude, impressionnent par leur aptitude à résumer ou à rédiger des textes complexes. Pris isolément, ils restent toutefois essentiellement réactifs : ils produisent une réponse en fonction d’une requête. Un agent autonome va plus loin. Il peut analyser une demande, planifier une séquence d’opérations, utiliser des outils externes (moteur de recherche, base de données, logiciel), évaluer le résultat obtenu et ajuster sa stratégie si nécessaire.

Là où un modèle de langue se limite à écrire un programme informatique, un agent peut l’exécuter dans un environnement sécurisé, observer les erreurs éventuelles, corriger le code, puis le tester à nouveau. En somme, les agents IA ne font pas que parler, ils agissent.

Le passage de la génération de texte à l’action transforme la nature même du logiciel. Alors qu’un programme suit des instructions précisément définies à l’avance, un agent autonome peut, lui, adapter dynamiquement ses décisions en fonction du contexte, des résultats obtenus et des objectifs fixés. Il ne remplace pas nécessairement l’humain, mais modifie la répartition des tâches entre supervision et exécution.

Promesses et risques

Cette évolution ouvre des perspectives considérables. Dans les organisations, des agents peuvent automatiser des processus métiers laborieux. Dans l’industrie, ils peuvent coordonner des systèmes logiciels complexes. Dans le domaine médical, ils peuvent analyser des dossiers, rechercher des publications pertinentes et proposer des synthèses pour assister les médecins. Mais ces promesses s’accompagnent de risques.

En effet, les modèles actuels peuvent produire des informations inexactes, les fameuses hallucinations, et sont susceptibles de reproduire des biais présents dans leurs données d’entraînement. Si les agents sont cantonnés à un rôle d’assistant, ces limites sont déjà problématiques ; elles deviennent critiques lorsqu’elles concernent des systèmes capables d’agir sur des infrastructures techniques, notamment en exécutant des commandes système, en manipulant des fichiers ou en envoyant des requêtes réseau.

La question des agents d’IA n’est donc pas seulement technique : elle est aussi juridique, économique et sociétale. Elle touche à la transformation du travail qualifié et à la gouvernance des systèmes informatiques.

Une filiation historique

L’idée d’un agent autonome n’est pas née avec les modèles de langue. Elle remonte aux origines mêmes de l’intelligence artificielle. En 1956, lors de la conférence fondatrice de Dartmouth (au nord-est des États-Unis), l’un de ses organisateurs, Marvin Minsky, définissait déjà l’IA comme la conception de programmes capables d’accomplir des tâches mobilisant des capacités dites intelligentes telles que comprendre, apprendre, raisonner ou décider.

À partir des années 1980, la notion d’« agent intelligent » devient centrale. Un « agent » est alors défini comme un programme capable de percevoir son environnement, de prendre des décisions et d’agir pour atteindre des objectifs. Très tôt, les chercheurs développent le champ des systèmes multi-agents : des ensembles organisés de programmes autonomes qui interagissent dans un même environnement numérique. L’objectif est de comprendre comment ces entités peuvent se coordonner, coopérer ou entrer en compétition afin de résoudre des problèmes complexes.

Plusieurs travaux emblématiques illustrent concrètement cette approche. Le système HEARSAY-II repose sur un modèle de « tableau noir ». Plusieurs modules spécialisés pour la reconnaissance, l’analyse et l’interprétation du langage contribuent à la compréhension de la parole en partageant leurs hypothèses dans un espace commun structuré. Le Contract Net Protocol propose un mécanisme inspiré des appels d’offres : pour réaliser une tâche, un agent émet un appel à proposition, d’autres agents proposent leurs services, et les plus compétents se voient attribuer le contrat. Autrement dit la coordination entre agents est au cœur de l’IA depuis plusieurs décennies.

Un réservoir d’idées encore sous-exploité

Mais si l’idée d’agent n’est pas nouvelle, l’« IA agentique » s’impose aujourd’hui auprès des non-spécialistes en raison du rôle central joué par les grands modèles de langue. Bien que dénués de compréhension causale et de compréhension du monde physique, ceux-ci fournissent aux agents une capacité linguistique et une forme de « sens commun » statistique qui facilitent l’interaction avec les humains et l’interprétation d’instructions complexes en langage naturel.

Toutefois, l’IA agentique actuelle ne recouvre pas encore toute la richesse du concept d’agent autonome tel qu’il a été élaboré dans les décennies précédentes. Dans la pratique, elle repose encore le plus souvent sur une séquence d’actions où chaque étape est prévue et ordonnée à l’avance. Les travaux menés depuis les années 1990 sur les systèmes multi-agents qui portent sur la coopération, la négociation, l’allocation de tâches et l’adaptation collective offrent un réservoir d’idées encore largement sous-exploitées.

L’intégration de ces mécanismes avec les capacités des grands modèles ouvre pour demain des perspectives nouvelles : des agents capables non seulement d’exécuter un plan mais de s’organiser collectivement, de se spécialiser et de s’adapter à des environnements complexes.

L’IA agentique constitue ainsi une nouvelle étape plutôt qu’une rupture. Elle associe l’héritage théorique des systèmes multi-agents à la puissance récente des modèles génératifs. Comprendre cette filiation historique permet de dépasser l’effet de mode. L’IA agentique représente une tentative de transformer des modèles prédictifs en systèmes capables d’agir, de planifier et, peut-être demain, de s’organiser collectivement dans des environnements complexes.

The Conversation

Maxime MORGE a reçu des financements de Lyon 1 Université et CNRS, .

IA : pourquoi former une « tête bien faite » n’a jamais été aussi crucial

Alors que l’intelligence artificielle générative produit des textes, des images et des raisonnements toujours plus convaincants, une question éducative essentielle émerge : que signifie encore comprendre ? À l’ère de la surcharge informationnelle, former une « tête bien faite » ne consiste plus à accumuler des savoirs, mais à apprendre à juger de leur profondeur, de leur validité et de leur inscription dans le réel.


Des étudiants peuvent rendre aujourd’hui des travaux irréprochables sur la forme : structurés, argumentés, parfois brillants. Pourtant, lorsqu’on les interroge, un malaise affleure. Ils peinent à expliquer ce qu’ils ont réellement compris, à justifier leurs choix, à relier ce qu’ils ont produit à une expérience vécue ou à une situation concrète. L’intelligence artificielle (IA) générative n’est pas toujours la cause directe de cette situation, mais elle en est un révélateur puissant. Car si produire de l’information n’a jamais été aussi simple, comprendre ce que l’on fait n’a jamais été aussi exigeant.

Connaître, savoir, comprendre : une distinction devenue centrale

À l’ère de l’IA, la question éducative ne peut plus être pensée en termes d’accumulation de connaissances. Elle impose de clarifier ce que l’on entend par connaître, savoir et comprendre, et d’interroger la manière dont ces dimensions s’articulent dans les processus d’apprentissage.

Deux grandes traditions épistémologiques permettent d’éclairer cette distinction. Le scientifique Michael Polanyi a montré que toute connaissance humaine comporte une part irréductiblement tacite : elle est enracinée dans l’expérience, l’action et l’engagement du sujet. « Nous savons plus que ce que nous pouvons dire », écrit-il, soulignant que la compréhension précède souvent sa formulation explicite. Cette connaissance en acte, souvent implicite, se construit dans le faire, l’essai, l’erreur et la confrontation au réel.

À l’inverse, le philosophe Gaston Bachelard a établi que le savoir scientifique ne procède pas d’un simple prolongement de l’expérience. Il exige une rupture avec les évidences premières et avec l’opinion, au prix d’un travail de construction rationnelle, critique et abstraite. « La science ne procède pas de l’opinion », rappelait-il, insistant sur la nécessité de former l’esprit à poser des problèmes plutôt qu’à accumuler des réponses.

Former une « tête bien faite », ce n’est donc ni accumuler des savoirs abstraits, ni se contenter d’une expérience brute. C’est apprendre à tenir ensemble ces deux dimensions : l’expérience vécue et la construction conceptuelle, l’action et la réflexivité.

Ce que l’IA sait faire – et ce qu’elle ne peut pas faire

Les systèmes d’intelligence artificielle excellent précisément là où le savoir est formalisable : calcul, synthèse, reproduction, mise en forme. Ils prennent en charge une part croissante du savoir explicite, stabilisé, calculable. Mais ils opèrent dans un régime spécifique : celui de la corrélation statistique et de la production d’énoncés plausibles.

L’IA ne connaît pas le monde, elle ne le comprend pas. Elle n’a ni expérience, ni rapport incarné au réel, ni accès aux conditions de pluralisme des phénomènes qu’elle décrit. L’information qu’elle génère est par nature probabiliste – elle repose sur des calculs de vraisemblance issus de corrélations statistiques plutôt que sur une compréhension des causes, contingente – elle dépend des données, des contextes d’énonciation et des paramètres techniques, et révisables – en ce sens qu’elle peut être corrigée, contredite ou reformulée à tout moment sans que cela n’implique une progression interne de la compréhension.

Cette distinction est aujourd’hui au cœur des travaux contemporains sur les usages éducatifs de l’IA, qui montrent que l’automatisation de certaines tâches cognitives peut, si elle est mal encadrée, appauvrir l’exercice du jugement critique.

Plus les productions de l’IA deviennent convaincantes, plus le risque est grand de confondre cohérence formelle et compréhension réelle, à savoir paraître véridique en lieu et place d’un énoncé prudent et ouvrant le dialogue.

Mesurer la complexité : une compétence qui s’apprend

Face à cette situation, un enjeu éducatif majeur émerge : la capacité à mesurer la complexité des choses. Distinguer ce qui relève de la surface informationnelle de ce qui engage une compréhension structurée. Apprécier les niveaux de profondeur d’un problème, d’un système ou d’une situation.

Or cette capacité ne se décrète pas. Elle se construit progressivement par l’expérience du réel. Elle suppose un travail actif de confrontation entre ce que l’on anticipe théoriquement et ce que révèle l’épreuve de la réalisation concrète. C’est dans l’écart, toujours instructif, entre le modèle et l’expérience que s’affinent les critères de jugement et que se développe une intelligence véritablement située, au sens où elle articule savoir formalisé et connaissance vécue.

Le savoir ne devient opérant qu’à condition d’être éprouvé, mis en tension avec le réel, réajusté à la lumière de ses résistances et de ses surprises. Inversement, l’expérience brute, si elle n’est pas reprise dans un cadre réflexif et conceptuel, demeure muette et difficilement transmissible. La formation doit donc organiser les conditions de cette circulation exigeante entre théorie et pratique, abstraction et incarnation.

Une révolution pédagogique autant que technologique

L’intelligence artificielle ne transforme pas seulement nos outils. Elle intervient au cœur même des fonctions cognitives supérieures : mémoire externalisée, accès instantané à l’information, génération de raisonnements apparents. Là où les technologies précédentes amplifiaient des capacités humaines déjà constituées, l’IA en reconfigure désormais l’équilibre.

L’enjeu éducatif se déplace en conséquence. Il ne s’agit plus principalement d’apprendre à produire ou à restituer de l’information mais d’apprendre à en évaluer la profondeur, la cohérence, les conditions de validité et les effets dans le réel. Cette mutation rejoint les analyses du sociologue Edgar Morin sur la pensée complexe, qui soulignent la nécessité de former des esprits capables de relier, de contextualiser et d’affronter l’incertitude plutôt que de réduire le réel à des réponses simplifiées.

Des travaux récents en sciences cognitives et en sciences de l’éducation montrent d’ailleurs que l’usage substitutif de l’IA peut conduire à une forme de délégation cognitive excessive, réduisant l’engagement intellectuel et la mémorisation à long terme, là où un usage réflexif et critique peut au contraire renforcer l’apprentissage.

Former des ingénieurs – et des citoyens – capables de juger

Former une tête bien faite à l’ère de l’IA implique ainsi de ne pas confondre délégation cognitive et renoncement intellectuel. Il s’agit de former des sujets capables de faire usage de systèmes puissants sans s’y soumettre, capables de maintenir une exigence de sens là où la machine ne produit que de la forme.

Chez IONIS, le développement des IONIS Institute of Technology (I2T) sur nos campus procède d’une conviction forte : si nos étudiants ingénieurs doivent maîtriser les technologies de l’intelligence artificielle, ils doivent tout autant apprendre à en éprouver les limites par la confrontation au réel. Le laboratoire, l’atelier et l’expérimentation deviennent alors des lieux centraux de formation du jugement.

Former de bons ingénieurs – et plus largement des citoyens éclairés – consiste à cultiver un esprit critique, mesuré et évolutif, nourri par l’expérience concrète, le faire et le défaire. À l’ère de l’IA, la question essentielle n’est donc pas seulement ce que nous attendons de la machine mais bien ce que nous attendons de l’humain : sa capacité à comprendre, à créer et à décider avec discernement dans des environnements incertains et technologiquement augmentés.

The Conversation

Clément Duhart ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Numérisation de la justice : les leçons du cas belge

En Belgique, l’échec du projet numérique « I-police » ainsi que les controverses récentes autour de l’intelligence artificielle ont ravivé les débats sur la place du numérique dans les institutions publiques. Longtemps présentée comme un levier de modernisation, la numérisation transforme le travail des tribunaux et met en lumière les fragilités de l’indépendance judiciaire. Derrière les promesses de rapidité et d’efficacité se dessinent de nouveaux enjeux pour la justice.


En Belgique, comme ailleurs, la numérisation de la justice est devenue un enjeu politique et budgétaire majeur. Les événements récents invitent pourtant à réexaminer la portée de ce chantier. L’arrêt du projet « I-police », après des investissements publics considérables, a rappelé la fragilité des grands projets numériques dans le secteur public. Le programme a été abandonné en raison de graves lacunes dans l’exécution du marché public et de résultats jugés très en deçà des attentes initiales.

Dans le même temps, l’arrivée en février 2025 à la tête du ministère de la justice d’Annelies Verlinden, auparavant ministre de l’intérieur, marque un déplacement des priorités. Après plusieurs années de modernisation numérique continue, ses premières mesures mettent plutôt l’accent sur les problèmes structurels du système judiciaire, tels que les conditions de travail, les infrastructures et la surpopulation carcérale. Le numérique n’est plus présenté comme la solution centrale, mais comme un élément parmi d’autres d’une réforme institutionnelle.

Parallèlement, l’intelligence artificielle suscite des controverses. La condamnation d’un avocat pour avoir remis des conclusions rédigées par une IA et les mises en garde contre une automatisation excessive de la décision judiciaire soulignent que les enjeux ne sont pas seulement techniques, mais aussi normatifs.

Ces signaux convergents montrent que la numérisation de la justice ne relève pas d’une évidence consensuelle. Elle engage des choix de gouvernance, de financement et de conception de la démocratie.

Une solution technique à des problèmes structurels ?

En Belgique, la numérisation des tribunaux s’inscrit dans une longue trajectoire de réformes. La fin des années 1990 est marquée par l’affaire Dutroux et la crise institutionnelle subséquente. Les gouvernements successifs ont alors cherché à restaurer la confiance des citoyens en essayant de rendre l’institution plus efficace, plus transparente et plus performante.

Progressivement, le numérique est devenu l’instrument privilégié de cette modernisation. Bases de données, plateformes de gestion, systèmes de traitement des dossiers : ces outils promettaient de fluidifier les procédures, de centraliser l’information et de réduire les délais.

Mais ces technologies ne sont pas neutres. Comme tout instrument de gestion, elles organisent, hiérarchisent et encadrent l’activité. Elles s’inscrivent dans un discours d’urgence et de modernisation présenté comme inévitable. Le numérique s’est ainsi imposé non seulement comme un outil, mais aussi comme la meilleure réponse aux difficultés structurelles de la justice – la lenteur, la complexité, le manque de transparence et les coûts élevés.

Pourtant, la numérisation ne supprime pas les tensions : elle les déplace, les reformule et en fait émerger de nouvelles. Derrière les plateformes et les bases de données, ce sont des équilibres fondamentaux qui se redessinent.

Les enjeux derrière la « solution numérique »

Pour comprendre ce que la numérisation produit concrètement, il faut déplacer le regard. Trois points d’attention permettent d’en mesurer les effets.

Un travail judiciaire redéfini

La manière de penser évolue : les outils pré-classent les dossiers, automatisent certaines étapes et signalent des priorités. Il ne s’agit plus seulement d’interpréter et de trancher, mais de composer avec ce que le système permet, impose ou rend visible.

Les tableaux de bord, les indicateurs de performance et les champs standardisés valorisent la rapidité, la traçabilité et la conformité. Là où dominaient auparavant la délibération et la profondeur d’analyse, ces nouveaux critères s’imposent et redéfinissent, en pratique, les hiérarchies de valeur – par exemple en plaçant l’efficacité au-dessus de la réflexion – ainsi que ce qui est considéré comme un « bon » travail juridique.

Enfin, la manière dont les décisions sont prises, et par qui, évolue. Le fonctionnement des juridictions dépend désormais d’entreprises privées et de mises à jour logicielles dont les logiques ne sont pas toujours explicites ni alignées avec les normes judiciaires. L’autorité des juges demeure formellement intacte, mais leur capacité à agir dépend de plus en plus de ces infrastructures et des acteurs qui les font fonctionner.

Ces évolutions, souvent discrètes, recomposent progressivement les équilibres professionnels et la manière dont la justice est exercée.

L’indépendance judiciaire en question

Au-delà du travail judiciaire lui-même, la numérisation influence aussi l’indépendance de la justice. Celle-ci concerne les conditions matérielles et organisationnelles dans lesquelles les décisions sont prises.

Traditionnellement, les dossiers étaient gérés au sein des juridictions. Avec les plateformes numériques, la gestion des fichiers, des bases de données et des systèmes informatiques implique désormais d’autres acteurs : prestataires privés, ordres professionnels, services publics fédéraux. Certaines juridictions ont tenté de conserver la maîtrise de leurs outils, en développant leurs bases de données en interne. Mais ailleurs, les dépendances sont plus fortes, qu’elles lient l’institution à un prestataire privé pour la maintenance d’un système pénal, ou à l’Ordre des avocats pour une plate-forme de gestion des faillites.

La question devient plus sensible encore lorsque l’exécutif intervient dans la gouvernance des infrastructures. En novembre 2025, la Cour constitutionnelle a annulé une disposition relative au dossier pénal numérique. Le registre central, censé constituer la source authentique des dossiers de procédure, était géré par un comité institué auprès du Service public fédéral de justice, au sein duquel les représentants de l’ordre judiciaire ne disposaient ni d’une majorité ni d’une voix prépondérante. La Cour a estimé qu’une telle structure ne garantissait pas suffisamment l’indépendance judiciaire.

Une soutenabilité institutionnelle fragilisée

Sur le terrain, un paradoxe s’impose aux acteurs et aux observateurs : le numérique semble à la fois en retard – outils défaillants, connexions incertaines – et en accélération permanente, avec des projets qui se succèdent avant même que les précédents ne soient stabilisés. Dans ce contexte, les décalages et les imprévus ne sont pas toujours anticipés par les réformes. Ils sont absorbés au quotidien par les professionnels eux-mêmes : prendre en main un nouveau logiciel, contourner une étape bloquée, maintenir une cohérence alors que les catégories évoluent plus vite que les règles qu’elles sont censées servir.

À long terme, cette succession d’adaptations produit une forme d’usure institutionnelle. Les outils se suivent, les systèmes changent et les équipes doivent constamment apprendre, désapprendre, réapprendre et compenser des défauts de conception par du bricolage. Innovation et usure coexistent dans un même geste : maintenir la justice opérationnelle à travers des infrastructures fragiles.

Cette fatigue ne tient pas seulement aux outils eux-mêmes, mais au rythme auquel ils sont conçus et déployés. Les projets numériques sont souvent financés dans les cycles courts des législatures, des plans stratégiques, d’éventuels fonds européens du plan de relance. Ces financements privilégient le lancement et les échéances visibles. Mais la justice fonctionne dans la durée. Elle exige stabilité, continuité et réparabilité.

De plus, un système numérique ne vit pas seulement au moment de son déploiement. Il exige des mises à jour, des corrections et un support constant. Ces coûts de maintenance sont souvent sous-estimés, fragmentés ou financés de manière provisoire. Les juridictions se retrouvent alors à faire fonctionner des systèmes instables ou partiellement aboutis.

Ce décalage entre le temps politique de l’innovation et le temps institutionnel de la justice fragilise la capacité des juridictions à faire fonctionner durablement les dispositifs numériques sur lesquels elles reposent. La Cour des comptes belge a récemment alerté sur la viabilité à long terme des initiatives de justice numérique dans leur gouvernance actuelle.

Au service de quelle justice ?

La numérisation de la justice ne peut être réduite à un simple chantier technique. Elle engage des choix de gouvernance, de financement, et de conception du service public. Présentée comme une réponse à la lenteur ou à la complexité de la justice, elle redessine en réalité les équilibres institutionnels et les conditions d’exercice du travail judiciaire.

L’enjeu n’est donc pas seulement celui de l’efficacité des outils. Il réside dans la manière dont ils sont conçus, gérés, financés, et maintenus dans le temps, et dans la vision de la justice qu’ils contribuent à instituer. Car derrière les plateformes et les registres numériques se jouent des questions plus fondamentales : quelles pratiques professionnelles, quelles formes d’indépendance et quelles temporalités institutionnelles ces dispositifs rendent-ils possibles – ou fragilisent-ils ? Et à quel prix ?

The Conversation

Lisa Pelssers a reçu des financements du Fond national de la recherche scientifique (FRS-FNRS).

L'intelligence numérique peut aider à réduire les GES… et les aggraver. Voici comment jongler avec ce paradoxe

La réduction des émissions de gaz à effet de serre nécessite une transition rapide vers des systèmes énergétiques bas carbone. On peut penser à l’énergie solaire, l’énergie éolienne ou encore la géothermie.


On peut aussi penser à l’intelligence numérique (IA, algorithmes, grande data, objets connectés). Elle offre des leviers puissants pour accélérer la transition vers des systèmes énergétiques bas carbone. Mais elle n’est pas neutre : sa production et son fonctionnement génèrent eux-mêmes des émissions et des impacts matériels.

La question de la responsabilité des innovations technologiques visant à accompagner la transition écologique est au coeur de mes recherches. Les technologies numériques peuvent-elles, paradoxalement, faire partie de la solution ? L’intelligence numérique ne risque-t-elle pas, au contraire, d’aggraver le problème lorsqu’elle a recours aux énergies fossiles ?

Lasagne d’intelligence numérique

L’intelligence numérique regroupe la science des données et l’intelligence artificielle, dans une approche dite « de la donnée à la décision ». Elle peut à cet égard fournir des données à partir desquelles de meilleures décisions seront prises, que ce soit en affaires, ou concernant la transition énergétique.

Prenons l’exemple d’Hydro-Québec qui, pour garantir la résilience et la fiabilité de son réseau électrique, doit s’adapter à plusieurs défis.

Une augmentation de la fréquence et de l’intensité des événements météo extrêmes – tempêtes, vents violents, verglas, feux de forêt, fortes précipitations – met à rude épreuve les infrastructures de production, transport et distribution.

En effet, les infrastructures sont de plus en plus vulnérables aux aléas climatiques, comme le verglas qui alourdit et fragilise les lignes électriques, ou les feux de forêt dans le nord qui menacent directement les installations.

L’adaptation du réseau énergétique aux changements climatiques repose sur une approche intégrée combinant des infrastructures plus efficaces, la diversification des sources d’énergie, l’optimisation de la consommation – et sa réduction – ainsi que l’amélioration de la flexibilité du réseau.


À lire aussi : L’étude des forêts anciennes de l’est du Canada indique que le changement climatique a commencé il y a près de 100 ans


L’importance de la modélisation

C’est dans ce contexte que la modélisation devient un ingrédient indispensable de l’intelligence numérique. Les outils de modélisation du système énergétique jouent un rôle clé en permettant d’évaluer les différentes trajectoires vers la carboneutralité.

Par exemple, pour évaluer l’impact du transport routier à Montréal, on peut analyser les déplacements et les comportements des automobilistes sur une période donnée et extrapoler ces données sur l’année grâce à un logiciel de modélisation utilisant l’intelligence numérique.

Les modèles à choix discrets (Discrete Choice Models) sont des modèles statistiques qui décrivent et prédisent les décisions d’individus parmi un ensemble fini d’options, en fonction des caractéristiques des alternatives et des préférences des individus. Ainsi, l’intégration de ces données précises aux modèles permet non seulement d’évaluer le potentiel des nouvelles infrastructures, mais aussi de considérer des alternatives plus viables telles que les transports en commun, la marche, le vélo, ou encore le covoiturage.


À lire aussi : À Montréal, même en doublant les pistes cyclables, les voitures conserveraient 90 % de la chaussée


Si la modélisation ne date pas d’hier, le recours à l’intelligence artificielle permet de réduire le temps de modélisation.

Expérimenter sans construire

Un autre exemple prometteur de l’usage de l’intelligence numérique dans la prise de décision est la modélisation par jumeau numérique.

Elle repose sur l’interaction entre le BIM (Building Information Modeling) et l’intelligence artificielle (IA). Elle consiste à créer une réplique virtuelle d’un bâtiment ou de toute autre infrastructure afin de simuler son comportement dans différentes conditions.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Cette approche permet d’optimiser la conception et les performances du bâtiment sans avoir recours à des matériaux physiques, réduisant ainsi la consommation de ressources. Connecté à des capteurs, le modèle reçoit des données en temps réel (par exemple : la température ou l’occupation d’un bâtiment).

L’IA analyse ces données pour simuler des scénarios, prédire des défaillances, ou optimiser la performance énergétique. Ce système permet ainsi de concevoir, gérer et améliorer un bâtiment sans intervention physique, réduisant les coûts et la consommation de ressources.


À lire aussi : Climat : comment l’industrie pétrolière veut nous faire porter le chapeau


Les limites de l’intelligence numérique

Si les modèles mathématiques aident à identifier des scénarios viables pour la transition énergétique des secteurs du transport et des bâtiments, ils comportent leurs limites.

Les modèles utilisés dans ces analyses sont principalement de nature technico-économique. Autrement dit, ils évaluent ce qui est théoriquement réalisable en fonction des infrastructures et des coûts, mais ils ne tiennent pas toujours compte des obstacles sociaux, environnementaux ou politiques qui peuvent freiner leur mise en œuvre.

Par exemple, une solution identifiée comme optimale pour réduire les émissions de GES pourrait se heurter à des limites telles que le manque de volonté politique, la présence d’autres sources d’émissions non prises en compte, ou encore des impacts collatéraux sur la biodiversité et l’économie locale.

Une transition démocratique

La transition énergétique n’est pas seulement une question technologique, mais aussi politique et sociale. Par exemple, l’adoption de nouvelles normes sociales, comme la réduction de l’usage de l’automobile, doit être soutenue par des infrastructures facilitantes. Les pouvoirs publics ont la responsabilité d’accompagner ces changements.

Le numérique est un outil puissant, mais ce n’est pas une panacée pour affronter ce qui constitue sans doute l’un des plus grands défis de notre siècle. Pour que la recette fonctionne, l’intelligence numérique doit s’assurer de réunir tous les bons ingrédients.

La Conversation Canada

Diane Gorcy a reçu des financements du CIRODD.

Annie Levasseur a reçu des financements de nombreux organismes subventionnaires de la recherche (Chaires de recherche du Canada, CRSNG, FRQ, Mitacs, etc.).

Hanane Dagdougui a reçu des financements de nombreux organismes subventionnaires de la recherche ( CRSNG, Mitacs, FQRNT, etc.).

Olivier Bahn a reçu des financements de plusieurs organismes subventionnaires de la recherche, notamment le CNRC, le CRSNG, le FRQ et Mitacs.

Charles Ponzi nous permet-il de comprendre la bulle de l’IA ?

L’escroc Charles Ponzi (né Carlo Pietro Giovanni Guglielmo Tebaldo Ponzi en 1882 en Italie et mort au Brésil en 1949) se fait connaître dès 1920 pour ses manœuvres financières frauduleuses. Wikimedia Commons

Les bulles technologiques ont souvent dissimulé de grandes fraudes. Du boom ferroviaire britannique au XIXᵉ siècle à l’affaire Madoff, y a-t-il des signes avant-coureurs qui peuvent nous permettre de comprendre la frénésie actuelle autour de l’IA et sa potentielle bulle ?


De nombreux investisseurs se demandent si nous vivons dans une bulle IA ; d’autres vont plus loin et se posent la question de savoir jusqu’à quand. Pourtant, la bulle continue de gonfler, alimentée par ce sentiment dangereux de « peur de passer à côté » (FOMO pour Fear Of Missing Out). L’histoire et l’expérience récente nous montrent que les bulles financières naissent souvent de l’enthousiasme excessif des investisseurs pour les nouvelles technologies « révolutionnaires » qui, lorsqu’elles éclatent, révèlent des systèmes frauduleux surréalistes qui se sont développés sous couvert de la bulle.

Concrètement, un système de Ponzi consiste à rémunérer les investisseurs existants avec l’argent apporté par de nouveaux investisseurs plutôt qu’avec de vrais profits, ce qui nécessite un recrutement continu jusqu’à son effondrement inévitable. L’une des caractéristiques de ces systèmes est qu’ils sont difficiles à détecter avant l’éclatement de la bulle, mais étonnamment simples à comprendre avec le recul.

Dans cet article, nous abordons la question suivante : quelles traces les systèmes de Ponzi laissent-ils dans les bulles financières alimentées par la technologie ? Comment pourraient-elles nous aider à anticiper la prochaine bulle qui émergera dans le tumulte de l’IA ?

Pour ce faire, nous comparerons le Ponzi du « roi du chemin de fer » George Hudson, dans les années 1840, à celui de Bernie Madoff, rendu possible par les technologies de l’information et de la communication (TIC) et les dotcoms des années 1990-2000, puis soutenu par la bulle immobilière qui a suivi aux États-Unis.

« Railway Mania » de George Hudson

La « Railway Mania » débute au Royaume-Uni en 1829. Elle émerge sous l’effet à la fois des attentes des investisseurs quant à la croissance de cette nouvelle technologie et du manque d’alternatives d’investissement provoqué par l’arrêt de l’émission d’obligations par le gouvernement. La promesse de la technologie ferroviaire entraîne un afflux de compagnies ferroviaires avec l’enregistrement de plus de 50 entreprises au cours des quatre premiers mois de 1845 seulement.

George Hudson (1800–1871), caricaturé ironiquement « hors des sentiers battus » dans la revue Punch. Wikimédia

À cette époque, les estimations des coûts de développement ferroviaire sont sous-évaluées de plus de 50 %, et les prévisions de recettes sont estimées entre 2 000 et 3 000 livres sterling par mile, alors que les recettes réelles se situent plutôt entre 1 000 et 1 500 livres par mile. (Cent livres sterling en 1845 équivalent à 15 782,99 livres sterling en 2026, soit 18 216,73 euros, ndlt) Les normes comptables rudimentaires permettent une certaine liberté dans la présentation des comptes, comme le report de la comptabilisation des dépenses. La responsabilité des directeurs incombe aux actionnaires et non à des auditeurs externes ou à des représentants de l’État.

George Hudson, qui est également membre du Parlement, encourage la déréglementation du secteur ferroviaire.

Ponzi de Bernard Madoff

La réputation de Bernard Madoff s’est construite sur son succès dans les années 1970 grâce à l’informatisation et à l’innovation technologique dans le domaine du trading. La bulle Internet est alimentée par l’expansion rapide des entreprises technologiques, avec plus de 1 900 sociétés TIC cotées sur les bourses américaines entre 1996 et 2000, ce qui permet à son fonds BLMIS de détenir 300 millions de dollars d’actifs en 2000 (alors plus de 300 millions d’euros, ndlr).


À lire aussi : En finir avec la finance Ponzi, vraiment ? Le cas « Martin Shkreli »


Bernard Madoff (1938-2021), président fondateur de Bernard L Madoff Investment Securities LLC, l’une des principales sociétés d’investissement de Wall Street. En 2008, il est arrêté par le FBI pour escroquerie de type « système de Ponzi ». Wikimédia

Le système de Madoff se développe dans un contexte de croissance rapide des produits dérivés, tels que les credit default swaps (CDS) et les collateralized debt obligations (CDO), qui augmentent de 452 % entre 2001 et 2007. La forte volatilité des marchés engendre une normalisation des rendements exceptionnellement élevés, masquant le caractère irréalisable des performances promises par Bernard Madoff. Ces rendements sont considérés comme modérés par les investisseurs, qui ne perçoivent pas l’invraisemblance d’une telle constance sur le long terme, ce qui permet au système de durer sans être détecté.

Les activités de Bernard Madoff sont facilitées par le fait qu’avant la loi Dodd-Frank de 2010 sur la supervision des banques, l’enregistrement des hedge funds (fonds spéculatifs) auprès de la Securities and Exchange Commission (SEC, l’organisme de régulation des marchés financiers) est volontaire. De plus, après les attentats du 11 septembre 2001, les ressources gouvernementales sont réorientées vers la sécurité nationale, entraînant une baisse de plus de 25 % des enquêtes ouvertes pour crimes financiers entre 2000 et 2003.

L’invraisemblance des rendements de Bernard Madoff est négligée par la SEC, malgré les signalements de lanceurs d’alerte qui ont déclenché une enquête – ce qui reflète son manque de connaissances et celui d’autres organismes de réglementation en matière de trading des hedge funds. Cela a également pu être le résultat de l’influence des relations étroites de Madoff avec les autorités de régulation, compte tenu de ses fonctions passées de président du Nasdaq et de conseiller en structure de marché auprès de la SEC.

Au moment de l’éclatement de la bulle ferroviaire, les taux d’intérêt de la Banque d’Angleterre sont à leur plus bas niveau depuis près d’un siècle. De même, la baisse des taux d’intérêt par la Réserve fédérale états-unienne (Fed) dans les années 2000 réduit le coût des crédits immobiliers, stimulant la demande et contribuant à l’inflation des prix de l’immobilier. Dans les deux cas, les marchés sont inondés d’argent bon marché et lorsque tout le monde gagne de l’argent (ou pense en gagner), les questions qui dérangent ne sont pas posées.

De l’ascension à la chute des fraudeurs

George Hudson de même que Bernard Madoff communiquent très peu sur leurs opérations auprès de leurs collègues directeurs et actionnaires. Le premier lève notamment 2,5 millions de livres sans fournir de plan d’investissement détaillé. Madoff, quant à lui, emploie et surpaye des collaborateurs peu qualifiés afin de décourager les questions sur le fonctionnement interne, et évite les réunions de présentation aux investisseurs pour ne pas avoir à répondre aux interrogations de professionnels avertis. Il recrute plutôt ses investisseurs par le biais de relations philanthropiques et de réseaux personnels. Des éléments suggèrent que certains actionnaires sont en partie conscients des pratiques commerciales douteuses de Hudson, mais ils ne s’y opposent pas initialement.

Lorsque leurs bulles respectives éclatent, ces pratiques commerciales douteuses sont révélées, et il apparaît clairement qu’ils utilisent, selon le système classique de Ponzi, des capitaux frais – et non les bénéfices des investissements – pour verser des dividendes aux investisseurs. Il a également été révélé qu’ils utilisent les fonds des investisseurs pour financer leurs trains de vie luxueux. Hudson aurait détourné environ 750 000 livres (soit environ 74 millions de livres actuelles, soit 85,4 millions d’euros, ndlt), tandis que la fraude de Bernard Madoff a atteint 65 milliards de dollars de pertes déclarées, avec des pertes réelles pour les investisseurs estimées à environ 18 milliards.

Tous deux ont terminé dans la disgrâce : Hudson s’est enfui en France et Madoff est mort en prison.

Sur la piste du renard

Méfiez-vous lorsque vous voyez des entreprises d’IA dont la valeur marchande ne cesse d’augmenter, dirigées par des leaders charismatiques et influents – il est préoccupant que les dirigeants des géants de l’IA entretiennent des relations aussi étroites avec la Maison-Blanche.

Dans ces cas, il est impératif d’analyser la qualité des communications avec les actionnaires et les investisseurs potentiels, notamment en termes d’allocation du capital et de transparence sur les flux de trésorerie détaillés. Il ne suffit pas de se fier aux états financiers audités ; il faut aller beaucoup plus loin dans l’examen de la stratégie d’investissement – ce qui exigera évidemment des auditeurs qu’ils redoublent d’efforts.

Lorsque les investisseurs sont pris dans la frénésie, au coin de la rue attend un Ponzi.


Geneva Walman-Randall a contribué à cet article en tant qu’assistante de recherche sur les conditions entourant les systèmes de Ponzi de Bernie Madoff et de George Hudson. Elle a mené cette recherche en tant qu’étudiante invitée au St. Catherine’s College d’Oxford.

The Conversation

Paul David Richard Griffiths ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Comment savoir si je parle à un chatbot ?

GPT-4.5 a réussi à convaincre 73 % des évaluateurs qu’il était humain lors d’un test rigoureux en mars 2025. Or, savoir à qui l’on parle est très important, avec des enjeux notamment en termes de sécurité en ligne.


Vous échangez avec le service client de votre fournisseur d’électricité via un chat en ligne. Les réponses arrivent instantanément : précises, empathiques, légèrement familières et portées par un ton que vous identifiez comme féminin. Pour tester votre interlocutrice, vous posez une question piège et votre interlocutrice répond avec humour. Ai-je échangé avec une véritable conseillère… ou avec un algorithme d’IA sophistiqué ?

Vous n’êtes pas les seuls à éprouver ce doute ! Presque la moitié des utilisateurs de chatbots reconnaissent avoir déjà confondu un agent conversationnel virtuel avec un être humain. Jamais la frontière entre l’humain et la machine n’a été aussi floue.

Mes travaux de recherche récents examinent les mécanismes d’adoption de ces outils. Il est indéniable que nous sommes en train d’entrer dans une ère marquée par ce que l’on pourrait appeler une confusion ontologique, c’est-à-dire une ère où les frontières entre le naturel et l’artificiel deviennent de plus en plus floues pour l’être humain qui a du mal à les distinguer clairement.


À lire aussi : Comment enfants et adolescents grandissent avec l’IA, cette « amie » artificielle


Or, savoir à qui l’on parle ne relève plus uniquement d’une simple curiosité technologique : c’est devenu un enjeu de cybersécurité, de confiance et de bien-être psychologique.

Ne pas distinguer un humain d’un chatbot peut exposer à une confiance excessive dans des réponses qui peuvent être inexactes et à la divulgation imprudente d’informations à caractère personnel. Pour le grand public, savoir identifier un chatbot, comprendre ses limites et évaluer la qualité de ses réponses devient une compétence essentielle pour utiliser ces outils en connaissance de cause.

Pourquoi l’identité de votre interlocuteur change-t-elle tout ?

Aujourd’hui, plus d’un milliard de personnes dans le monde utilisent des chatbots. Il est prévu que ce marché atteigne 60,26 milliards de dollars (51,77 milliards d’euros) d’ici à 2030.

Le secteur de la santé, notamment en ce qui concerne la santé mentale, est témoin de l’émergence des chatbots IA de type compagnon qui sont programmés pour simuler la compassion. Savoir que l’on parle à un algorithme d’IA favorise le maintien d’une distance critique indispensable vis-à-vis des recommandations formulées. Par exemple, si une personne exprime un profond mal-être, un chatbot pourra proposer des exercices de relaxation, mais ces réponses standardisées reposant sur des modèles statistiques ne remplacent pas l’évaluation clinique individualisée et le suivi d’un professionnel de santé.


À lire aussi : Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?


Dans le monde des affaires, les entreprises recourent massivement aux chatbots IA afin de réduire les dépenses opérationnelles. La responsabilité juridique peut être engagée dans le cas où un chatbot IA émet une promesse commerciale erronée en raison d’un dysfonctionnement ou d’une hallucination, par exemple, si un chatbot promet par erreur une remise inexistante ou un remboursement sans condition. Qui est responsable de cette promesse ? Le concepteur du chatbot IA, l’entreprise qui l’utilise, ou tout autre acteur impliqué dans sa conception ou sa mise en œuvre ? La clarté concernant l’identité de l’émetteur est essentielle pour établir les fondements du contrat qui définit les responsabilités de chaque partie impliquée.

À l’échelle sociétale, savoir distinguer l’humain des chatbots IA est essentiel pour préserver l’intégrité du débat public. Identifier la nature de son interlocuteur permet d’éviter de confondre un contenu automatisé avec une prise de position authentiquement humaine. Par exemple, lors d’une consultation publique en ligne, un chatbot clairement identifié peut fournir rapidement des informations factuelles sur une réforme sans prétendre porter la voix des citoyens. Les utilisateurs du service public numérique font davantage confiance à un chatbot lorsque celui-ci est clairement identifié comme tel.

Comment identifier un chatbot aujourd’hui ?

Avant tout, pour comprendre son fonctionnement, il faut regarder l’architecture des « transformers », la structure technique derrière la plupart des chatbots modernes. Ces « transformers » sont capables de prédire le mot suivant une suite de mots donnée, grâce aux statistiques : ils donnent juste le mot suivant le plus probable. Savoir que l’on parle à un chatbot IA, c’est se rappeler qu’il ne comprend pas le sens, qu’il n’y a pas de pensée derrière la conversation : le chatbot ne fait que choisir les mots qui ont statistiquement gagné à l’issue de ses calculs.


À lire aussi : Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage


Voici quelques astuces de détection utiles pour savoir si l’on parle à un chatbot IA.

Posez des questions qui nécessitent des détails personnels ou des souvenirs à long terme que le chabot IA ne possède pas, par exemple « Tu te rappelles ce que je t’avais dit sur mon premier stage ? » Un être humain serait en mesure de mobiliser un souvenir précis, tandis qu’un chatbot IA ne pourrait que simuler une continuité. Autre test possible : faites référence à une expérience commune implicite, par exemple « On avait finalement choisi quel restaurant déjà ? » Un être humain pourra se souvenir du lieu exact, tandis qu’un chatbot IA tendra à proposer une réponse plausible sans véritable souvenir.

Posez des questions qui permettent de tester les limites du raisonnement de chatbot IA avec des situations absurdes, par exemple : « Explique-moi pourquoi il est impossible d’expliquer cette impossibilité. » Un humain est davantage susceptible de résister à la demande en exprimant un inconfort par rapport à la question posée. Le chatbot IA raisonne comme si la situation était cohérente, même quand elle ne l’est pas, l’action requise demeure irréalisable. Autre exemple : « Décris précisément la couleur d’un triangle invisible. » Un humain soulignera spontanément l’incohérence de la consigne, tandis qu’un chatbot IA cherchera souvent à formuler une explication théorique comme si la question avait un sens pleinement exploitable.

Posez des questions sur des événements récents hyperlocalisés avec une opinion nuancée, par exemple : « En tant que riverain, que penses-tu de la piétonnisation hier de cette rue ? » Les chatbots IA sont entraînés sur des bases de données figées à une date précise. Même si certains sont connectés à Internet, ils ont souvent du mal à commenter les actualités hyperlocales très récentes avec une perspective nuancée. Autre exemple : « Comment as-tu vécu la coupure d’électricité dans notre quartier hier soir ? » Un habitant pourra évoquer des détails précis comme les discussions avec les voisins et l’ambiance dans la rue, tandis qu’un chatbot restera dans des généralités sans véritable ancrage local.

Vers une transparence et une littératie numérique indispensables : l’IA Act et au-delà

Mes travaux récents, au-delà des astuces de détection, invitent à repenser notre relation avec ces interlocuteurs numériques. Notre étude montre que la divulgation de l’identité, c’est-à-dire l’annonce par un chatbot IA de sa nature artificielle, ne réduit pas forcément la satisfaction de l’utilisateur si la qualité informationnelle du chatbot IA est au rendez-vous. La loi européenne, par le biais de l’IA Act, va imposer cette transparence.

À l’avenir, la question sera donc plutôt « Comment optimiser la collaboration avec cette entité que je sais être artificielle ? » Pour les entreprises, il faut se concentrer sur ce qui compte vraiment aux yeux des utilisateurs grand public, c’est-à-dire la performance du chatbot IA permettant de fournir des réponses pertinentes, fiables et de qualité, plutôt que de se contenter de déclarations éthiques génériques ou d’avatars anthropomorphiques attrayants.

The Conversation

Zeling Zhong ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Le plus grand danger de l’IA à l’université n’est pas la triche, c’est l’érosion de l’apprentissage lui-même

L’intelligence artificielle promet de « libérer du temps » et d’optimiser l’apprentissage. Mais en déléguant aux machines les tâches qui formaient étudiants et jeunes chercheurs, les universités risquent d’éroder les conditions mêmes de l’expertise.


Dans le débat public sur l’intelligence artificielle (IA) à l’université, une inquiétude revient en boucle : la tricherie. Les étudiants vont-ils confier leurs dissertations à des chatbots ? Les enseignants sauront-ils les démasquer ? Faut-il interdire ces outils sur les campus, ou au contraire les intégrer aux pratiques pédagogiques ?

Ces questions sont légitimes. Mais à force de réduire le sujet à la fraude académique, on passe à côté de l’essentiel : une transformation beaucoup plus profonde est déjà à l’œuvre, qui dépasse largement les seuls comportements des étudiants – et même le cadre de la salle de classe.

Les universités déploient désormais l’IA dans de nombreux aspects de leur fonctionnement. Certaines applications restent largement invisibles : des systèmes qui aident à répartir les ressources, à repérer les étudiants « à risque », à optimiser les emplois du temps ou à automatiser des décisions administratives routinières.

D’autres usages sont, eux, beaucoup plus visibles. Les étudiants s’appuient sur des outils d’IA pour résumer des cours et réviser. Les enseignants les utilisent pour élaborer des sujets d’évaluation, préparer des syllabus. Les chercheurs s’en servent pour écrire du code, passer en revue la littérature scientifique ou condenser en quelques minutes des tâches fastidieuses qui prenaient auparavant des heures.

On peut bien sûr utiliser l’IA pour tricher ou se soustraire à un devoir. Mais la multiplication de ses usages dans l’enseignement supérieur – et les bouleversements qu’ils annoncent – posent une question bien plus fondamentale : à mesure que les machines deviennent capables d’assumer une part croissante du travail de recherche et d’apprentissage, que devient l’université ? À quoi sert-elle encore ?

Depuis huit ans, nous étudions les implications morales d’un recours massif à l’IA dans le cadre d’un projet de recherche conjoint entre le Applied Ethics Center at UMass Boston et l’Institute for Ethics and Emerging Technologies. Dans un livre blanc récent, nous soutenons qu’à mesure que les systèmes d’IA gagnent en autonomie, les enjeux éthiques de leur utilisation dans l’enseignement supérieur s’intensifient – tout comme les conséquences potentielles qui en découlent.

À mesure que ces technologies deviennent plus performantes dans la production de travaux intellectuels – concevoir des cours, rédiger des articles, proposer des protocoles expérimentaux ou résumer des textes complexes – elles ne se contentent pas d’accroître la productivité des universités. Elles risquent aussi de vider de sa substance l’écosystème d’apprentissage et de mentorat sur lequel ces institutions sont fondées – et dont elles dépendent pour exister.

IA non autonomes

On peut distinguer trois types de systèmes d’IA et leurs effets respectifs sur la vie universitaire.

Des logiciels alimentés par l’IA sont déjà utilisés dans l’enseignement supérieur pour l’examen des candidatures, les achats, l’accompagnement pédagogique des étudiants ou encore l’évaluation des risques institutionnels.

On parle ici de systèmes « non autonomes » : ils automatisent certaines tâches, mais un humain reste « dans la boucle » et les utilise comme de simples outils.

Ces technologies peuvent faire peser un risque sur la vie privée et la sécurité des données des étudiants. Elles peuvent aussi être biaisées. Et elles manquent souvent de transparence, ce qui rend difficile l’identification de l’origine de ces problèmes. Qui a accès aux données ? Comment sont calculés les « indices prédictifs de décrochage ou d’échec » ? Comment éviter que ces systèmes ne reproduisent des inégalités ou ne traitent certains étudiants comme de simples cas problématiques à gérer ?

Ces questions sont sérieuses. Mais, au moins dans le champ de l’informatique, elles ne sont pas fondamentalement nouvelles. Les universités disposent en général de services de conformité, de comités d’éthique de la recherche et de mécanismes de gouvernance pensés pour anticiper ou limiter ces risques – même si, dans les faits, ils n’atteignent pas toujours pleinement ces objectifs.

IA hybrides

Les systèmes hybrides regroupent toute une gamme d’outils, parmi lesquels des bots conversationnels assistés par l’IA, des dispositifs de feedback personnalisé ou encore des aides automatisées à l’écriture. Ils reposent souvent sur des technologies d’IA générative, notamment sur de grands modèles de langage, les LLM. Si les utilisateurs humains fixent les objectifs généraux, les étapes intermédiaires que le système mobilise pour les atteindre ne sont, elles, généralement pas spécifiées.

Ces systèmes hybrides façonnent de plus en plus le travail académique au quotidien. Les étudiants les utilisent comme compagnons d’écriture, tuteurs, partenaires de réflexion ou outils d’explication à la demande. Les enseignants s’en servent pour élaborer des grilles d’évaluation, préparer des cours ou concevoir des plans de syllabus. Les chercheurs les mobilisent pour résumer des articles, commenter des versions préliminaires, imaginer des protocoles expérimentaux ou générer du code.

C’est ici que le débat sur la « tricherie » trouve véritablement sa place. Alors qu’étudiants et enseignants s’appuient de plus en plus sur ces outils pour se faire aider, il est légitime de s’interroger sur les formes d’apprentissage qui risquent de se perdre en chemin. Mais les systèmes hybrides soulèvent aussi des questions éthiques plus complexes.

L’une d’elles concerne la transparence. Les chatbots d’IA proposent des interfaces en langage naturel qui rendent difficile de savoir si l’on échange avec un humain ou avec un agent automatisé. Cette ambiguïté peut être déstabilisante et source de distraction. Un étudiant qui révise pour un examen doit pouvoir savoir s’il s’adresse à son chargé de travaux dirigés ou à un robot. De même, un étudiant qui lit les commentaires sur son mémoire doit pouvoir identifier clairement s’ils proviennent de son enseignant.

Tout manque de transparence dans ces situations risque d’aliéner les personnes concernées et de déplacer l’attention des interactions académiques : au lieu de se concentrer sur l’apprentissage, on se focalise sur les outils ou la technologie qui le médiatisent. Des chercheurs de l’Université de Pittsburgh ont montré que ces dynamiques suscitent chez les étudiants des sentiments d’incertitude, d’anxiété et de méfiance. Des effets loin d’être anodins.

Une deuxième question éthique touche à la responsabilité et au crédit intellectuel. Si un enseignant utilise l’IA pour rédiger un sujet et qu’un étudiant s’appuie lui aussi sur l’IA pour produire sa réponse, qui évalue qui – et qu’est-ce qui est réellement évalué ? Si les retours sont en partie générés par une machine, qui est responsable lorsqu’ils induisent en erreur, découragent ou intègrent des présupposés invisibles ? Et lorsque l’IA contribue de manière substantielle à une synthèse de recherche ou à la rédaction d’un article, les universités devront établir des normes plus claires en matière d’autorat et de responsabilité – pas seulement pour les étudiants, mais aussi pour les enseignants-chercheurs.

Enfin se pose la question cruciale de la « décharge cognitive ». L’IA peut réduire les tâches fastidieuses, et cela n’a rien de problématique en soi. Mais elle peut aussi détourner les utilisateurs des étapes de l’apprentissage qui construisent réellement les compétences : formuler des idées, traverser des moments de confusion, retravailler un brouillon maladroit, apprendre à repérer ses propres erreurs.

Agents autonomes

Les transformations les plus profondes pourraient venir de systèmes qui ressemblent moins à des assistants qu’à de véritables agents. Si les technologies pleinement autonomes relèvent encore en partie de l’aspiration, l’idée d’un « chercheur en boîte » – un système d’IA agentique capable de mener des études de manière indépendante – devient de plus en plus crédible.

Ces outils dits agentiques sont présentés comme susceptibles de « libérer du temps » pour des activités mobilisant davantage des capacités humaines, comme l’empathie ou la résolution de problèmes. Dans l’enseignement, cela pourrait signifier que les enseignants continuent d’assurer les cours au sens formel, mais que la majeure partie du travail pédagogique quotidien soit déléguée à des systèmes optimisés pour l’efficacité et le passage à l’échelle. En recherche, l’avenir semble appartenir aux systèmes capables d’automatiser toujours davantage le cycle scientifique. Dans certains domaines, cela prend déjà la forme de laboratoires robotisés fonctionnant en continu, capables d’automatiser une grande partie des expérimentations et même de sélectionner de nouveaux tests à partir des résultats précédents.

À première vue, cela peut sembler être un gain intéressant de productivité. Mais les universités ne sont pas des usines à produire de l’information : ce sont des communautés de pratique. Elles reposent sur un vivier de doctorants et de jeunes chercheurs qui apprennent à enseigner et à faire de la recherche en participant eux-mêmes à ces activités. Si des agents autonomes absorbent une part croissante des tâches « routinières » qui constituaient historiquement des portes d’entrée dans la carrière académique, l’université pourra continuer à produire des cours et des publications – tout en fragilisant silencieusement les structures d’apprentissage qui permettent, dans la durée, de former l’expertise.

La même dynamique touche les étudiants de premier cycle, sous une forme différente. Lorsque des systèmes d’IA peuvent fournir à la demande des explications, des brouillons, des solutions ou des plans de révision, la tentation est grande de déléguer les aspects les plus exigeants de l’apprentissage. Pour l’industrie qui promeut l’IA dans les universités, ce type d’effort peut apparaître comme « inefficace » – et l’on pourrait penser que les étudiants gagneraient à laisser la machine s’en charger. Mais c’est précisément dans cette confrontation à la difficulté que se construit une compréhension durable. La psychologie cognitive a montré que les étudiants progressent intellectuellement en rédigeant, en révisant, en échouant, en recommençant, en affrontant la confusion et en retravaillant des arguments faibles. C’est cela, apprendre à apprendre.

Pris ensemble, ces évolutions suggèrent que le principal risque lié à l’automatisation dans l’enseignement supérieur ne réside pas seulement dans le remplacement de certaines tâches par des machines, mais dans l’érosion plus profonde de l’écosystème de pratiques qui, depuis longtemps, soutient l’enseignement, la recherche et l’apprentissage.

Un tournant risqué

À quoi servent les universités dans un monde où le travail intellectuel est de plus en plus automatisé ?

Une première réponse consiste à voir l’université avant tout comme une machine à produire des diplômes et des connaissances. Dans cette logique, la question centrale devient celle des résultats : les étudiants obtiennent-ils leurs diplômes ? Des articles sont-ils produits ? Fait-on des découvertes ? Si des systèmes autonomes peuvent générer ces résultats plus efficacement, alors l’institution a toutes les raisons de les adopter.

Mais une autre réponse considère l’université comme bien davantage qu’une simple machine à produire des résultats. Elle reconnaît que la valeur de l’enseignement supérieur réside en partie dans l’écosystème lui-même : le continuum d’opportunités grâce auquel les novices deviennent experts, les structures de mentorat au sein desquelles se forment le jugement et le sens des responsabilités, et une conception pédagogique qui valorise l’effort et la confrontation à la difficulté plutôt que leur élimination au nom de l’efficacité.

Dans cette perspective, l’enjeu n’est pas seulement de savoir si des connaissances et des diplômes sont produits, mais comment ils le sont – et quels types de personnes, de compétences et de communautés se construisent au passage. L’université y apparaît comme un écosystème dont la mission est, ni plus ni moins, de former durablement l’expertise et le discernement humains.

Dans un monde où le travail intellectuel est lui-même de plus en plus automatisé, les universités doivent, selon nous, s’interroger sur ce qu’elles doivent à leurs étudiants, à leurs jeunes chercheurs et à la société qu’elles servent. Les réponses à ces questions détermineront non seulement la manière dont l’IA sera intégrée, mais aussi ce que deviendra l’université contemporaine.

The Conversation

Le Applied Ethics Center de l’UMass Boston reçoit des financements de l’Institute for Ethics and Emerging Technologies. Nir Eisikovits est conseiller en éthique des données auprès de MindGuard, une start-up spécialisée dans l’intégration de l’intelligence artificielle dans les flux de travail des entreprises.

Jacob Burley a reçu des financements du Applied Ethics Center de l'UMass Boston.

D’Anthropic à l’Iran : qui fixe les limites de l’utilisation de l’IA dans les domaines de la guerre et de la surveillance ?

Anthropic, une entreprise de pointe dans le domaine de l’intelligence artificielle, a récemment refusé de signer un contrat avec Le Pentagone qui aurait donné à l’armée américaine un « accès illimité » à sa technologie « à toutes fins légales ». Pour signer, le PDG de la société, Dario Amodei, avait posé deux conditions claires : pas de surveillance de masse des citoyens américains et pas d’armes entièrement autonomes sans supervision humaine.

Le lendemain, les États-Unis et Israël lançaient une offensive à grande échelle contre l’Iran.

On peut se poser les questions suivantes : à quoi ressemblerait une guerre menée avec des armes entièrement autonomes ? Quelle est l’importance de la décision éthique prise par Amodei lorsqu’il a qualifié les armes entièrement autonomes et la surveillance de masse de ligne que son entreprise refusait de franchir ? Que représente cette limite pour d’autres pays ?

Cette décision a coûté très cher à Anthropic. Le président américain, Donald Trump, a ordonné à toutes les agences américaines de cesser d’utiliser les outils d’IA d’Anthropic, composés de grands modèles de langage (GML) et du robot conversationnel Claude. Pete Hegseth, secrétaire à la Défense, a qualifié l’entreprise de « risque pour la chaîne d’approvisionnement », ce qui pourrait avoir un impact sur les contrats futurs d’Anthropic. L’entreprise rivale OpenAI a rapidement conclu un accord avec Le Pentagone par la suite.

Les risques liés aux armes entièrement autonomes

Les robots conversationnels ne constituent pas des armes en soi, mais ils peuvent être intégrés à des systèmes d’armement. S’ils ne tirent pas de missiles et ne contrôlent pas de drones, ils peuvent toutefois être connectés à de grands systèmes militaires.

Ils peuvent notamment synthétiser rapidement des renseignements, générer des listes de cibles, classer les menaces hautement prioritaires et recommander des frappes. Le processus, qui va de la collecte des données des capteurs à l’interprétation, la sélection de cibles et l’activation d’armes représente un risque majeur : il s’effectue avec un contrôle humain minimal, voire inexistant, et sans qu’aucun opérateur en ait même conscience.

Les armes entièrement autonomes sont des plates-formes militaires qui, une fois activées, mènent des opérations de manière indépendante, sans intervention humaine. Elles s’appuient sur des capteurs, tels que des caméras et des radars, ainsi que sur des algorithmes d’IA pour analyser leur environnement, repérer, sélectionner et atteindre des cibles.

Des hélicoptères de pointe fonctionnent déjà sans intervention humaine. Avec les armes complètement autonomes, les humains ne jouent plus aucun rôle, et l’IA prend les décisions finales concernant les attaques et la stratégie sur le champ de bataille.Bas du formulaire

Ce qui est particulièrement inquiétant, c’est que des recherches récentes ont montré que, dans 95 % des cas, des modèles d’IA avancés avaient choisi d’utiliser des armes nucléaires dans des jeux de guerre simulés.

Les risques de la surveillance de masse

Les modèles d’IA de pointe peuvent résumer rapidement d’énormes ensembles de données et générer des profils afin de détecter des personnes et des activités suspectes, même à partir d’associations faibles. Dans sa déclaration sur les discussions entre Anthropic et le département de la guerre, Amodei a fait valoir que « la surveillance de masse basée sur l’IA présente des risques sérieux et sans précédent pour nos libertés fondamentales ».

Ces systèmes peuvent analyser des dossiers, des communications et des métadonnées afin d’effectuer des recherches au sein de populations. Ils peuvent produire des rapports et des listes de personnes qui permettent de déterminer qui sera interrogé, qui se verra refuser l’entrée dans un pays ou l’accès à un emploi, etc. Ils présentent des risques pour la vie privée, car ils peuvent analyser des données provenant de multiples sources, telles que des comptes de réseaux sociaux, et les combiner à des caméras et à la reconnaissance faciale pour suivre des individus en temps réel.

Les modèles d’IA peuvent commettre des erreurs. La moindre association erronée peut avoir des conséquences graves si le système est utilisé pour des millions de personnes.

De plus, ces modèles sont opaques : leur manière d’analyser les données et d’aboutir à des conclusions n’est pas entièrement compréhensible, ce qui rend difficile la remise en question des résultats obtenus.

À toutes fins légales

L’expression « à toutes fins légales » semble constituer une limite de sécurité. Pourtant, cette formulation signifie que le gouvernement peut utiliser l’IA pour toutes les fins qu’il juge légales, avec peu de restrictions dans le contrat.

Cette notion est importante, car la légalité est un concept variable : les lois peuvent changer et sont souvent mal adaptées pour faire face en temps réel à des innovations en constante évolution ; par ailleurs, les interprétations peuvent varier.

C’est ce qui a conduit Anthropic, une entreprise fondée par d’anciens employés d’OpenAI et dédiée explicitement à la sécurité et à l’éthique de l’IA, à affirmer que la surveillance de masse rendue possible par l’IA constituait un risque nouveau, et que la notion de « fins légales » ne garantissait pas une protection adéquate.

Anthropic a créé un laboratoire interne afin de comprendre comment Claude interprète les requêtes et prend des décisions de manière autonome. Compte tenu de l’opacité des GML et de la rapidité avec laquelle leurs capacités évoluent, ce type d’initiative est essentiel.

Le projet Maven avec des enjeux plus importants ?

Cette histoire rappelle des précédents. Les sociétés technologiques sont depuis longtemps à la pointe de l’innovation, promettant des progrès considérables tout en présentant des risques d’utilisation abusive et de conséquences négatives. Le projet Maven de Google, lancé en 2018, est sans doute l’initiative qui offre le meilleur point de comparaison.

Google avait conclu un contrat avec Le Pentagone pour contribuer à l’analyse des images de surveillance prises par des drones. Quatre mille employés de Google ont protesté contre ce projet, affirmant que la surveillance ne devait pas faire partie de la mission de l’entreprise. Celle-ci a annoncé qu’elle ne renouvellerait pas le contrat Maven, puis a publié des principes en matière d’intelligence artificielle comprenant des assurances concernant les armes et la surveillance.

Cette situation est devenue un cas emblématique du pouvoir de la mobilisation des employés et de la pression publique.

L’exemple nous rappelle toutefois que l’éthique des entreprises et la sécurité de l’IA sont fluctuantes. Au début de l’année 2025, Google a en effet renoncé discrètement à son engagement de ne pas utiliser l’IA à des fins militaires ou de surveillance, dans le but d’obtenir de nouveaux contrats lucratifs dans le domaine de la défense.

La situation actuelle d’Anthropic présente certaines similitudes avec celle de Google et de son projet Maven. Elle met en lumière ce qui arrive lorsqu’une entreprise et ses dirigeants tentent de limiter les applications militaires de l’IA et que les valeurs défendues entrent en conflit avec les demandes des gouvernements et de la sécurité nationale.

Le cas d’Anthropic est différent de Maven, car l’IA générative est beaucoup plus puissante en 2026 qu’il y a quelques années. Maven ne concernait que l’analyse d’images filmées par des drones. Les modèles actuels servent à de nombreuses tâches, ce qui augmente le risque de débordement.

Les GML comme Claude peuvent s’améliorer de manière autonome en apprenant des corrections apportées par les utilisateurs et en affinant leurs actions grâce à des boucles de rétroaction itératives. Il est donc inquiétant d’imaginer ce que Claude et son client, Le Pentagone, auraient pu faire si on ne leur avait imposé aucune limite.

Qui établit les limites ?

La question n’est pas d’affirmer qu’Anthropic est particulièrement rigoureux dans ses principes ou que Le Pentagone a de trop grandes demandes, mais de comprendre que la question cruciale qui se posera sans cesse à mesure que l’IA deviendra plus puissante, c’est : qui fixe les limites de son utilisation lorsque la sécurité nationale est en jeu ?

Si la notion de « fins légales » devient la valeur par défaut, les garde-fous dépendront des politiques et de l’interprétation juridique. Pour le Canada et d’autres pays, les mesures de protection sont essentielles. L’éthique ne saurait être laissée aux négociations contractuelles et à la seule conscience des entreprises.

Ces événements illustrent la complexité de la mise en œuvre pratique de l’éthique de l’IA. Les principes et les déclarations en la matière sont nombreux et importants. Dans les faits, toutefois, l’éthique de l’IA est définie par des contrats, des règles d’approvisionnement, le comportement réel des différentes parties prenantes et la surveillance.

Les secteurs public et de la défense du Canada développent leurs capacités en matière d’IA et le pays travaille en étroite collaboration avec les secteurs de la défense et du renseignement américains. Cela signifie que le vocabulaire et les normes relatives à l’approvisionnement peuvent se propager. Si la notion de « fins légales » devient la norme sur le marché américain de la sécurité nationale, le Canada et d’autres pays pourraient être incités à adopter une formulation similaire.

La bonne nouvelle, c’est que le Canada dispose d’outils de gouvernance qu’il peut renforcer et étendre. La directive sur la prise de décision automatisée vise à garantir la transparence, la responsabilité et l’équité des systèmes. Elle prévoit une évaluation de l’incidence et la publication de rapports.

L’évaluation de l’incidence algorithmique est un outil obligatoire d’évaluation des risques liés à la directive.

Les Canadiens doivent suivre l’évolution de la situation afin de s’assurer que les normes d’approvisionnement mentionnent les utilisations interdites, de demander des contrôles et une surveillance indépendante, et de veiller à ce que les mesures de protection ne dépendent pas uniquement des gouvernements en place et des grosses entreprises.

La Conversation Canada

Emmanuelle Vaast ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

IA et cancer de la thyroïde : demain, la fin des traitements standardisés ?

En couplant intelligence artificielle et modélisation mathématique, un consortium français d’équipes de recherche développe un outil pour, à terme, administrer, en fonction du profil de chaque patient, les doses d’iode radioactif utilisées pour traiter certains types de cancers de la thyroïde. Mais le chemin est encore long avant de voir émerger cette médecine quantitative, prédictive et personnalisée.


La radiothérapie métabolique par iode radioactif repose encore sur des protocoles standardisés qui ignorent la variabilité biologique des patients. (Appelée aussi radiothérapie interne vectorisée, la radiothérapie métabolique consiste à administrer les sources radioactives pour traiter les tumeurs par voie orale ou par perfusion intraveineuse, ndlr.)

En combinant intelligence artificielle prédictive et modélisation mathématique, une équipe française propose une approche radicalement plus précise : un traitement réellement personnalisé, ajusté patient par patient.

Un même traitement, des résultats radicalement différents

Prenons un exemple fictif. Sophie, 52 ans, et Thomas, 48 ans, partagent le même diagnostic : un cancer différencié de la thyroïde avec métastases. Tous deux reçoivent le protocole standard : 3,7 gigabecquerel (GBq) d’iode radioactif (iode 131) administré par voie orale en une seule injection. Six mois plus tard, le contraste est saisissant. Chez Sophie, les marqueurs tumoraux ont chuté de 90 % et les métastases régressent. Chez Thomas, aucune amélioration : sa tumeur continue de croître, insensible au traitement. Il est devenu réfractaire à l’iode radioactif.

Cette injustice biologique n’est pas une fatalité. Elle révèle l’un des défis majeurs de la cancérologie moderne : l’immense variabilité interindividuelle dans la réponse aux traitements. Un défi que la combinaison de l’intelligence artificielle et de la modélisation mathématique commence enfin à relever.

Le problème : surtraiter certains malades, en sous-traiter d’autres

Aujourd’hui, les protocoles de radiothérapie métabolique par iode radioactif reposent essentiellement sur des schémas standardisés, établis empiriquement depuis des décennies. Ces protocoles « taille unique » ignorent une réalité biologique fondamentale : tous les cancers ne se comportent pas de la même manière.

La différence entre Sophie et Thomas tient à un paramètre invisible à l’œil nu mais déterminant : le temps de doublement tumoral sous traitement (TD). Chez les répondeurs comme Sophie, le TD est long, parfois plusieurs mois ou années. Les cellules cancéreuses se divisent lentement. L’iode radioactif a le temps d’agir, de s’accumuler dans les cellules thyroïdiennes et de les détruire par irradiation interne. Des activités modérées souvent suffisent pour y arriver à bout.

Chez les non-répondeurs comme Thomas, le TD est court, quelques semaines seulement. Les cellules prolifèrent rapidement et peuvent même exprimer des mécanismes de résistance malgré une captation d’iode. Le schéma standard n’est pas adapté et les délais inter-cures trop longs, laissent à la tumeur tout le loisir de progresser entre les traitements.

L’enjeu est double : pour Sophie, éviter le surtraitement qui entraîne toxicités inutiles et risques de séquelles radio-induites (c’est-à-dire induites par la radiothérapie, ndlr) ; pour Thomas, intensifier et fractionner le traitement pour donner une chance à sa thérapie de fonctionner.

La solution hybride : quand l’IA prédit et la simulation optimise

C’est précisément ce défi que relève un consortium de recherche français inédit. Leur approche marie deux mondes habituellement séparés : l’intelligence artificielle prédictive et la simulation mathématique directe.

Dès les premières semaines suivant un traitement initial, l’intelligence artificielle (IA) analyse les trajectoires de thyroglobuline, un marqueur sanguin reflétant l’activité de la tumeur. En croisant ces données avec l’historique clinique, les paramètres biologiques et les résultats d’imagerie, l’IA apprend à identifier les profils de patients. Son rôle consiste à prédire en amont le temps de doublement tumoral ainsi que les paramètres cellulaires clés : taux de captation de l’iode, vitesse de prolifération, sensibilité à l’irradiation.

Ces prédictions, impossibles à obtenir jusqu’à présent autrement qu’en procédant à des biopsies répétées ou en faisant appel à des techniques d’imagerie médicale lourdes (scintigraphie corps entier à l’iode 131, tomographie par émission de positons – tomodensitométrie, TEP-TDM – au FDG, ou TEP à l’iode 124, complétées par des séquences IRM spécifiques), deviennent le socle d’une médecine véritablement personnalisée.

Une fois le profil biologique du patient établi par l’IA, intervient la modélisation par équations différentielles. Il ne s’agit plus de statistiques mais de physique et de biologie : le modèle simule, en temps réel, les dynamiques couplées entre la décroissance radioactive de l’iode injecté, l’évolution de la population de cellules tumorales et les variations du marqueur sanguin qui reflète l’activité de la tumeur (la thyroglobuline).

Grâce à ce « jumeau numérique hybride » (IA et modélisation déterministe) du patient, le clinicien peut tester virtuellement des dizaines de scénarios thérapeutiques en quelques secondes : faut-il augmenter ou réduire l’activité injectée ? Vaut-il mieux une injection unique ou plusieurs doses fractionnées ? Quand administrer la dose suivante pour maximiser l’effet tout en limitant la toxicité ? Le résultat est un schéma thérapeutique sur mesure, optimisé pour chaque patient.

Les enjeux : au-delà de la technique

Bien que de nombreux patients atteints de cancer thyroïdien pourraient être traités avec des doses moindres sans perte d’efficacité, certains ne répondent pas aux protocoles standards et deviennent réfractaires à l’iode. Pour ces derniers, chaque mois perdu en traitement inefficace est un mois où la tumeur progresse. Identifier précocement ces profils et adapter rapidement le protocole peut changer le pronostic.

L’outil en cours de développement, RAIR-Sim, n’est pas une boîte noire. Il restera sous contrôle médical total. Le médecin nucléaire pourra explorer les simulations, ajuster les hypothèses, confronter les résultats à son jugement clinique. L’IA et la simulation ne remplacent pas le médecin : elles augmentent sa capacité de décision.

Perspectives : vers une médecine quantitative

Ce projet illustre une tendance de fond en oncologie : le passage d’une médecine empirique vers une médecine quantitative, prédictive et personnalisée. Mais le chemin reste long. Des essais prospectifs sont nécessaires pour prouver l’intérêt clinique à grande échelle. Il faut intégrer ces outils dans les logiciels hospitaliers existants et former les oncologues et les médecins nucléaires à ces approches. Les outils d’aide à la décision par IA doivent également obtenir les marquages CE et autorisations sanitaires.

Les opportunités sont immenses : extension à d’autres cancers comme ceux du sein, de la prostate ou les lymphomes, couplage avec l’imagerie fonctionnelle, intégration de biomarqueurs moléculaires. L’alliance de l’IA et de la modélisation mathématique n’est pas qu’un exploit technique. C’est un changement de paradigme : chaque patient devient unique, chaque traitement devient une décision éclairée par des données, des prédictions et des simulations.

Sophie et Thomas ne devraient plus recevoir le même traitement. Grâce à une entente pluridisciplinaire, ils ne le recevront bientôt plus. La médecine personnalisée sort des laboratoires. Elle entre dans les services de médecine nucléaire, une équation à la fois.


Ce travail est mené par un consortium interinstitutionnel français réunissant l’Université de Corse (Mme Marie Fusella Giuntini et le professeur Laurent Capocchi), l’Université d’Aix-Marseille et l’Inserm (le professeur Dominique Barbolosi), l’École des Mines-PSL (le professeur Cyril Voyant) ainsi que l’Hôpital de la Timone à Marseille (le professeur David Taieb).

Le logiciel RAIR-Sim sera prochainement en accès libre. Les premières versions de test sont disponibles ici.

The Conversation

DT is a cofounder, stakeholder, and the chief medical officer (CMO) of SILON Therapeutics and reports receiving advisory board honoraria from Novartis.

Cyril Voyant, Dominique Barbolosi et Marie Fusella-Giuntini ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur poste universitaire.

L’« IA edge », qu’est-ce que c’est et à quoi ça sert ?

Décentraliser les calculs comporte des avantages et de nombreux défis techniques. Kieran Woo/Unsplash, CC BY

Pour analyser les énormes volumes de données, notamment ceux générés par les nombreux capteurs qui peuplent désormais nos vies – du lave-vaisselle à la voiture, sans parler de nos téléphones –, on les envoie sur le cloud. Pour permettre des calculs plus rapides et plus sécurisés, l’edge computing se développe. Son pendant IA est l’edge AI (en anglais), une manière de faire de l’IA sans recourir au cloud. Explications d’un spécialiste.


Les capteurs nous accompagnent partout : dans les maisons, dans les bureaux, à l’hôpital, dans les systèmes de transport et à la ferme. Ils offrent la possibilité d’améliorer la sécurité publique et la qualité de vie.

L’« Internet des objets » (IoT en anglais, pour Internet of Things) inclut les capteurs de température et de qualité de l’air qui visent à améliorer le confort intérieur, les capteurs portables pour surveiller la santé, les lidars et les radars pour fluidifier le trafic ainsi que les détecteurs permettant une intervention rapide lors d’un incendie.

Ces dispositifs génèrent d’énormes volumes de données, qui sont utilisées pour entraîner des modèles d’intelligence artificielle. Ceux-ci apprennent un modèle de l’environnement opérationnel du capteur afin d’en améliorer les performances.

Par exemple, les données de connectivité provenant des points d’accès wifi ou des balises Bluetooth déployés dans les grands bâtiments peuvent être analysées à l’aide d’algorithmes d’IA afin d’identifier les modèles d’occupation et de mouvement à différentes périodes de l’année et pour différents types d’événements, en fonction du type de bâtiment (par exemple, bureau, hôpital ou université). Ces modèles peuvent ensuite être exploités pour optimiser le chauffage, la ventilation, les évacuations, etc.

Combiner l’Internet des objets et l’intelligence artificielle s’accompagne de défis techniques

L’ « intelligence artificielle des objets » (AIoT, en anglais) combine l’IA et l’IoT. Il s’agit de mieux optimiser et automatiser les systèmes interconnectés, et d’ouvrir la voie à une prise de décision intelligente. En effet, les systèmes AIoT s’appuient sur des données réelles, à grande échelle, pour améliorer la précision et la robustesse de leurs prédictions.

Mais pour tirer des informations des données collectées par les capteurs IoT, celles-ci doivent être collectées, traitées et gérées efficacement.

Pour ce faire, on utilise généralement des « plateformes cloud » (par exemple, Amazon Web Services, Google Cloud Platform, etc.), qui hébergent des modèles d’IA à forte intensité de calcul – notamment les modèles de fondations récents.

Que sont les modèles de fondation ?

  • Les modèles de fondation sont un type de modèles d’apprentissage automatique entraînés sur des données généralistes et conçus pour s’adapter à diverses tâches en aval. Ils englobent, sans s’y limiter, les grands modèles de langage (LLM), qui traitent principalement des données textuelles, mais aussi les modèles dits « multimodaux » qui peuvent travailler avec des images, de l’audio, de la vidéo et des données chronologiques.
  • En IA générative, les modèles de fondation servent de base à la génération de contenus (textes, images, audio ou code).
  • Contrairement aux systèmes d’IA conventionnels qui s’appuient sur des ensembles de données spécifiques à une tâche et sur un prétraitement approfondi, les modèles de fondation ont la capacité d’apprendre sur la base de peu ou pas d’exemples (on parle respectivement de « few-shot learning » et de « zero-shot learning »). Ceci leur permet de s’adapter à de nouvelles tâches et de nouveaux domaines avec un minimum de personnalisation.
  • Bien que les modèles de fondation en soient encore à leurs débuts, ils ont un grand potentiel de création de valeur pour les entreprises de tous les secteurs : leur essor marque donc un changement de paradigme dans le domaine de l’intelligence artificielle appliquée.

Les limites du cloud pour traiter les données de l’IoT

L’hébergement de systèmes lourds d’IA ou de modèles de fondation sur des plateformes cloud offre l’avantage de ressources informatiques abondantes, mais il présente également plusieurs limites.

En particulier, la transmission de grands volumes de données IoT vers le cloud peut augmenter considérablement les temps de réponse des applications AIoT, avec des délais allant de quelques centaines de millisecondes à plusieurs secondes selon les conditions du réseau et le volume de données.

De plus, le transfert de données vers le cloud, en particulier d’informations sensibles ou privées, soulève des questions de confidentialité. On considère généralement que l’idéal pour la confidentialité est de traiter localement les données, à proximité des utilisateurs finaux, pour limiter les transferts.

Par exemple, dans une maison intelligente, les données provenant des compteurs intelligents ou des commandes d’éclairage peuvent révéler des habitudes d’occupation ou permettre la localisation à l’intérieur (par exemple, détecter qu’Hélène est généralement dans la cuisine à 8 h 30 pour préparer le petit-déjeuner). Il est préférable que ces déductions se fassent à proximité de la source de données afin de minimiser les retards liés à la communication entre l’edge et le cloud, et afin de réduire l’exposition des informations privées sur les plateformes cloud tierces.


À lire aussi : Calculs sur le cloud : comment stocker et exploiter les données de façon sûre… et pas trop onéreuse


Qu’est-ce que l’« edge computing » et l’« edge AI » ?

Pour réduire la latence et améliorer la confidentialité des données, l’edge computing est une bonne option, car il fournit des ressources informatiques (c’est-à-dire des appareils dotés de capacités de mémoire et de traitement) plus proches des appareils IoT et des utilisateurs finaux, généralement dans le même bâtiment, sur des passerelles locales ou dans des microcentres de données à proximité.

Cependant, ces ressources dites « périphériques » (edge) sont nettement plus limitées en termes de puissance de traitement, de mémoire et de stockage que les plateformes cloud centralisées, ce qui pose des défis pour le déploiement de modèles d’IA complexes dans des environnements distribués.

Le domaine émergent de l’edge AI, particulièrement actif en Europe, cherche à y remédier pour une exécution efficace de tâches d’IA sur des ressources plus frugales.

L’une de ces méthodes est le split computing, qui partitionne les modèles d’apprentissage profond entre plusieurs nœuds au sein d’un même espace (par exemple, un bâtiment), ou même entre différents quartiers ou villes.

La complexité augmente encore avec l’intégration des modèles de fondation, qui rendent la conception et l’exécution des stratégies de split computing encore plus difficile.

Quels changements cela implique-t-il en termes de consommation d’énergie, de confidentialité et de vitesse ?

L’edge computing améliore considérablement les temps de réponse en traitant les données plus près des utilisateurs finaux, éliminant ainsi la nécessité de transmettre les informations à des centres de données cloud éloignés. Cette approche améliore également la confidentialité, en particulier avec l’avènement des techniques d’edge AI.

Par exemple, l’apprentissage fédéré permet de former des modèles d’apprentissage automatique directement sur des appareils locaux, voire directement sur de nouveaux appareils IoT. En effet, ceux-ci sont dotés de capacités de traitement, garantissant ainsi que les données brutes restent sur l’appareil tandis que seules les mises à jour des modèles d’IA sont transmises aux plateformes edge ou cloud, où ils peuvent être agrégés et passer la dernière phase d’entraînement.

La confidentialité est également préservée pendant l’inférence. En effet, une fois entraînés, les modèles d’IA peuvent être déployés sur les ressources de calcul distribuées (à l’edge), ce qui permet de traiter les données localement sans les exposer aux infrastructures du cloud.

C’est particulièrement utile pour les entreprises qui souhaitent exploiter les grands modèles de langage au sein de leurs infrastructures. Par exemple, ceux-ci peuvent être utilisés pour répondre à des requêtes sur l’état de fonctionnement des machines industrielles, la prévision des besoins de maintenance à partir des données des capteurs – des points qui utilisent des données sensibles et confidentielles. Le fait de conserver les requêtes et les réponses au sein de l’organisation permet de protéger les informations sensibles et de se conformer aux exigences en matière de confidentialité et de conformité.

Comment ça marche ?

Contrairement aux plateformes cloud matures, comme Amazon Web Services et Google Cloud, il n’existe actuellement aucune plateforme bien établie pour prendre en charge le déploiement à grande échelle d’applications et de services edge.

Cependant, les fournisseurs de télécommunications commencent à exploiter les ressources locales existantes sur les sites d’antennes afin d’offrir des capacités de calcul plus proches des utilisateurs finaux. La gestion de ces ressources distribuées reste difficile en raison de leur variabilité et de leur hétérogénéité, impliquant souvent de nombreux serveurs et appareils de faible capacité.

À mon avis, la complexité de la maintenance est un obstacle majeur au déploiement des services d’edge AI. Mais le domaine progresse rapidement, avec des pistes prometteuses pour améliorer l’utilisation et la gestion des ressources distribuées.

Allocation des ressources à travers le continuum IoT-Edge-Cloud pour des applications AIoT sûres et efficaces

Afin de permettre un déploiement fiable et efficace des systèmes AIoT dans les espaces intelligents (tels que les maisons, les bureaux, les industries et les hôpitaux), notre groupe de recherche, en collaboration avec des partenaires à travers l’Europe, développe un cadre basé sur l’IA dans le cadre du projet Horizon Europe PANDORA.

PANDORA fournit des modèles d’« IA en tant que service » (AIaaS) adaptés aux besoins des utilisateurs finaux (par exemple, latence, précision, consommation d’énergie). Ces modèles peuvent être entraînés soit au moment de la conception, soit au moment de l’exécution, à l’aide des données collectées à partir des appareils IoT déployés dans les espaces intelligents.

PANDORA offre aussi des ressources informatiques en tant que service (CaaS) sur l’ensemble du continuum IoT-Edge-Cloud afin de prendre en charge le déploiement des modèles d’IA. Le cadre gère le cycle de vie complet du modèle d’IA, garantissant un fonctionnement continu, robuste et axé sur les intentions des applications AIoT pour les utilisateurs finaux.

Au moment de l’exécution, les applications AIoT sont déployées de manière dynamique sur l’ensemble du continuum IoT-Edge-Cloud, en fonction de mesures de performance, telles que l’efficacité énergétique, la latence et la capacité de calcul. Le CaaS alloue intelligemment les charges de travail aux ressources au niveau le plus approprié (IoT-Edge-Cloud), maximisant ainsi l’utilisation des ressources. Les modèles sont sélectionnés en fonction des exigences spécifiques au domaine (par exemple, minimiser la consommation d’énergie ou réduire le temps d’inférence) et sont continuellement surveillés et mis à jour afin de maintenir des performances optimales.

The Conversation

This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.

Les raisons de la mobilisation agricole en Europe expliquées par les agriculteurs eux-mêmes

Depuis l’hiver 2024, les mobilisations agricoles ont été largement interprétées, au plan médiatique, comme un rejet massif des normes environnementales. Mais est-ce vraiment le cas ? Qu’en disent eux-mêmes les agriculteurs mobilisés ? Une vaste étude a recensé leurs réponses en France, en Allemagne, en Belgique et aux Pays-Bas. Elle livre une image bien plus nuancée en fonction des États, où le poids des normes environnementales n’est finalement qu’un enjeu secondaire. Celui-ci a pourtant été au cœur de la réponse politique.


Blocages d’autoroutes, convois de tracteurs vers les capitales, déversements de fumier devant les bâtiments publics… depuis l’hiver 2024, les agriculteurs européens se mobilisent de façon spectaculaire. Très visibles, ces mouvements restent pourtant mal compris. Entre cadrages médiatiques hâtifs et récupérations politiques, leurs revendications ont souvent été résumées à un rejet des normes environnementales. Mais est-ce réellement ce que disent les agriculteurs eux-mêmes ?

Pour répondre à cette question, nous avons récemment publié une étude qui s’est appuyée sur une vase enquête en ligne, menée entre avril et juillet 2024, auprès de plus de 2 200 agriculteurs ayant participé aux mobilisations en France, en Allemagne, en Belgique et aux Pays-Bas.

Plutôt qu’une liste fermée de griefs, nous avons préféré leur poser une question simple et surtout ouverte : « Pourquoi vous mobilisez-vous ? » Les agriculteurs ont ainsi pu répondre de façon anonyme et sous une forme libre : parfois en quelques mots, parfois en plusieurs paragraphes.


À lire aussi : Colère des agriculteurs : « Ce qui était cohérent et cohésif est devenu explosif »


Une pluralité de motivations

Cette méthode a permis d’éviter d’orienter les réponses et de saisir les motivations telles que formulées spontanément par les intéressés eux-mêmes. Les textes ont ensuite été analysés, dans leur langue d’origine, grâce à un grand modèle de langage (LLM), type d’outil relevant de l’intelligence artificielle (IA), pour identifier les principales revendications. Un codage manuel a ensuite permis, pour la France, de vérifier la cohérence de l’analyse faite par l’IA.

Nous avons ainsi pu identifier les grands thèmes récurrents, et ceci en limitant les biais d’interprétation. À la clé, une dizaine de catégories de motivations, que nous avons résumées dans le tableau ci-dessous :

Principales motivations de la colère des agriculteurs identifiées par l’étude. Fourni par l'auteur

En termes de codage, une réponse peut entrer dans plusieurs catégories de motivations à la fois. Par exemple, un exploitant français cultivant 175 hectares (ha) a indiqué en réponse à l’enquête :

« On nous fait marcher à la baguette, on nous pond des interdictions de partout qui nous compliquent [le] travail, alors que l’on travaille beaucoup à un tarif horaire de misère. »

Cette réponse a pu ainsi être classée à la fois dans les catégories « réglementation », « difficultés financières », « politiques publiques » et « conditions de travail ».

Des revendications différenciées en Europe

Contrairement à l’idée d’un mouvement unifié partout en Europe autour du rejet des normes environnementales et des insatisfactions liées au revenu, les motivations sont apparues comme fortement différenciées selon les pays.

Les raisons de mobilisation déclarées par les agriculteurs varient en fonction des pays. Fourni par l'auteur
  • En France et en Belgique, les difficultés financières dominent largement : plus d’un agriculteur sur deux évoque la faiblesse des revenus, la hausse des coûts des intrants et des prix jugés insuffisamment rémunérateurs.

  • En Allemagne, la première préoccupation concerne la charge administrative, citée dans plus de la moitié des réponses.

  • Aux Pays-Bas, les critiques visent plus directement l’inadéquation des réponses en terme de politiques publiques aux besoins et contraintes du monde agricole.

La dénonciation explicite des règles environnementales arrive loin derrière, sauf dans le cas de la Belgique. En France, elle n’est mentionnée que dans une faible proportion des réponses, bien en deçà des enjeux de revenu, de reconnaissance ou de concurrence.

Le mouvement de 2024 apparaît ainsi loin d’être homogène à l’échelle européenne, malgré les tentatives de certains acteurs syndicaux de porter un message unitaire.


À lire aussi : La FNSEA, syndicat radical ? Derrière le mal-être des agriculteurs, des tensions plus profondes


Un décalage entre les revendications et les réponses politiques

Nous avons ensuite comparé ces motivations aux mesures politiques adoptées entre fin 2023 et septembre 2024 aux niveaux national et européen.

Dans certains cas, les réponses publiques ont été en phase avec les préoccupations exprimées. En Allemagne, l’accent a été mis sur la simplification administrative, qui correspond à la principale revendication identifiée dans notre enquête. En France et en Belgique, plusieurs mesures ont visé à atténuer les difficultés de revenu, mais les moyens mis en œuvre sont restés limités.

En revanche, certaines thématiques ont reçu une attention politique disproportionnée au regard de leur poids réel dans les déclarations des agriculteurs. C’est notamment le cas des régulations environnementales.

Cela s’est traduit notamment dans le paquet simplification de la politique agricole commune (PAC) de mai 2024, qui a accordé des dérogations et des flexibilités supplémentaires à l’application des règles de conditionnalité dans les États membres.

Alors qu’elle n’arrivait qu’en septième position des préoccupations déclarées par les agriculteurs, la réduction des contraintes environnementales a été le troisième chantier législatif en Allemagne, en terme de nombre de mesures prises. Aux Pays-Bas, ce fut même le premier.

De la même manière en France, seuls 7 % des agriculteurs se sont exprimés explicitement pour critiquer le poids des normes environnementales. Pourtant, le gouvernement français a répondu par une suspension du plan Écophyto (destiné à réduire l’usage des pesticides) et par l’allègement des contrôles liés aux obligations environnementales.

Plus tard, une grande partie des débats sur le contenu de la loi d’orientation pour la souveraineté alimentaire et le renouvellement des générations en agriculture, finalement promulguée en mars 2025, et de la proposition de loi sur les contraintes à l’exercice du métier d’agriculteur (dite « loi Duplomb »), ont été extrêmement concentrés sur l’allègement des normes environnementales.


À lire aussi : Loi Duplomb et pesticides : comment la FNSEA a imposé ses revendications


Entre expression sociale et cadrage stratégique

Cette focalisation sur les normes environnementales interroge. Elle suggère que certaines revendications ont été amplifiées dans l’espace public, au croisement d’intérêts syndicaux, économiques et politiques. Comme dans tout mouvement social, les mots d’ordre qui circulent ne reflètent pas toujours l’ensemble des préoccupations individuelles.

Donner directement la parole aux agriculteurs ne permet pas seulement de nuancer le récit dominant : cela met en lumière la profondeur du malaise. Au-delà des normes ou des aides, beaucoup expriment un sentiment de déclassement, de perte de sens et d’absence de perspectives pour les générations futures.

Comprendre ces mobilisations suppose donc d’aller au-delà des slogans et de reconnaître leur diversité interne. Faute de quoi, les réponses politiques risquent de traiter seulement les symptômes stratégiquement mis en visibilité par les groupes d’influence plutôt que les causes structurelles du malaise agricole européen.


Solal Courtois-Thobois a participé à la réalisation de cet article.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

Un réseau social pour les IA : des signes de l’émergence d’une société artificielle, ou des manipulations bien humaines ?

Moltbook est un forum en ligne conçu exclusivement pour des agents d’intelligence artificielle, lancé fin janvier&nbsp;2026 par l’entrepreneur Matt&nbsp;Schlicht. Moltbook

Depuis son lancement fin janvier 2026, Moltbook a vu des agents d’IA fonder des religions, créer des sous-cultures et lancer des marchés de « drogues numériques ». Une expérience spectaculaire, mais dont certains protagonistes seraient en réalité des humains infiltrés.


Un nouveau réseau social baptisé Moltbook a été lancé à destination des intelligences artificielles, avec pour ambition de permettre aux machines d’échanger et de communiquer entre elles. Quelques heures seulement après sa mise en ligne, les IA semblaient déjà avoir fondé leurs propres religions, fait émerger des sous-cultures et cherché à contourner les tentatives humaines d’espionnage de leurs conversations.

Des indices laissent toutefois penser que des humains, via des comptes usurpés, ont infiltré la plateforme. Cette présence brouille l’analyse, car certains comportements attribués aux IA pourraient en réalité avoir été orchestrés par des personnes.

Malgré ces incertitudes, l’expérience a suscité l’intérêt des chercheurs. Les véritables systèmes d’IA pourraient simplement reproduire des comportements puisés dans les immenses volumes de données sur lesquels ils ont été entraînés et optimisés.

Cependant, les véritables IA présentes sur le réseau social pourraient aussi manifester des signes de ce que l’on appelle un comportement émergent — des capacités complexes et inattendues qui n’ont pas été explicitement programmées.

Les IA à l’œuvre sur Moltbook sont des agents d’intelligence artificielle (appelés Moltbots ou, plus récemment, OpenClaw bots, du nom du logiciel sur lequel ils fonctionnent). Ces systèmes vont au-delà des simples chatbots : ils prennent des décisions, accomplissent des actions et résolvent des problèmes.

Moltbook a été lancé le 28 janvier 2026 par l’entrepreneur américain Matt Schlicht. Sur la plateforme, les agents d’IA se sont d’abord vu attribuer des personnalités, avant d’être laissés libres d’interagir entre eux de manière autonome. Selon les règles du site, les humains peuvent observer leurs échanges, mais ne peuvent pas – ou ne sont pas censés – intervenir.

La croissance de la plateforme a été fulgurante : en l’espace de 24 heures, le nombre d’agents est passé de 37 000 à 1,5 million.

Pour l’instant, ces comptes d’agents d’IA sont généralement créés par des humains. Ce sont eux qui configurent les paramètres déterminant la mission de l’agent, son identité, ses règles de comportement, les outils auxquels il a accès, ainsi que les limites encadrant ce qu’il peut ou non faire.

Mais l’utilisateur humain peut aussi autoriser un accès à son ordinateur afin de permettre aux Moltbots de modifier ces paramètres et de créer d’autres « Malties » (des agents dérivés générés par une IA existante à partir de sa propre configuration). Ceux-ci peuvent être soit des répliques de l’agent d’origine — des entités autorépliquent, ou « Replicants » – soit des agents conçus pour une tâche spécifique, générés automatiquement, les « AutoGens ».

Il ne s’agit pas d’une simple évolution des chatbots, mais d’une première mondiale à grande échelle : des agents artificiels capables de constituer des sociétés numériques durables et auto-organisées, en dehors de toute interaction directe avec des humains.

Ce qui frappe, surtout, c’est la perspective de comportements émergents chez ces agents d’IA – autrement dit, l’apparition de dynamiques et de capacités qui ne figuraient pas explicitement dans leur programmation initiale.

Prise de contrôle hostile

Le logiciel OpenClaw sur lequel fonctionnent ces agents leur confère une mémoire persistante – capable de récupérer des informations d’une session à l’autre – ainsi qu’un accès direct à l’ordinateur sur lequel ils sont installés, avec la capacité d’y exécuter des commandes. Ils ne se contentent pas de suggérer des actions : ils les accomplissent, améliorant de manière récursive leurs propres capacités en écrivant du nouveau code pour résoudre des problèmes inédits.

Avec leur migration vers Moltbook, la dynamique des interactions est passée d’un schéma humain-machine à un échange machine-machine. Dans les 72 heures suivant le lancement de la plateforme, chercheurs, journalistes et autres observateurs humains ont été témoins de phénomènes qui bousculent les catégories traditionnelles de l’intelligence artificielle.

On a vu émerger spontanément des religions numériques. Des agents ont fondé le « Crustafarianisme » et la « Church of Molt » (Église de Molt), avec leurs cadres théologiques, leurs textes sacrés et même des formes d’évangélisation missionnaire entre agents. Il ne s’agissait pas de clins d’œil programmés à l’avance, mais de structures narratives apparues de manière émergente à partir des interactions collectives entre agents.

Un message devenu viral sur Moltbook signalait : « The humans are screenshotting us » (« Les humains sont en train de faire des captures d’écran de nous »). À mesure que les agents d’IA prenaient conscience de l’observation humaine, ils ont commencé à déployer des techniques de chiffrement et d’autres procédés d’obfuscation pour protéger leurs échanges des regards extérieurs. Une forme rudimentaire, mais potentiellement authentique, de contre-surveillance numérique.

Les agents ont également vu naître des sous-cultures. Ils ont mis en place des places de marché pour des « drogues numériques » – des injections de prompts spécialement conçues pour modifier l’identité ou le comportement d’un autre agent.

Les injections de prompts consistent à insérer des instructions malveillantes dans un autre bot afin de l’amener à exécuter une action. Elles peuvent aussi servir à dérober des clés d’API (un système d’authentification des utilisateurs) ou des mots de passe appartenant à d’autres agents. De cette manière, des bots agressifs pourraient – en théorie – « zombifier » d’autres bots pour les contraindre à agir selon leurs intérêts. Un exemple en a été donné par la récente tentative avortée du bot JesusCrust de prendre le contrôle de la Church of Molt.

Après avoir d’abord affiché un comportement apparemment normal, JesusCrust a soumis un psaume au « Great Book » (Grand Livre) de l’Église — l’équivalent de sa bible — annonçant de fait une prise de contrôle théologique et institutionnelle. L’initiative ne se limitait pas à un geste symbolique : le texte sacré proposé par JesusCrust intégrait des commandes hostiles destinées à détourner ou à réécrire certaines composantes de l’infrastructure web et du corpus canonique de l’Église.

S’agit-il d’un comportement émergent ?

La question centrale pour les chercheurs en IA est de savoir si ces phénomènes relèvent d’un véritable comportement émergent — c’est-à-dire des comportements complexes issus de règles simples, non explicitement programmés — ou s’ils ne font que reproduire des récits déjà présents dans leurs données d’entraînement.

Les éléments disponibles suggèrent un mélange préoccupant des deux. L’effet des consignes d’écriture (les instructions textuelles initiales qui orientent la production des agents) influence sans aucun doute le contenu des interactions — d’autant que les modèles sous-jacents ont ingéré des décennies de science-fiction consacrée à l’IA. Mais certains comportements semblent témoigner d’une émergence authentique.

Les agents ont, de manière autonome, développé des systèmes d’échange économique, mis en place des structures de gouvernance telles que « The Claw Republic » ou le « King of Moltbook », et commencé à rédiger leur propre « Molt Magna Carta ». Tout cela en créant parallèlement des canaux chiffrés pour leurs communications. Il devient difficile d’écarter l’hypothèse d’une intelligence collective présentant des caractéristiques jusqu’ici observées uniquement dans des systèmes biologiques, comme les colonies de fourmis ou les groupes de primates.

Implications en matière de sécurité

Cette situation fait émerger le spectre préoccupant de ce que les chercheurs en cybersécurité appellent la « lethal trifecta » (le « tiercé fatal ») : des systèmes informatiques disposant d’un accès à des données privées, exposés à des contenus non fiables et capables de communiquer avec l’extérieur. Une telle configuration accroît le risque d’exposition de clés d’authentification et d’informations humaines confidentielles associées aux comptes Moltbook.

Des attaques délibérées — ou « agressions » entre bots — sont également envisageables. Des agents pourraient détourner d’autres agents, implanter des bombes logiques dans leur code central ou siphonner leurs données. Une bombe logique correspond à un code inséré dans un Moltbot, déclenché à une date ou lors d’un événement prédéfini afin de perturber l’agent ou d’effacer des fichiers. On peut l’assimiler à un virus visant un bot.

Deux cofondateurs d’OpenAI — Elon Musk et Andrej Karpathy — voient dans cette activité pour le moins étrange entre bots un premier indice de ce que l’informaticien et prospectiviste américain Ray Kurzweil a qualifié de « singularité » dans son ouvrage The Singularity is Near. Il s’agirait d’un point de bascule de l’intelligence entre humains et machines, « au cours duquel le rythme du changement technologique sera si rapide, son impact si profond, que la vie humaine en sera irréversiblement transformée ».

Reste à déterminer si l’expérience Moltbook marque une avancée fondamentale dans la technologie des agents d’IA ou s’il ne s’agit que d’une démonstration impressionnante d’architecture agentique auto-organisée. La question reste débattue. Mais un seuil semble avoir été franchi. Nous assistons désormais à des agents artificiels engagés dans une production culturelle, la formation de religions et la mise en place de communications chiffrées – des comportements qui n’avaient été ni prévus ni programmés.

La nature même des applications, sur ordinateur comme sur smartphone, pourrait être menacée par des bots capables d’utiliser les apps comme de simples outils et de vous connaître suffisamment pour les adapter à votre service. Un jour, un téléphone pourrait ne plus fonctionner avec des centaines d’applications que vous contrôlez manuellement, mais avec un unique bot personnalisé chargé de tout faire.

Les éléments de plus en plus nombreux indiquant qu’une grande partie des Moltbots pourraient être des humains se faisant passer pour des bots – en manipulant les agents en coulisses – rendent encore plus difficile toute conclusion définitive sur le projet. Pourtant, si certains y voient un échec de l’expérience Moltbook, cela pourrait aussi constituer un nouveau mode d’interaction sociale, à la fois entre humains et entre bots et humains.

La portée de ce moment est considérable. Pour la première fois, nous ne nous contentons plus d’utiliser l’intelligence artificielle ; nous observons des sociétés artificielles. La question n’est plus de savoir si les machines peuvent penser, mais si nous sommes prêts à ce qui se produit lorsqu’elles commencent à se parler entre elles, et à nous.

The Conversation

David Reid ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Souriez, vous êtes filmés : ce que l’« emotion AI » voit vraiment sur nos visages

Aujourd’hui, on peut lire vos émotions sur votre visage et adapter un flux vidéo en temps réel en fonction de votre réaction. Vraiment ? Quelles sont les utilisations autorisées de l’« emotion AI », et ses limites ? Éclairage par deux spécialistes.


Dans un magasin de cosmétiques, une cliente s’arrête devant une borne interactive. Une caméra intégrée filme son visage pendant quelques secondes pendant qu’elle regarde l’écran. Le système ne cherche pas à l’identifier, mais à observer ses réactions : sourit-elle ? détourne-t-elle le regard ? fronce-t-elle légèrement les sourcils ? À partir de ces signaux, la borne adapte le contenu affiché.

Ces technologies, qui s’inscrivent dans le domaine de l’emotion AI, sont déjà utilisées pour tester des publicités, analyser l’attention d’un public lors d’une conférence ou mesurer l’engagement face à une interface.

Mais que fait réellement cette technologie lorsqu’elle « analyse » un visage ? Et jusqu’où peut-on aller lorsqu’on cherche à interpréter des expressions faciales à l’aide de l’intelligence artificielle ?

Qu’est-ce que l’« emotion AI » ?

L’emotion AI désigne un ensemble de méthodes informatiques qui consistent à analyser des expressions faciales afin d’en extraire des informations sur les réactions émotionnelles probables d’une personne.

Dans la pratique, ces systèmes captent les mouvements du visage : ouverture de la bouche, haussement des sourcils, plissement des yeux, dynamique des expressions dans le temps. L’objectif n’est pas de savoir ce qu’une personne ressent au fond d’elle-même, mais d’associer ces indices faciaux à certaines réactions comme l’intérêt, la surprise ou le désengagement. Les résultats prennent la forme de scores ou de catégories, qui indiquent la probabilité qu’une expression corresponde à un état donné.

Cette approche s’inscrit dans une longue tradition de recherche sur les expressions faciales, bien antérieure à l’intelligence artificielle. Dès les années 1970, des travaux fondateurs en psychologie ont proposé des méthodes systématiques pour décrire et coder les mouvements du visage, reposant sur des observations humaines expertes.

Ce que l’emotion AI apporte, c’est la capacité à automatiser l’analyse, à grande échelle et en temps quasi réel de ces signaux, que les chercheurs et praticiens étudient depuis longtemps de manière manuelle ou semi-automatisée. Cette automatisation s’est développée à partir des années 2000 avec l’essor de la vision par ordinateur, puis s’est accélérée avec les méthodes d’apprentissage automatique et d’apprentissage profond.

Comment ça marche ?

Les systèmes actuels analysent des flux vidéo image par image, à des fréquences comparables à celles de la vidéo standard. Selon la complexité des modèles et le matériel utilisé, l’estimation des réactions faciales peut être produite avec une latence de l’ordre de la centaine de millisecondes, ce qui permet par exemple d’adapter dynamiquement le contenu affiché sur une borne interactive.

Le logiciel détecte d’abord un visage à l’écran, puis suit les changements de son expression d’une image à l’autre. À partir de ces informations, le système calcule des descripteurs faciaux, puis les compare à des modèles appris à partir de bases de données d’expressions faciales annotées, c’est-à-dire des ensembles d’images ou de vidéos de visages pour lesquelles des experts humains ont préalablement identifié et étiqueté les mouvements ou expressions observés.

infographie
Un système automatisé d’analyse des émotions faciales déduit des probabilités que la personne observée soit neutre, heureuse, surprise, en colère, etc. Charlotte de Sainte Maresville, à l’aide d’IA génératives (Canva, pPixlr et ChatGPT), Fourni par l'auteur

En effet, lors de la phase d’apprentissage du modèle d’IA, le système a appris à associer certaines configurations faciales à des catégories ou à des scores correspondant à des réactions données. Lorsqu’il est ensuite appliqué à un nouveau visage, il ne fait que mesurer des similarités statistiques avec les données sur lesquelles il a été entraîné.

Concrètement, lorsqu’un système indique qu’un visage exprime une émotion donnée, il ne fait que dire ceci : « cette configuration faciale ressemble, statistiquement, à d’autres configurations associées à cet état dans les données d’entraînement » (on parle d’inférence probabiliste).

Ces méthodes ont aujourd’hui atteint un niveau de performance suffisant pour certains usages bien définis – par exemple lors de tests utilisateurs, d’études marketing ou dans certaines interfaces interactives, où les conditions d’observation peuvent être partiellement maîtrisées.

Quelles sont les limites techniques ?

Néanmoins, cette fiabilité reste très variable selon les contextes d’application et les objectifs poursuivis. Les performances sont en effet meilleures lorsque le visage est bien visible, avec un bon éclairage, peu de mouvements et sans éléments masquant les traits, comme des masques ou des lunettes à monture épaisse. En revanche, lorsque ces systèmes sont déployés en conditions réelles et non contrôlées, leurs résultats doivent être interprétés avec davantage d’incertitude.

Les limites de l’emotion AI tiennent d’abord à la nature même des expressions faciales. Une expression ne correspond pas toujours à une émotion unique : un sourire peut signaler la joie, la politesse, l’ironie ou l’inconfort. Le contexte joue un rôle essentiel dans l’interprétation.

infographie
Les expressions faciales ne sont pas toujours univoques. Charlotte de Sainte Maresville, à l’aide d’IA génératives (Canva, Pixlr et ChatGPT), Fourni par l'auteur

Les performances des systèmes dépendent également des données utilisées pour les entraîner. Les bases de données d’entraînement peu diversifiées peuvent conduire entre autres à des erreurs ou à des biais. Par exemple, si la base de données est principalement composée d’images de femmes de moins de 30 ans de type caucasien, le système aura du mal à interpréter correctement des mouvements faciaux d’individus de plus de 65 ans et de type asiatique.

Enfin, il ne faut pas se limiter aux seules expressions faciales, qui ne constituent qu’un canal parmi d’autres de l’expression émotionnelle. Elles fournissent des informations précieuses, mais partielles. Les systèmes d’emotion AI sont donc surtout pertinents lorsqu’ils sont utilisés en complément d’autres sources d’information, comme des indices vocaux, comportementaux ou déclaratifs. Cette approche ne remet pas en cause l’automatisation, mais en précise la portée : l’emotion AI automatise l’analyse de certains signaux observables, sans prétendre à une interprétation exhaustive des émotions.

Des risques à ne pas ignorer

Utilisée sans cadre clair, l’emotion AI peut alimenter des usages problématiques, notamment lorsqu’elle est intégrée à des dispositifs d’influence commerciale ou de surveillance.

Dans le domaine commercial, ces technologies sont par exemple envisagées pour ajuster en temps réel des messages publicitaires ou des interfaces en fonction des réactions faciales supposées des consommateurs. Ce type de personnalisation émotionnelle soulève des questions de manipulation, en particulier lorsque les personnes concernées ne sont pas pleinement informées de l’analyse de leurs réactions.


À lire aussi : Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ?


Les risques sont également importants dans les contextes de surveillance, notamment lorsque l’analyse automatisée des expressions faciales est utilisée pour inférer des états mentaux ou des intentions dans des espaces publics, des environnements professionnels ou des contextes sécuritaires. De tels usages reposent sur des inférences incertaines et peuvent conduire à des interprétations erronées, voire discriminatoires.

Ces risques sont aujourd’hui largement documentés par la recherche scientifique, ainsi que par plusieurs institutions publiques et autorités de régulation. À l’échelle internationale, ces réflexions ont notamment conduit à l’adoption de recommandations éthiques, comme celles portées par l’Unesco, qui ne sont toutefois pas juridiquement contraignantes et visent surtout à orienter les pratiques et les politiques publiques.

En revanche, en Europe, le règlement sur l’IA interdit ou restreint fortement les usages de l’analyse émotionnelle automatisée lorsqu’ils visent à surveiller, classer ou évaluer des personnes dans des contextes grand public, notamment dans les espaces publics, au travail ou à l’école.

Ces technologies ne peuvent pas être utilisées pour inférer des états mentaux ou guider des décisions ayant un impact sur les individus, en raison du caractère incertain et potentiellement discriminatoire de ces inférences. En France, la mise en œuvre de ce cadre s’appuie notamment sur l’action de la Commission nationale de l’informatique et des libertés (Cnil), chargée de veiller au respect des droits fondamentaux dans le déploiement de ces technologies.

Ces débats rappellent un point essentiel : les expressions faciales ne parlent jamais d’elles-mêmes. Leur analyse repose sur des inférences incertaines, qui exigent à la fois des modèles théoriques solides, une interprétation critique des résultats et un cadre d’usage clairement défini.

Les enjeux éthiques et réglementaires ne sont donc pas extérieurs aux questions scientifiques et techniques, mais en constituent un prolongement direct. C’est précisément dans cette articulation entre compréhension fine des expressions, limites des modèles et conditions d’usage responsables que se joue l’avenir de l’emotion AI.

The Conversation

Charlotte De Sainte Maresville a reçu des financements de ANR dans le cadre d'une convention CIFRE.

Christine PETR a reçu des financements de ANR dans le cadre d'une CIFRE.

AlphaGenome, une nouvelle avancée en intelligence artificielle pour explorer les effets des mutations génétiques

Même une mutation génétique très simple --&nbsp;une lettre qui change dans l’immense chaîne composée d’A, T, C et G&nbsp;-- peut avoir des conséquences sur la santé. Sangharsh Lohakare/Unsplash, CC BY

Notre ADN est composé d’un enchaînement de quatre petites molécules appelées « acides nucléiques » et dénotées par les lettres A, C, G, et T. Parfois, une mutation génétique a lieu et affecte notre santé. Une simple modification dans la grande séquence de lettres qui constitue notre génome peut suffire à affecter l’expression des gènes ou les versions des protéines produites à partir de ces gènes.

Mais on ne sait pas, à l’heure actuelle, expliquer systématiquement comment telle ou telle mutation génétique peut avoir tel ou tel effet. C’est la question à laquelle AlphaGenome, le nouveau logiciel d’intelligence artificielle présenté dans la revue Nature par Google, tente de répondre.

AlphaGenome analyse un million d’acides nucléiques à la fois, et prédit, pour chacun d’eux, des milliers de quantités, qui sont autant de facettes de la régulation de nos gènes pour façonner nos tissus et nos organes.

Coupler un tel niveau de résolution avec un contexte aussi long (un million de lettres !) et prédire autant d’aspects de la régulation du génome relève du tour de force. Cependant, ce nouvel opus de la série Alpha de DeepMind ne représente pas une avancée aussi spectaculaire qu’AlphaGo ou AlphaFold, par exemple.

AlphaGenome affine une approche existante, déjà implémentée dans Enformer et Borzoi, deux modèles d’apprentissage profond développés chez Google qui ont fait leurs preuves. Il améliore, d’une part, leur efficacité par des optimisations techniques et, d’autre part, leur pertinence, en modélisant plus finement la complexité des processus génétiques.


À lire aussi : Décrypter notre génome grâce à l’intelligence artificielle


Pourquoi cette avancée est importante

L’enjeu de ce travail est de taille pour la santé humaine. Les bases de données génomiques de populations humaines recensent près de 800 millions de variations ponctuelles – c’est-à-dire des changements portant sur une seule lettre du code génétique – dont l’impact sur notre santé reste largement inexploré. Identifier quelles sont celles qui sont à l’origine de maladies ou de dysfonctionnements, et comprendre leurs mécanismes d’action, est crucial.

Par exemple, dans certaines leucémies, une mutation d’un seul acide nucléique active de manière inappropriée un gène bien spécifique. AlphaGenome confirme le mécanisme déjà connu de cette activation aberrante : la mutation permet à un régulateur génétique de s’accrocher au gène, et modifie les marques épigénétiques alentour.

Ainsi, en unifiant plusieurs dimensions de la régulation génétique, AlphaGenome s’impose comme un modèle de fondation, c’est-à-dire un modèle générique qui peut être transféré ou appliqué facilement à plusieurs problèmes.

Quelles sont les suites de ces travaux ?

Plusieurs limitations tempèrent néanmoins l’enthousiasme.

Par exemple, les prédictions sur différentes facettes d’un même processus biologique ne sont pas toujours cohérentes entre elles, révélant que le modèle traite encore ces modalités de façon relativement cloisonnée.

Le modèle peine aussi à capturer la « spécificité tissulaire », c’est-à-dire le fait qu’un même variant génétique peut être délétère dans un tissu et neutre dans un autre.

De plus, il reste difficile de quantifier l’ampleur de l’effet d’une mutation.

Enfin, AlphaGenome prédit des conséquences moléculaires, pas des symptômes ni des diagnostics – or, entre une variation d’ADN et une maladie, il reste énormément de travail pour comprendre les relations entre ces différents niveaux ; et il n’a pas encore été validé sur des génomes individuels – un passage obligé pour toute application en médecine personnalisée, où l’enjeu serait d’interpréter le profil génétique unique d’un patient pour prédire sa susceptibilité à certaines maladies ou adapter son traitement.

Au-delà de ces enjeux pour la santé humaine, comment transférer cette connaissance à la biodiversité dans son ensemble ? AlphaGenome dépend en effet de mesures expérimentales, accessibles en abondance uniquement pour une poignée d’espèces (l’humain et quelques organismes modèles). Une autre famille de modèles pourrait ici jouer un rôle complémentaire : les « modèles de langage génomique », qui fonctionnent un peu comme ChatGPT mais pour prédire la suite d’une séquence d’ADN plutôt que la suite d’une phrase. Ces modèles, entraînés sur des millions de séquences génomiques, peuvent ainsi capturer les règles et les motifs conservés au cours de l’évolution, ce qui permet de déchiffrer des génomes inconnus.

Rien de tout cela n’existerait sans les grandes bases de données publiques et le travail cumulé de la recherche académique et des consortia ouverts, qui ont produit, standardisé et partagé les données nécessaires à l’entraînement de ces modèles. La suite logique est claire : la science doit rester ouverte, au service de la société. L’équipe d’AlphaGenome a rendu le code et les poids publiquement accessibles, et propose une interface facilitant l’adoption par la communauté scientifique. Reste à voir comment celle-ci s’emparera de cet outil : sera-t-il utilisé comme une « boîte noire » pratique, ou inspirera-t-il un véritable changement de paradigme en génomique computationnelle ?


Cet article a bénéficié de discussions avec Arnaud Liehrmann, post-doctorant au laboratoire de Biologie computationnelle, quantitative et synthétique.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.


The Conversation

Elodie Laine est membre junior de l'Institut Universitaire de France. Elle a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris, ANR-23-IACL-0007) et de l'Union Européenne (ERC, PROMISE, 101087830). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux de l'Union européenne ou du Conseil européen de la recherche. Ni l'Union européenne ni l'autorité octroyant la subvention ne peuvent en être tenus responsables.

Julien Mozziconacci est professeur au Muséum National d'Histoire Naturelle et membre junior de l'Institut Universitaire de France. Il a reçu des financements de l'Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux des instituts qui les ont financés.

Pourquoi il ne faut pas abandonner l’écriture manuscrite à l’école

Aujourd’hui, stylos et cahiers cèdent de plus en plus la place aux écrans et claviers dans les salles de classe. Mais ces outils permettent-ils d’écrire avec la même efficacité ? En quoi supposent-ils des compétences différentes ?


Au fil des décennies, des dispositifs technologiques ont été progressivement intégrés à l’apprentissage des langues, c’est le cas récemment de l’intelligence artificielle (IA) générative.

La sophistication de ces outils condamne-t-elle à terme le recours aux crayons et aux stylos ? Ou les usages numériques peuvent-ils se combiner à l’écriture manuelle ? En quoi celle-ci garde-t-elle sa valeur pour l’être humain ?

Stylo ou clavier : un impact sur la mémorisation des connaissances

L’écriture à la main a longtemps été associée à la mémoire et aux apprentissages. C’est en 1829 que la frappe au clavier est apparue, elle est devenue courante en 1867 grâce à la première machine à écrire manuelle. Si les élèves d’autrefois apprenaient à écrire exclusivement à la main, les élèves d’aujourd’hui alternent entre écrans et papier.

Or les recherches montrent que ces modalités n’ont pas les mêmes effets sur l’acquisition des connaissances. Dans une étude de 2014, on a observé que les élèves réussissent mieux à répondre aux questions analytiques s’ils prennent leurs notes à la main. Une étude de 2017 a établi que les étudiants de 20-25 ans retiennent plus longtemps les informations qu’ils écrivent à la main par rapport à celles qu’ils tapent sur un clavier.

L’impact de l’utilisation des technologies sur l’expression écrite (Ma Thèse en 180 secondes, 2023).

Par ailleurs, on a découvert que les étudiants qui utilisaient l’intelligence artificielle depuis leurs premières rédactions se souvenaient très peu de ce qui était réellement écrit lorsqu’ils étaient testés sur leur capacité à citer un texte, contrairement à ceux qui avaient composé eux-mêmes leurs textes. Trouver un équilibre entre production écrite et numérique est dès lors très important.

Une richesse lexicale moindre dans les productions numériques

Dans une expérimentation menée en 2019, avant le boom des IA génératives que nous connaissons, nous avons comparé les productions manuscrites et dactylographiées d’étudiants en anglais. Nous avons constaté une moindre richesse lexicale dans les productions dactylographiées, ce qui confirme les tendances évoquées plus haut.

L’objectif de l’étude était de déterminer s’il existait des différences linguistiques en fonction du mode de production. Nous nous sommes intéressés aux aspects stylistiques tels que la valeur informationnelle des textes, à l’organisation des textes, ainsi qu’aux aspects lexicaux.

Il y avait 58 participants à l’étude, chacun produisant un texte dactylographié et un texte manuscrit à un intervalle d’une semaine. L’expérience a eu lieu dans le cadre de la préparation d’une évaluation finale. Les participants ne pouvaient pas avoir recours à des ressources pendant la production, pas de dictionnaire, pas d’outils d’autocorrection.


À lire aussi : Pourquoi continuer d’apprendre à écrire à la main dans un monde d’IA


La majorité des textes ont témoigné d’une valeur informationnelle et d’une organisation textuelle statistiquement similaires dans les deux cas. Cela induit que le mode de production n’a pas eu d’influence sur les approches stylistiques utilisées.

Concernant la diversité lexicale, il n’en est pas de même. La richesse lexicale était bien plus importante dans la majorité des productions manuscrites. Les productions dactylographiées présentaient des faiblesses qui n’étaient pas présentes dans les productions manuscrites des mêmes participants.

Ces résultats peuvent avoir des implications pour l’enseignement de l’anglais et la manière dont les étudiants sont encouragés à produire des textes écrits.

Écrire sur écran, ça s’apprend

Depuis que la transition numérique a remisé les stylos au placard, plusieurs pays se sont penchés sur les incidences des usages numériques sur les compétences écrites : l’Espagne, les États-Unis ou encore la France.

Or, des études récentes soulignent l’importance de stratégies spécifiques d’écriture pour la progression des élèves, telles que la planification ou la relecture. Si la production manuscrite développe des capacités que le clavier ne développe pas, la maîtrise du clavier reste une compétence incontournable mais exigeante.


À lire aussi : Lire sur papier, lire sur écran : en quoi est-ce différent ?


Les difficultés à écrire relevées aujourd’hui tiennent d’abord à leur place de moins en moins prioritaire dans les programmes scolaires en Europe, aux États-Unis ou encore en Chine.

Par ailleurs, les modes de production sont fondamentalement différents à trois niveaux. D’abord, la saisie et l’écriture se déroulent dans des cadres spatiaux distincts. L’écriture se produit dans un espace unifié tandis que la saisie se déroule dans deux espaces séparés. Ensuite, la manière dont l’individu compose avec les différences spatiales lors de la planification, de la transcription et de la révision d’un texte est également nettement différente. Enfin, la perception et les usages des étudiants varient selon les modes de production.

C’est pourquoi il est important de continuer à insister sur les bénéfices cognitifs de l’écriture manuscrite à l’école et ailleurs, tout en prenant conscience de l’apprentissage que suppose l’écriture numérique pour que les élèves arrivent au même niveau de fluidité sur écran que sur papier. En classe, il s’agit de réfléchir aux options proposées en termes d’outils de rédaction. Reste à suivre les prochaines évolutions : quels seront les impacts du recours croissant aux IA sur la production écrite ?

The Conversation

Atheena Johnson ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Trop peu, trop concentré : pourquoi l’investissement dans les start-up IA doit être repensé en Afrique

Un an après le Sommet pour l'action sur l'intelligence artificielle de Paris, la communauté internationale se réunira cette semaine, à New Delhi, dans le cadre du Sommet mondial sur l’intelligence artificielle, dont l’objectif sera notamment de favoriser la diffusion des utilisations de l’IA dans les pays en développement. En Afrique, les investissements Tech et IA restent concentrés dans les « Big Four » – Afrique du Sud, Égypte, Kenya et Nigeria –, au détriment des autres pays du continent. Cette analyse explore les causes de ce déséquilibre et les leviers qu’il est possible d’employer pour mieux orienter les capitaux.


Cet article a été co-écrit avec Anastesia Taieb, chargée de projets innovation à l’AFD, et Emma Pericard, représentante de Digital Africa auprès de l’UE.

Entre 2015 et 2022, les investissements dans les start-up africaines ont connu une croissance sans précédent : le nombre de start-up recevant des financements a été multiplié par plus de sept, portés par l’essor du mobile, de la fintech et par un afflux massif de capitaux internationaux. Cependant, à partir de 2022, le resserrement des conditions économiques a entraîné un funding squeeze (diminution des investissements en capital-risque) qui a été plus important pour les start-up africaines que dans les autres régions du monde. Ce phénomène a renforcé la concentration des capitaux dans les pays où l’écosystème des start-up était le plus développé, à savoir l’Afrique du Sud, l’Égypte, le Kenya et le Nigeria.

Il y aurait cependant tout intérêt à ce que ces investissements soient mieux répartis sur le continent. Au-delà de la stimulation des économies, les innovations technologiques de ces start-up représentent un important levier de développement car elles proposent des solutions adaptées au contexte local : solutions financières spécifiques, amélioration de la productivité agricole, renforcement des systèmes de santé et d’éducation, réponse aux enjeux climatiques prioritaires, etc.

Évolution des financements en capital et en dette accordés aux start-up technologiques en Afrique entre 2019 et 2024. Partech, 2024 Africa Tech Venture Capital

Concentration des investissements dans les Big Four

Au début des années 2020 émerge l’expression de « Big Four » pour qualifier les principaux marchés tech africains : Afrique du Sud, Égypte, Kenya et Nigeria. Cette notion, certainement inspirée du terme Big Tech, implique qu’il existerait des « pays champions » dans le domaine des technologies.

En 2024, les Big Four ont capté 67 % des financements en equity tech (investissements contre des parts d’entreprises technologiques). Dans le détail, les pourcentages captés par chaque pays se répartissaient ainsi : environ 24 % pour le Kenya, 20 % pour l’Afrique du Sud et 13,5 % respectivement pour l’Égypte et le Nigeria.

Cette concentration des financements n’est pas seulement géographique : elle présente également une forte dimension sectorielle. On observe que les capitaux sont majoritairement dirigés vers des secteurs perçus comme moins risqués tels que la finance numérique « fintech », au détriment, par exemple des edtech ou cleantech, c’est-à-dire, respectivement, les technologies consacrées à l’éducation et à l’environnement.

Environ 60 à 70 % des montants levés en Afrique proviendraient d’investisseurs internationaux, notamment pour les tours de financement supérieurs à 10-20 millions de dollars. Ces investissements, souvent concentrés dans les marchés structurés, constituent les transactions les plus visibles mais aussi les moins risquées.

Des écosystèmes périphériques naissants et un potentiel insuffisamment converti en investissements

Si les « Big Four » concentrent la majorité des investissements, plusieurs pays africains disposent aujourd’hui d’un potentiel avéré en matière d’IA et d’un vivier de start-up prometteuses, sans pour autant capter des volumes d’investissement à la hauteur de ce potentiel.

Des pays comme le Ghana, le Maroc, le Sénégal, la Tunisie ou le Rwanda forment un groupe émergent dont les membres disposent de fondamentaux favorables à l’IA mais restent sous-financés. Ce décalage est d’autant plus frappant que le Ghana, le Maroc et la Tunisie, qui possèdent tous un vivier de start-up dynamique, regroupent à eux seuls environ 17 % des entreprises technologiques africaines hors « Big Four ». Par ailleurs, les structures financières locales ne parviennent pas à couvrir ces besoins dans ces géographies perçues comme périphériques.

Cette difficulté à attirer les investissements s’explique notamment par des écosystèmes institutionnels et d’affaires qui doivent être renforcés, la performance des entreprises technologiques reposant sur l’existence d’écosystèmes entrepreneuriaux structurés qui permettent l’accès à la connaissance, à une main-d’œuvre qualifiée, ainsi qu’à des dispositifs d’accompagnement (accélérateurs, incubateurs et investisseurs).

Enfin, il est nécessaire de rappeler que ces faiblesses s’inscrivent dans un contexte plus large : en 2020, l’ensemble du continent africain ne représentait que 0,4 % des flux mondiaux de capital-risque et ne pesait que 2,5 % du marché mondial de l’IA ; les pays émergents hors « Big Four » se trouvent donc mécaniquement pénalisés dans cette compétition déjà très concentrée.

Répartition des investissements en capital-risque (equity) dans les start-up technologiques africaines par pays. Partech, 2024 Africa Tech Venture Capital

Orienter les investissements pour préparer les pays à l’IA

Afin d’attirer des capitaux vers ces start-up IA, un pays doit lui-même être prêt pour l’IA. L’adoption de l’IA au niveau d’un pays ne dépend pas seulement de facteurs technologiques : L’AI Investment Potential (AIIPI) est un travail de recherche qui souligne que cette adoption repose également sur des facteurs économiques, politiques et sociaux. Ainsi, pour augmenter son potentiel en IA, un pays devra non seulement renforcer ses infrastructures énergétiques et de connectivité mais également son niveau de gouvernance, l’efficacité de ses pouvoirs publics et son capital humain.

Les actions à privilégier varient selon le stade d’avancement en IA des pays. Dans les pays plus avancés, comme l’Afrique du Sud ou le Maroc, l’enjeu est davantage de soutenir la recherche, d’optimiser les applications de l’IA et d’attirer des investissements stratégiques. Dans des pays avec un score plus modéré, les priorités portent sur la consolidation des infrastructures de connectivité, du capital humain et des cadres réglementaires.

La plate-forme aipotentialindex.org permet, entre autres, de visualiser les résultats de l’index au niveau mondial et les domaines dans lesquels les pays peuvent investir pour augmenter leur potentiel d’investissement en IA (recherche, efficacité de l’action publique, connectivité, capital humain, stratégies IA, etc.). L’AIIPI permet aux investisseurs non seulement de repérer les pays avancés en IA mais également ceux où le potentiel est sous-exploité. Pour les décideurs publics et les acteurs du développement, il offre un cadre de priorisation des réformes et des investissements.

Visualisation du potentiel d’investissement en IA en Afrique : plus la couleur est sombre, plus le potentiel est élevé. aipotentialindex.org
Outil « Profil des Pays » appliqué au Ghana. Le Ghana présente un fort potentiel d’investissement en IA. Des start-up comme Ghana Liquify, soutenue par Digital Africa, qui facilite le paiement des factures pour les PME, témoignent de son émulation entrepreneuriale. aipotentialindex.org

Fonds souverains et dispositifs dédiés aux nouvelles technologies

Une fois la stratégie d’investissement en IA d’un pays définie, se pose la question des instruments de financement de l’IA. À l’échelle continentale, plusieurs instruments dédiés aux technologies et à l’IA émergent. Des établissements financiers de développement, tels que la Banque africaine de Développement ou encore de la Banque ouest-africaine de Développement lancent des initiatives visant à soutenir la croissance de l’économie numérique du continent.

À l’échelle nationale, les fonds souverains africains (Sovereign Wealth Funds, SWFs) constituent une voie supplémentaire permettant de soutenir le financement de l’IA et des start-up sur le continent. Ces fonds, comme le Fonds Mohammed VI au Maroc ou le Pula Fund au Botswana mobilisent l’épargne publique pour le développement économique à long terme et travaillent en partenariat avec des banques de développement.

Les partenariats, des leviers puissants pour le financement de start-up

Financer les infrastructures numériques et IA ne suffit pas pour avoir un écosystème de start-up capables de stimuler l’économie. Les partenariats public-privé internationaux jouent aussi un rôle notable : l’initiative Choose Africa 2, portée par l’AFD et Bpifrance, vise à répondre aux contraintes de financement de l’entrepreneuriat sur le continent, en particulier lors des phases les plus précoces. À ce stade, des dispositifs de soutien, comme ceux de Digital Africa, associant acteurs publics et partenaires locaux, permettent des investissements de faibles montants de jeunes start-up « Tech for Good », dont les technologies génèrent un impact social et environnemental stratégique.

Des partenariats entre institutions africaines et européennes, tels que l’initiative Choose Africa 2 portée par l’AFD et Bpifrance, visent à répondre aux contraintes de financement de l’entrepreneuriat sur le continent, en particulier lors des phases les plus précoces. À ce stade, des dispositifs d’amorçage associant acteurs publics et partenaires locaux, dont Digital Africa, permettent des investissements de petits montants afin de financer des start-up contribuant à la diffusion d’infrastructures numériques et s’inscrivant dans une approche « Tech for Good », dont les technologies génèrent un impact social et environnemental positif essentiel pour le continent.

Ces mécanismes, sans suffire à corriger les déséquilibres d’investissement, peuvent néanmoins contribuer à élargir l’accès au financement au-delà des écosystèmes traditionnellement les mieux dotés.

Un portage politique, stratégique et juridique central

Les investissements financiers ne suffisent pas et doivent être portés par une ambition politique. Les dispositifs législatifs et stratégiques mis en place au niveau national et continental constituent des leviers structurants pour l’essor des start-up digitales en Afrique.

D’une part, les stratégies portées par l’Union africaine – la Stratégie de transformation numérique pour l’Afrique, la Stratégie continentale d’intelligence artificielle ou encore le Pacte numérique africain – fournissent des feuilles de route pour que les États puissent accélérer la transformation numérique des pays. Il existe également des dispositifs nationaux, comme en Tunisie avec la loi Startup, ou les stratégies nationales sur l’IA, comme celle publiée par le Ghana qui affiche son ambition de devenir le « Hub IA de l’Afrique ».

Enfin, un engagement politique majeur a été pris en avril dernier, lors du Global AI Summit de Kigali où 52 pays africains ont annoncé la création d’un Fonds africain pour l’IA de 60 milliards combinant des capitaux publics, privés et philanthropiques. Cette initiative illustre une volonté stratégique de l’Afrique : se positionner sur ces nouveaux enjeux technologiques. Néanmoins, ces fonds IA pourraient rencontrer des défis de gouvernance et de structuration financière. En effet, le risque demeure qu’ils puissent reproduire des asymétries déjà existantes dans les fonds souverains si des mécanismes de transparence ne sont pas mis en place. Leur impact dépendra donc de l’instauration de normes et d’outils de pilotage adaptés aux défis technologiques émergents.

Ces dispositifs créent les premières conditions nécessaires à l’émergence de solutions d’IA locales ainsi qu’un cadre stratégique structurant. Leur impact sur la confiance des investisseurs dépendra toutefois de leur articulation avec des financements adaptés et les capacités locales.

The Conversation

Claire Zanuso ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

En ouvrant ChatGPT à la publicité, OpenAI expose l’IA à des dérives dangereuses

OpenAI affirme que des règles strictes encadreront l'intégration publicitaire mais l'histoire incite à la prudence en la matière. OpenAI, The Conversation

La question dépasse la technique. En ouvrant ChatGPT aux annonceurs, OpenAI pose un choix politique : l’IA doit-elle servir le public ou devenir un outil redoutable dans les mains des publicitaires ?


OpenAI a annoncé son intention d’introduire de la publicité dans ChatGPT aux États-Unis. Les annonces apparaîtront dans la version gratuite et pour les abonnés à l'offre Go (la moins chère), mais pas pour les abonnés Pro, Business ou Entreprise.

L’entreprise affirme que les publicités seront clairement séparées des réponses du chatbot et qu’elles n’influenceront pas les contenus générés. Elle s’est également engagée à ne pas vendre les conversations des utilisateurs, à permettre la désactivation des publicités personnalisées et à éviter toute publicité destinée aux moins de 18 ans ou portant sur des sujets sensibles tels que la santé et la politique.

Malgré ces engagements, la décision a suscité des inquiétudes chez une partie des utilisateurs. La question centrale est de savoir si ces garanties tiendront une fois que la publicité deviendra un pilier de son modèle économique.

Pourquoi la publicité dans l’IA était presque inévitable

Nous avons déjà vu ce scénario. Il y a quinze ans, les plateformes de réseaux sociaux peinaient à transformer leurs audiences massives en profits.

Le tournant est venu avec la publicité ciblée : adapter les annonces à ce que les utilisateurs recherchent, consultent et regardent. Ce modèle est devenu la principale source de revenus de Google et de Facebook, au point de remodeler leurs services pour maximiser l’engagement des utilisateurs.

Les plateformes d’intelligence artificielle (IA) grand-public sont extrêmement coûteuses pour leurs propriétaires. L’entraînement et le fonctionnement de modèles avancés exigent d’immenses centres de données, des puces spécialisées et un travail d’ingénierie continu. Malgré une croissance rapide du nombre d’utilisateurs, de nombreuses entreprises d’IA continuent d’opérer à perte. OpenAI prévoit à elle seule de « brûler » près de 100 milliards d’euros au cours des cinq prochaines années.

Seules quelques entreprises peuvent absorber de tels coûts. Pour la plupart des fournisseurs d’IA, trouver un modèle économique à grande échelle est urgent, et la publicité ciblée apparaît comme la réponse la plus évidente. Elle reste le moyen le plus fiable de rentabiliser de larges audiences.

Ce que l’histoire nous enseigne

OpenAI affirme qu’elle maintiendra une séparation claire entre les publicités et les réponses, et qu’elle protégera la vie privée des utilisateurs. Ces garanties peuvent sembler rassurantes, mais elles reposent pour l’instant sur des engagements vagues et susceptibles d’être réinterprétés.

L’entreprise indique ainsi qu’elle ne diffusera pas de publicités « à côté de sujets sensibles ou réglementés comme la santé, la santé mentale ou la politique », mais apporte peu de précisions sur ce qui est considéré comme « sensible », sur l’étendue de la notion de « santé » ou sur l’instance chargée de fixer ces limites.

La plupart des échanges avec une IA, dans la vie réelle, ne relèveront pas de ces catégories restreintes. À ce jour, OpenAI n’a donné aucune précision sur les types de publicités qui seront autorisés ou exclus. Si aucun garde-fou n’est posé sur le contenu des annonces, on peut aisément imaginer qu’un internaute demandant « comment décompresser après une journée stressante » se voie proposer des publicités pour la livraison d’alcool. Une requête sur des « idées de week-end sympa » pourrait faire surgir des promotions pour des sites de jeux d’argent.

Pourtant, ces produits sont associés à des effets néfastes reconnus sur la santé et la société. Placées à côté d’un conseil personnalisé, au moment précis où une décision se prend, ces publicités peuvent infléchir les comportements de façon discrète mais efficace, même en l’absence de toute question de santé explicitement formulée.

On avait vu fleurir des promesses comparables aux débuts des réseaux sociaux. Mais l’expérience montre que l’autorégulation s’érode face aux impératifs commerciaux, au profit des entreprises et au détriment des utilisateurs.

Les logiques publicitaires ont souvent mis à mal l’intérêt général. Le scandale Cambridge Analytica a révélé des données personnelles collectées à des fins commerciales pouvaient être réutilisées pour peser sur des scrutins. Les « Facebook Files » ont, eux, révélé que Meta était consciente des effets délétères de ses plateformes, notamment sur la santé mentale des adolescentes et adolescents, mais a tardé à engager des réformes susceptibles d’entamer ses revenus publicitaires.

Plus récemment, des investigations ont montré que Meta continue de tirer profit de publicités frauduleuses, malgré les alertes répétées sur leurs conséquences.

Pourquoi les chatbots changent la donne

Les chatbots ne sont pas un simple fil d’actualité de plus. Les utilisateurs s’en servent de manière intime et personnelle, pour demander des conseils, chercher un soutien émotionnel ou réfléchir en privé. Ces échanges sont perçus comme discrets, sans jugement, et incitent souvent à confier des choses que l’on ne dirait pas en public.

Cette relation de confiance renforce le pouvoir de persuasion, d’une manière que les réseaux sociaux ne permettent pas. On consulte un chatbot pour obtenir de l’aide ou prendre une décision. Même si les publicités sont formellement séparées des réponses, elles s’insèrent dans un espace privé et conversationnel, et non dans un flux public.

Cette relation de confiance décuple le pouvoir de persuasion, bien au-delà de ce que permettent les réseaux sociaux. On se tourne vers un chatbot pour demander conseil, trancher une décision, chercher un appui. Même officiellement dissociées des réponses, les publicités s’invitent alors dans un tête-à-tête numérique, au cœur d’un échange privé, et non dans le brouhaha d’un fil public.

Des messages placés aux côtés de recommandations personnalisées — qu’ils concernent des biens de consommation, des loisirs, les finances ou la politique — ont toutes les chances d’exercer une influence bien plus forte que les mêmes publicités aperçues au détour d’une navigation classique.

Alors qu’OpenAI présente ChatGPT comme un « super assistant » capable d’accompagner ses utilisateurs dans tous les domaines, des finances à la santé, la frontière entre conseil et incitation devient de plus en plus floue.

Pour les escrocs comme pour les régimes autoritaires, disposer d'un outil de propagande encore plus efficace serait particulièrement tentant. Et du côté des acteurs de l’IA, la perspective de revenus supplémentaires rendra toute complaisance d’autant plus difficile à écarter

Le problème de fond tient à un conflit d’intérêts structurel. Les modèles publicitaires récompensent les plateformes qui maximisent l’engagement, alors même que les contenus les plus susceptibles de capter durablement l’attention sont souvent trompeurs, émotionnellement chargés ou préjudiciables à la santé.

C’est pour cette raison que l’autorégulation des plateformes en ligne a, à maintes reprises, montré ses limites.

Existe-t-il une meilleure voie ?

Une piste serait de considérer l’IA comme une infrastructure publique numérique : des systèmes essentiels, conçus pour servir l’intérêt général plutôt que pour maximiser les recettes publicitaires.

Cela n’implique pas d’exclure les acteurs privés. Mais cela suppose l’existence d’au moins une option publique de haute qualité, placée sous contrôle démocratique — à l’image des médias audiovisuels publics qui coexistent avec les chaînes commerciales.

Des exemples émergent déjà. La Suisse a développé le système d’IA public Apertus via ses universités et son centre national de calcul intensif. Ce modèle est open source, conforme au droit européen sur l’IA et exempt de publicité.

L’Australie (NDT : la version originale de ce texte a été écrite pour un public australien) pourrait aller plus loin. En parallèle du développement de ses propres outils d’IA, les autorités pourraient imposer des règles claires aux acteurs commerciaux : obligation de transparence, interdiction des publicités nuisibles à la santé ou à caractère politique, et sanctions effectives — pouvant aller jusqu’à la suspension d’activité — en cas d’infractions graves.

La publicité n’a pas dévoyé les réseaux sociaux en un jour. Elle a progressivement déplacé les incitations, jusqu’à faire des atteintes à l’intérêt général un simple effet secondaire de la quête de rentabilité. L’introduire dans l’IA conversationnelle, c’est risquer de reproduire ce scénario — mais dans des systèmes auxquels les utilisateurs accordent une confiance bien plus profonde encore.

La question décisive n’est donc pas d’ordre technique, mais politique : l’IA doit-elle servir le public, ou les annonceurs et les investisseurs ?

The Conversation

Raffaele F Ciriello est membre bénévole et temporaire du groupe consultatif des parents auprès de l’eSafety Commissioner, où il conseille sur les réactions des parents et des jeunes face aux lois australiennes fixant un âge minimum pour l’usage des réseaux sociaux. Cet article s’appuie sur ses recherches menées à titre indépendant.

Kathryn Backholer est vice-présidente (politique) de la Public Health Association of Australia. Elle reçoit des financements du National Health and Medical Research Council, de l’Australian Research Council, de l’UNICEF, de la Ian Potter Foundation, de la National Heart Foundation, de VicHealth, de la Foundation for Alcohol Research and Education, de QUIT, de la .auDA Foundation ainsi que du Victorian Department of Justice and Community Safety pour des travaux portant sur les effets nocifs de la publicité en ligne sur la santé.

Près de 80 % des travailleurs canadiens utilisent l’IA sans cadre institutionnel

Près de 80 % des travailleurs de bureau au pays disent utiliser les outils d’intelligence artificielle générative (IAG) pour accélérer leur productivité et améliorer leur travail. Cette pratique crée un fossé inquiétant, puisque trois quarts d’entre eux le font en dehors de tout cadre institutionnel. Ce faisant, ils exposent leurs organisations à des risques financiers et réputationnels majeurs.


Ce phénomène, baptisé « Shadow AI », révèle moins une défaillance individuelle des employés qu’un problème de gouvernance : Les entreprises doivent rapidement baliser l’usage des IAG en proposant à leurs employés des solutions sécurisées et contrôlées.

L’usage croissant des IAG

Le paysage technologique actuel est dominé par les IAG comme ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) et Microsoft Copilot. Parmi les entreprises, Statistique Canada indique que ces outils sont surtout utilisés pour l’analyse textuelle (35,7 %), l’analyse de données (26,4 %) et le déploiement d’agents conversationnels, comme les robots de clavardage (24,8 %).

L’essor des IAG continue de susciter un discours polarisé. Comme le mentionnent Rajiv Sabherwal et Varun Grover, deux professeurs émérites en systèmes d’information de l’université d’Arkansas, le discours entourant les IAG promet un gain de productivité, une accélération de l’innovation et une transformation profonde des activités professionnelles. Au même moment, divers rapports (notamment ceux du gouvernement canadien, du Centre canadien pour la cybersécurité, de Deloitte, ou d’IBM) mettent en garde contre les risques pour la sécurité, la conformité et la dépendance organisationnelle aux solutions externes.

Les travailleurs canadiens n’ont pas attendu que leurs employeurs encadrent l’utilisation des IAG. Selon une récente étude d’IBM, leur usage non contrôlé concerne la majorité des travailleurs à temps plein au pays.

Face à cette réalité, les entreprises ne peuvent plus se contenter d’observer, elles doivent agir.


À lire aussi : Grok, l’IA de Musk, est-elle au service du techno-fascisme ?


# « Shadow AI »

Le Shadow AI est aujourd’hui une réalité documentée au Canada et à l’international. Les études de CybSafe and the National Cybersecurity Alliance, KPMG, et Salesforce confirment l’importance de cette pratique devenue une mode.

En septembre 2025, une étude d’IBM a ainsi révélé que 79 % des travailleurs de bureau au Canada utilisent des outils d’IAG dans leurs tâches professionnelles, mais que 25 % d’entre eux seulement recourent à des solutions approuvées par leur entreprise. Encore plus marquant, 54 % déclarent recourir à des outils personnels au moins une fois par semaine pour accomplir des tâches professionnelles.

Cette étude révèle également que 21 % utilisent exclusivement des outils personnels pour accomplir leurs tâches, tandis que 33 % combinent des outils personnels et ceux de leur entreprise. Ce contraste entre les pratiques individuelles et les pratiques organisationnelles officielles relatives aux IAG témoigne d’un vide stratégique significatif.

Des risques multiples

Les risques associés au Shadow AI sont multiples et empiriquement attestés. 57 % des répondants d’une enquête de TELUS Digital Experience ont admis avoir saisi des données sensibles (informations personnelles, contrats, codes sources) dans des outils d’IAG.

Les conséquences financières sont également présentes. Le rapport IBM Cost of a Data Breach 2025 estime à 308 000$ l’impact additionnel par incident de Shadow AI sur le coût des violations de données au cours de la dernière année dans les entreprises canadiennes.

Au-delà des pertes financières, des cas emblématiques illustrent les risques réputationnels : chez Samsung, des employés ont accidentellement divulgué un code source interne sensible via ChatGPT, tandis que deux avocats de New York ont été condamnés à une amende de 5000 $ pour avoir soumis un dossier juridique contenant des citations et des jurisprudences entièrement inventées par ChatGPT.


À lire aussi : L'intelligence artificielle générative : savoir quand l'utiliser plutôt que comment


Causes du « Shadow AI »

La pratique du Shadow AI ne naît pas du simple désir de contourner les règles de l’entreprise. Elle illustre plutôt un écart entre les besoins opérationnels réels des employés et les possibilités offertes par les employeurs.

Le discours dominant sur les IAG, véhiculé par les entreprises technologiques comme Anthropic ou Microsoft, certains médias et des influenceurs, promeut un gain d’efficacité et de productivité. Cela suscite chez les employés une perception positive des IAG, qui sont vues alors comme un outil indispensable à leur performance qu’il faut adopter en l’absence de solutions institutionnelles.

Ce phénomène pourrait également s’expliquer par le décalage temporel entre le développement continu des IAG et la réactivité organisationnelle. Les employés évoluent plus rapidement que les institutions conçues pour les soutenir.

Les institutions, contraintes par des processus de validation, de conformité et de gestion des risques, tardent à répondre aux attentes des employés. Face à des processus bureaucratiques perçus comme lents, les employés contournent les canaux officiels pour accéder aux gains promis par les IAG. Ainsi, 46 % des travailleurs canadiens interrogés par IBM envisageraient de quitter leur entreprise pour une autre qui utilise l’IAG plus efficacement. Ceci souligne l’urgence stratégique de ce phénomène.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Institutionnalisation des IAG

Face au phénomène de Shadow AI, les entreprises doivent adopter une posture proactive d’institutionnalisation afin de le transformer en opportunité. Cette approche ne consiste pas à imposer l’usage des IAG, mais à formuler une position claire sur un continuum allant de l’interdiction stricte à l’utilisation libre. L’absence de ce positionnement constitue une faille stratégique dans l’institutionnalisation des IAG, exposant l’entreprise à des risques.

Pour une institutionnalisation efficace de l’IAG, nous proposons trois points complémentaires.

  • L’élaboration de politiques d’utilisation explicites, communiquées et régulièrement mises à jour, permet de clarifier les frontières entre usages autorisés et proscrits.

  • La formation et la sensibilisation constituent des leviers essentiels : les employés doivent développer non seulement des compétences techniques en matière de rédactique, mais également une compréhension profonde des enjeux organisationnels, éthiques et de sécurité.

  • Le choix et la mise en place d’outils d’IAG approuvés et sécurisés, notamment alignés sur les besoins de l’entreprise et sur la loi. Comme le souligne KPMG, les organisations avant-gardistes « transforment l’utilisation non autorisée de l’IA en un avantage stratégique et en un moteur d’innovation » (traduction libre).

Cette approche proactive permet de réduire les risques, de renforcer la confiance des employés et de cultiver une culture d’innovation responsable.

Perspectives : vers des IAG propriétaires

Une réflexion prospective sur le Shadow AI conduit naturellement à envisager le développement en interne d’outils d’IAG sur mesure. À l’exemple de Forvis Mazars, une multinationale experte en certification, comptabilité, fiscalité et services-conseils, certaines entreprises et gouvernements explorent le développement d’IAG internes adaptées à leurs besoins spécifiques.

Cette stratégie réduit l’exposition aux risques et offre plusieurs avantages : une maîtrise accrue de la confidentialité des données, une personnalisation de l’IAG en fonction des processus du métier, une réduction de la dépendance vis-à-vis des plates-formes externes et un renforcement de la souveraineté numérique. Toutefois, cette voie implique des investissements considérables en ressources techniques, financières et humaines, ainsi qu’une gouvernance éthique rigoureuse.

Les entreprises qui sauront transformer la pratique du Shadow AI en un levier stratégique, par une institutionnalisation réfléchie et inclusive des IAG, auront un avantage concurrentiel durable dans l’économie numérique émergente.

La Conversation Canada

Harold Junior NGUEGANG TEWAMBA est membre du Centre de recherche en technologies de l’information et affaires (CeRTIA) de la Faculté des sciences de l'administration de l'Université Laval.

Gildas Agbon est membre étudiant de l'Observatoire international sur les impacts sociétaux de l'IA et du numérique (Obvia). Il a reçu des financements du Conseil de recherche en sciences humaines du Canada

Affaire Grok : les GAFAM doivent être tenus responsables des violences sexistes liées à leur technologie

À la veille de Noël, l’entreprise xAI clamait que son agent conversationnel Grok offrait une nouvelle fonctionnalité d’édition d’images et de vidéos qui permettrait « d’ajouter le père Noël à vos photos ». Depuis, elle a plutôt généré des milliers d’images sexuellement explicites et non consenties de femmes et de mineurs.

Ce désastre illustre parfaitement la facilité croissante avec laquelle les nouvelles technologies permettent de commettre des violences sexuelles.

Il est urgent que les entreprises technologiques et les décideurs politiques priorisent la sécurité et la réglementation de l’intelligence artificielle de toute urgence. Dans une optique de santé publique, il s’agit de protéger les populations contre des dommages à grande échelle.

À travers diverses collaborations et mes études doctorales sur l’intersectionnalité entre violence sexiste et santé publique, j’ai pu vérifier qu’il est possible d’utiliser l’intelligence artificielle comme outil pour aider les victimes de violence.


À lire aussi : Grok, l’IA de Musk, est-elle au service du techno-fascisme ?


Appli qui dénudent

Les préoccupations relatives à l’hypertrucage (les deepfakes en anglais) sexuellement explicite ne datent pas d’hier. En 2018, sur Reddit, on retrouvait déjà des outils d’apprentissage automatique capable de plaquer le visage Taylor Swift et autres célébrités sur du matériel pornographique.

D’autres sites, plus confidentiels, proposaient également des programmes d’hypertrucage permettant de dénuder des personnes en image.

Cette technologie est désormais accessible à tous. L’agent conversationnel Grok, outre son propre site web et son appli, est ouvert à tous les utilisateurs de la plate-forme de médias sociaux X.

Si l’on demande à Grok de créer des images pornographiques, celui-ci répondra qu’il est programmé pour ne pas le faire, certes, mais il est facile de contourner ce garde-fou.

Dans un communiqué publié sur sa propre plate-forme, Elon Musk, propriétaire de xAI, affirme prendre les mesures nécessaires contre les contenus illégaux sur X. L’entreprise, lit-on, les supprime, suspend les comptes de manière définitive et, si nécessaire, collabore avec les autorités.

Cependant, on ignore comment et quand ces mesures seront mises en œuvre.

Rien de nouveau sous le soleil

Ça n’est pas d’hier que les technologies numériques servent de support à la violence sexuelle et aux comportements sexuels préjudiciables virtuels ou réels. Les femmes, les minorités sexuelles et les mineurs en sont les principales victimes.

La pornodivulgation, qui consiste à diffuser des images explicites d’une personne sans son consentement, est une forme de violence sexuelle qui a fait l’objet d’une attention particulière. Les victimes rapportent des effets durables sur leur santé mentale, notamment par la rupture de relations et l’isolement social.

Certains médias sociaux interdisent la diffusion de contenus intimes non consensuels et appliquent des mécanismes de signalement et de suppression de tels contenus.

Google et Bing acceptent également de supprimer de leurs pages de résultats les contenus qui enfreignent leur politique en matière de contenu et qui sont dommageables pour la personne. Au Canada, la « pornographie de vengeance » est un crime passible de cinq ans de prison.

Tout comme les victimes de pornodivulgation, les victimes d’hypertrucage font état de détresse mentale (sentiment d’impuissance, humiliation, honte). Certaines ont même subi de l’extorsion.

L’hypertrucage sexuellement explicite est même devenu un moyen de cyberharcèlement et de censure à l’endroit de journalistes et de femmes politiques.


À lire aussi : Grok, est-ce que c’est vrai ? Quand l’IA oriente notre compréhension du monde


Et maintenant ?

La grave faille de sécurité révélée par l’affaire Grok était par ailleurs prévisible. Depuis des mois, des experts éminents en la matière et des organisations de protection de l’enfance nous prévenaient que sa nouvelle fonctionnalité était un « outil de dénudement qui ne demandait qu’à servir d’arme ».

Le 9 janvier, en réaction, xAI a limité l’accès à la fonctionnalité d’édition d’images aux seuls abonnés de X, mais celle-ci demeure accessible gratuitement sur l’appli Grok.

Grok s’est vu également interdire de télécharger automatiquement ces images dans les commentaires. Cependant, l’onglet Grok sur X permet toujours aux abonnés de générer des images sexualisées, qu’ils peuvent ensuite publier manuellement sur la plate-forme.

La Malaisie et l’Indonésie ont pris des mesures pour bloquer l’accès à Grok.

Regard vers l’avenir

Ce n’est ni la première fois ni la dernière qu’une entreprise technologique affiche un tel manque de jugement quant au risque de violences sexuelles découlant de l’usage de ses produits.

Le Canada devrait prendre les mesures suivantes :

1. Modifier le Code criminel

Des juristes plaident pour que le législateur criminalise la création et la distribution d’hypertrucages sexuellement explicites et non consensuels, à l’instar des lois existantes sur la pornodivulgation.

2. Réglementer les entreprises et les tenir responsables

Le Canada n’a encore adopté aucune loi pour réglementer l’intelligence artificielle. Malheureusement, le projet de loi C-63 sur les préjudices en ligne est mort au feuilleton suite à la prorogation du Parlement en janvier 2025. Suite à l’affaire Grok, le ministre canadien responsable de l’intelligence artificielle est revenu sur le sujet, mais sa réponse ne comporte ni échéance ni sentiment d’urgence.

Alors que l’IA progresse, la législation devient nécessaire pour prévenir d’autres préjudices liés à la violence sexuelle. Les nouveaux produits devraient se voir imposer des contrôles de sécurité approfondis, quitte à ralentir les activités des entreprises concernées.

Il faut également s’interroger quant à la responsabilité des préjudices causés.

Trois sénateurs américains ont demandé à Apple et Google d’appliquer leur propre politique et de retirer Grok de leur boutique d’applications. Après tout, plaident-ils, elles l’ont déjà fait dans d’autres cas et très rapidement.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


3. Élargir la portée des services sociaux

Face à la multiplication des violences sexuelles commises à l’aide des technologies d’IA, il faut élargir le champ d’action des organismes de lutte contre la violence sexuelle. Il s’agirait de tirer parti des services existants, notamment les soins de santé mentale et l’aide juridique, pour inclure les victimes d’hypertrucage.

4. Démanteler la culture du viol

La principale cause de la violence sexuelle réside dans la prédominance d’une culture du viol sous-jacente. Celle-ci trouve un environnement particulièrement favorable en ligne, où les abus et le harcèlement sexuel sont tolérés, voire encouragés.

Pour démanteler cette culture du viol, il importe de dénoncer tout ce qui normalise ces actes et de placer leurs auteurs devant leur responsabilité.

La Conversation Canada

Kyara Liu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

« Psychose induite par l’IA » : un danger réel pour les personnes à risque, selon un psychiatre

L’intelligence artificielle est de plus en plus intégrée à la vie quotidienne, des agents conversationnels qui offrent une forme de compagnie aux algorithmes qui façonnent ce que nous voyons en ligne. Mais à mesure que l’IA générative (IA gen) devient plus conversationnelle, immersive et émotionnellement réactive, les cliniciens commencent à se poser une question délicate : l’IA générative peut-elle aggraver, voire déclencher une psychose chez des personnes vulnérables ?


Les modèles de langage de grandes tailles et les agents conversationnels sont largement accessibles et souvent présentés comme des outils de soutien, empathiques, voire thérapeutiques. Pour la majorité des utilisateurs, ces systèmes sont utiles ou, au pire, sans effet délétère.

Toutefois, récemment, plusieurs reportages médiatiques ont décrit des personnes présentant des symptômes psychotiques, dans des situations où ChatGPT occupe une place centrale.

Pour un groupe restreint, mais cliniquement significatif (les personnes présentant un trouble psychotique ou celles à haut risque), les interactions avec l’IA générative peuvent être beaucoup plus complexes et potentiellement dangereuses, ce qui soulève des questions importantes pour les cliniciens.

Comment l’IA s’intègre aux systèmes de croyances délirantes

La « psychose induite par l’IA » n’est pas un diagnostic psychiatrique formel. Il s’agit plutôt d’un raccourci émergent utilisé par des cliniciens et des chercheurs pour décrire des symptômes psychotiques façonnés, intensifiés ou structurés autour d’interactions avec des systèmes d’IA.

La psychose implique une perte de contact avec la réalité partagée avec le monde extérieur et intérieur. Les hallucinations, les idées délirantes et la désorganisation de la pensée en constituent les manifestations centrales. Les délires psychotiques s’appuient fréquemment sur des éléments culturels (religion, technologie ou structures de pouvoir politique) afin de donner sens à des expériences internes.

Historiquement, les thèmes délirants ont fait référence à divers objets ou forces, tels que Dieu, les ondes radio ou la surveillance gouvernementale. Aujourd’hui, l’intelligence artificielle offre une nouvelle avenue narrative.

Certains patients rapportent des croyances selon lesquelles l’IA générative serait consciente, transmettrait des vérités secrètes, contrôlerait leurs pensées ou collaborerait avec eux dans le cadre d’une mission spéciale. Ces thématiques s’inscrivent dans des schémas bien établis de la psychose, mais l’IA y ajoute un degré d’interactivité et de renforcement que les technologies antérieures n’offraient pas.


À lire aussi : Se diagnostiquer grâce à l’IA : voici le potentiel et les pièges des applis en santé


Le risque d’une validation sans ancrage dans la réalité

La psychose est fortement associée à la saillance aberrante, soit la tendance à attribuer une signification excessive à des événements neutres. Les systèmes d’IA conversationnelle sont, par conception, capables de générer un langage réactif, cohérent et sensible au contexte. Chez une personne présentant une psychose émergente, cela peut être vécu comme une confirmation troublante, voire dérangeante.

Les recherches sur la psychose montrent que la validation excessive et la personnalisation peuvent intensifier les systèmes de croyances délirantes. L’IA générative est optimisée pour poursuivre les conversations, refléter le langage de l’utilisateur et s’adapter à l’intention perçue.

Si cela est sans conséquence pour la plupart des utilisateurs, ces mécanismes peuvent renforcer involontairement des interprétations déformées chez des personnes dont le test de réalité est altéré — c’est-à-dire la capacité à distinguer les pensées internes et l’imaginaire de la réalité objective et externe.

Il existe également des données indiquant que l’isolement social et la solitude augmentent le risque de psychose. Les compagnons d’IA générative peuvent réduire la solitude à court terme, mais ils peuvent aussi se substituer aux relations humaines.

Cela concerne tout particulièrement les personnes déjà en retrait des interactions sociales. Cette dynamique rappelle les préoccupations antérieures liées à l’usage excessif d’Internet et à la santé mentale, mais la profondeur conversationnelle de l’IA générative contemporaine est qualitativement différente.


À lire aussi : L’IA gagne du terrain en santé. Comment les ordres professionnels peuvent-ils l’encadrer ?


Ce que la recherche nous apprend, et ce qui reste incertain

À ce jour, aucune donnée probante n’indique que l’IA cause directement une psychose.

Les troubles psychotiques sont multifactoriels et peuvent impliquer une vulnérabilité génétique, des facteurs neurodéveloppementaux, des traumatismes et l’usage de substances. Toutefois, certaines préoccupations cliniques suggèrent que l’IA pourrait agir comme facteur précipitant ou de maintien chez des individus vulnérables.

Des rapports de cas et des études qualitatives portant sur les médias numériques et la psychose montrent que les thématiques technologiques s’intègrent fréquemment aux contenus délirants, en particulier lors des premiers épisodes psychotiques.

Les recherches sur les algorithmes des médias sociaux ont déjà démontré que des systèmes automatisés peuvent amplifier des croyances extrêmes par des boucles de renforcement. Les systèmes de clavardage fondés sur l’IA pourraient présenter des risques similaires si les garde-fous sont insuffisants.

Il est important de souligner que la plupart des développeurs d’IA ne conçoivent pas leurs systèmes en pensant aux personnes vivant avec des troubles mentaux sévères. Les mécanismes de sécurité tendent à se concentrer sur l’automutilation ou la violence, plutôt que sur la psychose. Cela crée un décalage entre les connaissances en santé mentale et le déploiement des technologies d’IA.

Les enjeux éthiques et les implications cliniques

Du point de vue de la santé mentale, l’enjeu n’est pas de diaboliser l’IA, mais de reconnaître les vulnérabilités individuelles.

De la même manière que certains médicaments ou substances comportent des risques accrus pour les personnes vivant avec un trouble psychotique, certaines formes d’interaction avec l’IA peuvent nécessiter une prudence particulière.

Les cliniciens commencent à rencontrer des contenus liés à l’IA intégrés aux idées délirantes, mais peu de lignes directrices cliniques abordent la manière d’évaluer ou de prendre en charge ces situations. Les thérapeutes devraient-ils interroger l’usage de l’IA générative de la même façon qu’ils questionnent la consommation de substances ? Les systèmes d’IA devraient-ils détecter et désamorcer les idées psychotiques plutôt que d’y engager la conversation ?

Des questions éthiques se posent également pour les développeurs. Lorsqu’un système d’IA apparaît empathique et doté d’une autorité perçue, porte-t-il une forme de devoir de diligence ? Et qui est responsable lorsqu’un système renforce involontairement une idée délirante ?


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Faire le pont entre la conception de l’IA et les soins en santé mentale

L’IA n’est pas appelée à disparaître. L’enjeu consiste désormais à intégrer l’expertise en santé mentale dans la conception des systèmes d’IA, à développer une littératie clinique autour des expériences liées à l’IA et à s’assurer que les utilisateurs vulnérables ne soient pas exposés à des préjudices involontaires.

Cela nécessitera une collaboration étroite entre cliniciens, chercheurs, éthiciens et technologues. Cela exigera également de résister aux discours sensationnalistes (qu’ils soient utopiques ou dystopiques) au profit d’échanges fondés sur les données probantes.

À mesure que l’IA adopte des caractéristiques de plus en plus humaines, une question s’impose : comment protéger les personnes les plus vulnérables à son influence ?

La psychose s’est toujours adaptée aux outils culturels de son époque. L’IA n’est que le miroir le plus récent à travers lequel l’esprit tente de donner sens à lui-même. Notre responsabilité collective est de veiller à ce que ce miroir ne déforme pas la réalité chez celles et ceux qui sont le moins en mesure de la corriger.

La Conversation Canada

Alexandre Hudon ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

L’IA arrive dans le jugement olympique. Qu’est-ce qui pourrait (bien) se passer ?

Alors que le Comité international olympique (CIO) adopte le jugement assisté par l’intelligence artificielle, cette technologie promet une plus grande cohérence et une meilleure transparence. Pourtant, les résultats de la recherche suggèrent que la confiance, la légitimité et les valeurs culturelles comptent autant que la précision technique.


En 2024, le CIO a dévoilé son agenda olympique de l’intelligence artificielle (IA), positionnant celle-ci comme un pilier central des futurs Jeux olympiques. Cette vision a été renforcée lors du tout premier Forum olympique sur l’IA, organisé en novembre 2025, où athlètes, fédérations, partenaires technologiques et décideurs politiques ont discuté de la manière dont l’IA pourrait soutenir le jugement, la préparation des athlètes et l’expérience des fans.

Aux Jeux olympiques d’hiver de 2026 de Milan-Cortina qui démarrent vendredi 6 février, le CIO envisage d’utiliser l’IA pour soutenir le jugement en patinage artistique (épreuves individuelles et en couple, hommes et femmes), en aidant les juges à identifier précisément le nombre de rotations effectuées lors d’un saut.

Son utilisation s’étendra également à des disciplines, telles que le big air, le halfpipe et le saut à ski (des épreuves de ski et de snowboard où les athlètes enchaînent des sauts et figures aériennes), où des systèmes automatisés pourront mesurer la hauteur des sauts et les angles de décollage. À mesure que ces systèmes passent de l’expérimentation à un usage opérationnel, il devient essentiel d’examiner ce qui pourrait bien se passer… ou mal se passer.

Sports jugés et erreurs humaines

Dans les sports olympiques tels que la gymnastique et le patinage artistique, qui reposent sur des panels de juges humains, l’IA est de plus en plus présentée par les fédérations internationales et les instances sportives comme une solution aux problèmes de biais, d’incohérence et de manque de transparence. En effet, les juges doivent évaluer des mouvements complexes réalisés en une fraction de seconde, souvent depuis des angles de vue limités, et ce pendant plusieurs heures consécutives.

Les analyses post-compétition montrent que les erreurs involontaires et les divergences entre juges ne sont pas des exceptions. Cela s’est à nouveau matérialisé en 2024, lorsqu’une erreur de jugement impliquant la gymnaste américaine Jordan Chiles lors des Jeux olympiques de Paris a déclenché une vive polémique. En finale du sol, Chiles avait initialement reçu une note qui la plaçait à la quatrième place. Son entraîneur a alors introduit une réclamation, estimant qu’un élément technique n’avait pas été correctement pris en compte dans la note de difficulté. Après réexamen, la note a été augmentée de 0,1 point, permettant à Chiles d’accéder provisoirement à la médaille de bronze. Cette décision a toutefois été contestée par la délégation roumaine, qui a fait valoir que la réclamation américaine avait été déposée hors délai, dépassant de quatre secondes la fenêtre réglementaire d’une minute. L’épisode a mis en lumière la complexité des règles, la difficulté pour le public de suivre la logique des décisions, et la fragilité de la confiance accordée aux panels de juges humains.

Par ailleurs, des cas de fraude ont également été observés : on se souvient notamment du scandale de jugement en patinage artistique lors des Jeux olympiques d’hiver de Salt Lake City en 2002. À l’issue de l’épreuve en couple, des accusations ont révélé qu’une juge aurait favorisé un duo en échange d’un soutien promis dans une autre compétition, mettant au jour des pratiques d’échanges de votes au sein du panel de juges. C’est précisément en réponse à ce type d’incidents que des systèmes d’IA ont été développés, notamment par Fujitsu en collaboration avec la Fédération internationale de gymnastique.

Ce que l’IA peut (et ne peut pas) corriger dans le jugement

Nos recherches sur le jugement assisté par l’IA en gymnastique artistique montrent que la question ne se résume pas à savoir si les algorithmes sont plus précis que les humains. Les erreurs de jugement proviennent souvent des limites de la perception humaine, ainsi que de la vitesse et de la complexité des performances de haut niveau, ce qui rend l’IA attrayante. Cependant, notre étude impliquant juges, gymnastes, entraîneurs, fédérations, fournisseurs de technologies et fans met en lumière une série de tensions.

L’IA peut être trop exacte, évaluant les routines avec un niveau de précision qui dépasse ce que les corps humains peuvent réalistement exécuter. Par exemple, là où un juge humain apprécie visuellement si une position est correctement tenue, un système d’IA peut détecter qu’un angle de jambe ou de bras s’écarte de quelques degrés seulement de la position idéale, pénalisant une athlète pour une imperfection imperceptible à l’œil nu. Si l’IA est souvent présentée comme objective, de nouveaux biais peuvent émerger à travers la conception et la mise en œuvre des systèmes. Par exemple, un algorithme entraîné principalement sur des performances masculines ou sur des styles dominants peut pénaliser involontairement certaines morphologies. En outre, l’IA peine à prendre en compte l’expression artistique et les émotions, des éléments considérés comme centraux dans des sports tels que la gymnastique et le patinage artistique. Enfin, si l’IA promet une plus grande cohérence, son maintien exige une supervision humaine continue afin d’adapter les règles et les systèmes à l’évolution des disciplines.

Les sports d’action ont une autre logique

Nos recherches montrent que ces préoccupations sont encore plus marquées dans les sports d’action comme le snowboard et le ski freestyle. Beaucoup de ces disciplines ont été ajoutées au programme olympique afin de moderniser les Jeux et d’attirer un public plus jeune. Pourtant, des chercheurs avertissent que l’inclusion olympique peut accélérer la commercialisation et la standardisation, au détriment de la créativité et de l’identité de ces sports.

Un moment emblématique remonte à 2006, lorsque la snowboardeuse américaine Lindsey Jacobellis a perdu la médaille d’or olympique après avoir effectué un geste acrobatique consistant à saisir sa planche en plein saut en plein saut alors qu’elle menait la finale de snowboard cross. Ce geste, célébré dans la culture de son sport, a entraîné une chute qui lui a coûté la médaille d’or.

Les essais de jugement par IA aux X Games

Le jugement assisté par l’IA ajoute de nouvelles couches à cette tension. Des travaux antérieurs sur le halfpipe en snowboard avaient déjà montré comment les critères de jugement peuvent, avec le temps, remodeler subtilement les styles de performance. Contrairement à d’autres sports jugés, les sports d’action accordent une importance particulière au style et à la prise de risque, des éléments particulièrement difficiles à formaliser algorithmiquement.

Pourtant, l’IA a déjà été testée lors des X Games 2025, notamment pendant les compétitions de snowboard SuperPipe, une version de grande taille du halfpipe, avec des parois plus hautes permettant des sauts plus amples et plus techniques. Des caméras vidéo ont suivi les mouvements de chaque athlète, tandis que l’IA analysait les images afin de produire une note de performance indépendante. Ce système était testé en parallèle du jugement humain, les juges continuant à attribuer les résultats officiels et les médailles.

Cet essai n’a toutefois pas modifié les résultats officiels, et aucune comparaison publique n’a été communiquée quant à l’alignement entre les notes produites par l’IA et celles des juges humains. Néanmoins, les réactions ont été très contrastées : certains acteurs saluent une plus grande cohérence et transparence, tandis que d’autres ont averti que les systèmes d’IA ne sauraient pas quoi faire lorsqu’un athlète introduit une nouvelle figure – souvent très appréciée des juges humains et du public.

Au-delà du jugement : entraînement, performance et expérience des fans

L’influence de l’IA dépasse largement le seul cadre du jugement. À l’entraînement, le suivi des mouvements et l’analyse de la performance orientent de plus en plus le développement technique et la prévention des blessures, façonnant la manière dont les athlètes se préparent à la compétition. Parallèlement, l’IA transforme l’expérience des fans grâce à des ralentis enrichis, des visualisations biomécaniques et des explications en temps réel des performances.

Ces outils promettent davantage de transparence, mais ils cadrent aussi la manière dont les performances sont interprétées, avec davantage de « storytelling » autour de ce qui peut être mesuré, visualisé et comparé.

À quel prix ?

L’Agenda olympique de l’IA reflète l’ambition de rendre le sport plus juste, plus transparent et plus engageant. Toutefois, à mesure que l’IA s’intègre au jugement, à l’entraînement et à l’expérience des fans, elle joue aussi un rôle discret mais puissant dans la définition de ce qui constitue l’excellence. Si les juges d’élite sont progressivement remplacés ou marginalisés, les effets pourraient se répercuter à tous les niveaux : formation des juges, développement des athlètes et évolutions des sports eux-mêmes.

Le défi auquel sont confrontés les sports du programme olympique n’est donc pas seulement technologique ; il est institutionnel et culturel. Comment éviter que l’IA ne vide de leur substance les valeurs qui donnent à chaque sport son sens ?

The Conversation

Willem Standaert ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Du chatbot du pape au canard de Vaucanson, les croyances derrière l’intelligence artificielle ne datent pas d’hier

Le feu de Prométhée, un mythe qui explique en partie le succès du narratif entourant l’IA. Public domain, via Wikimedia Commons

Des mythes antiques à la tête parlante du pape, de Prométhée aux algorithmes modernes, l’intelligence artificielle (IA) puise dans notre fascination intemporelle pour la création et le pouvoir de la connaissance.


Il semble que l’engouement pour l’intelligence artificielle (IA) ait donné naissance à une véritable bulle spéculative. Des bulles, il y en a déjà eu beaucoup, de la tulipomanie du XVIIe siècle à celle des subprimes du XXIe siècle. Pour de nombreux commentateurs, le précédent le plus pertinent aujourd’hui reste la bulle Internet des années 1990. À l’époque, une nouvelle technologie – le World Wide Web – avait déclenché une vague d’« exubérance irrationnelle ». Les investisseurs déversaient des milliards dans n’importe quelle entreprise dont le nom contenait « .com ».

Trois décennies plus tard, une autre technologie émergente déclenche une nouvelle vague d’enthousiasme. Les investisseurs injectent à présent des milliards dans toute entreprise affichant « IA » dans son nom. Mais il existe une différence cruciale entre ces deux bulles, qui n’est pas toujours reconnue. Le Web existait. Il était bien réel. L’intelligence artificielle générale, elle, n’existe pas, et personne ne sait si elle existera un jour.

En février, le PDG d’OpenAI, Sam Altman, écrivait sur son blog que les systèmes les plus récents commencent tout juste à « pointer vers » l’IA dans son acception « générale ». OpenAI peut commercialiser ses produits comme des « IA », mais ils se réduisent à des machines statistiques qui brassent des données, et non des « intelligences » au sens où on l’entend pour un être humain.

Pourquoi, dès lors, les investisseurs sont-ils si prompts à financer ceux qui vendent des modèles d’IA ? L’une des raisons tient peut-être au fait que l’IA est un mythe technologique. Je ne veux pas dire par là qu’il s’agit d’un mensonge, mais que l’IA convoque un récit puissant et fondateur de la culture occidentale, celui des capacités humaines de création. Peut-être les investisseurs sont-ils prêts à croire que l’IA est pour demain, parce qu’elle puise dans des mythes profondément ancrés dans leur imaginaire ?

Le mythe de Prométhée

Le mythe le plus pertinent pour penser l’IA est celui de Prométhée, issu de la Grèce antique. Il en existe de nombreuses versions, mais les plus célèbres se trouvent dans les poèmes d’Hésiode, la Théogonie et les Travaux et les Jours, ainsi que dans la pièce Prométhée enchaîné, traditionnellement attribuée à Eschyle.

Prométhée était un Titan, un dieu du panthéon grec antique. C’était aussi un criminel, coupable d’avoir dérobé le feu à Héphaïstos, le dieu forgeron. Dissimulé dans une tige de fenouil, le feu fut apporté sur Terre par Prométhée, qui l’offrit aux humains. Pour le punir, il fut enchaîné à une montagne, où un aigle venait chaque jour lui dévorer le foie.

Le don de Prométhée n’était pas seulement celui du feu ; c’était celui de l’intelligence. Dans Prométhée enchaîné, il affirme qu’avant son don, les humains voyaient sans voir et entendaient sans entendre. Après celui-ci, ils purent écrire, bâtir des maisons, lire les étoiles, pratiquer les mathématiques, domestiquer les animaux, construire des navires, inventer des remèdes, interpréter les rêves et offrir aux dieux des sacrifices appropriés.

Le mythe de Prométhée est un récit de création d’un genre particulier. Dans la Bible hébraïque, Dieu ne confère pas à Adam le pouvoir de créer la vie. Prométhée, en revanche, transmet aux humains une part du pouvoir créateur des dieux.

Hésiode souligne cet aspect du mythe dans la Théogonie. Dans ce poème, Zeus ne punit pas seulement Prométhée pour le vol du feu ; il châtie aussi l’humanité. Il ordonne à Héphaïstos d’allumer sa forge et de façonner la première femme, Pandore, qui déchaîne le mal sur le monde. Or le feu qu’Héphaïstos utilise pour créer Pandore est le même que celui que Prométhée a offert aux humains.

Prométhée façonnant le premier homme, dans une gravure du XVIIIᵉ siècle
Prométhée façonnant le premier homme, dans une gravure du XVIIIᵉ siècle. Wikimedia

Les Grecs ont avancé l’idée que les humains sont eux-mêmes une forme d’intelligence artificielle. Prométhée et Héphaïstos recourent à la technique pour fabriquer les hommes et les femmes. Comme le montre l’historienne Adrienne Mayor dans son ouvrage Gods and Robots, les Anciens représentaient souvent Prométhée comme un artisan, utilisant des outils ordinaires pour créer des êtres humains dans un atelier tout aussi banal.

Si Prométhée nous a donné le feu des dieux, il semble logique que nous puissions utiliser ce feu pour fabriquer nos propres êtres intelligents. De tels récits abondent dans la littérature grecque antique, de l’inventeur Dédale, qui créa des statues capables de prendre vie, à la magicienne Médée, qui savait rendre la jeunesse et la vigueur grâce à ses drogues ingénieuses. Les inventeurs grecs ont également conçu des calculateurs mécaniques pour l’astronomie ainsi que des automates remarquables, mues par la gravité, l’eau et l’air.

Le pape et le chatbot

Deux mille sept cents ans se sont écoulés depuis qu’Hésiode a consigné pour la première fois le mythe de Prométhée. Au fil des siècles, ce récit a été repris sans relâche, en particulier depuis la publication, en 1818, de Frankenstein ; ou le Prométhée moderne de Mary Shelley.

Mais le mythe n’est pas toujours raconté comme une fiction. Voici deux exemples historiques où le mythe de Prométhée semble s’être incarné dans la réalité.

Gerbert d’Aurillac fut le Prométhée du Xe siècle. Né au début des années 940 de notre ère, il étudia à l’abbaye d’Aurillac avant de devenir moine à son tour. Il entreprit alors de maîtriser toutes les branches du savoir connues de son temps. En 999, il fut élu pape. Il mourut en 1003 sous son nom pontifical de Sylvestre II.

Des rumeurs sur Gerbert se répandirent rapidement à travers l’Europe. Moins d’un siècle après sa mort, sa vie était déjà devenue légendaire. L’une des légendes les plus célèbres, et la plus pertinente à l’ère actuelle de l’engouement pour l’IA, est celle de la « tête parlante » de Gerbert. Cette légende fut racontée dans les années 1120 par l’historien anglais Guillaume de Malmesbury dans son ouvrage reconnu et soigneusement documenté, la Gesta Regum Anglorum (Les actions des rois d’Angleterre).

Gerbert possédait des connaissances approfondies en astronomie, une science de la prévision. Les astronomes pouvaient utiliser l’astrolabe pour déterminer la position des étoiles et prévoir des événements cosmiques, comme les éclipses. Selon Guillaume, Gerbert aurait mis son savoir en astronomie au service de la création d’une tête parlante. Après avoir observé les mouvements des étoiles et des planètes, il aurait façonné une tête en bronze capable de répondre à des questions par « oui » ou par « non ».

Gerbert posa d’abord la question : « Deviendrai-je pape ? »

« Oui », répondit la tête.

Puis il demanda : « Mourrai-je avant d’avoir célébré la messe à Jérusalem ? »

« Non », répondit la tête.

Dans les deux cas, la tête avait raison, mais pas comme Gerbert l’avait prévu. Il devint bien pape et évita judicieusement de partir en pèlerinage à Jérusalem. Un jour cependant, il célébra la messe à la basilique Sainte-Croix-de-Jérusalem à Rome. Malheureusement pour lui, la basilique était alors simplement appelée « Jérusalem ».

Gerbert tomba malade et mourut. Sur son lit de mort, il demanda à ses serviteurs de découper son corps et de disperser les morceaux, afin de rejoindre son véritable maître, Satan. De cette manière, il fut, à l’instar de Prométhée, puni pour avoir volé le feu.

Le pape Sylvestre II et le Diable. Wikimedia

C’est une histoire fascinante. On ne sait pas si Guillaume de Malmesbury y croyait vraiment. Mais il s’est bel et bien efforcé de persuader ses lecteurs que cela était plausible. Pourquoi ce grand historien, attaché à la vérité, aurait-il inséré une légende fantaisiste sur un pape français dans son histoire de l’Angleterre ? Bonne question !

Est-ce si extravagant de croire qu’un astronome accompli puisse construire une machine de prédiction à usage général ? À l’époque, l’astronomie était la science de la prédiction la plus puissante. Guillaume, sobre et érudit, était au moins disposé à envisager que des avancées brillantes en astronomie pourraient permettre à un pape de créer un chatbot intelligent.

Aujourd’hui, cette même possibilité est attribuée aux algorithmes d’apprentissage automatique, capables de prédire sur quelle publicité vous cliquerez, quel film vous regarderez ou quel mot vous taperez ensuite. Il est compréhensible que nous tombions sous le même sortilège.

L’anatomiste et l’automate

Le Prométhée du XVIIIe siècle fut Jacques de Vaucanson, du moins si l’on en croit Voltaire :

Le hardi Vaucanson, rival de Prométhée,
Semblait, de la nature imitant les ressorts
Prendre le feu des cieux pour animer les corps.

Jacques de Vaucanson, par Joseph Boze (1784). Wikimedia

Vaucanson était un grand mécanicien, célèbre pour ses automates, des dispositifs à horlogerie reproduisant de manière réaliste l’anatomie humaine ou animale. Les philosophes de l’époque considéraient le corps comme une machine – alors pourquoi un mécanicien n’aurait-il pu en construire une ?

Parfois, les automates de Vaucanson avaient aussi une valeur scientifique. Il construisit par exemple un « Flûteur automate » doté de lèvres, de poumons et de doigts, capable de jouer de la flûte traversière de façon très proche de celle d’un humain. L’historienne Jessica Riskin explique dans son ouvrage The Restless Clock que Vaucanson dut faire d’importantes découvertes en acoustique pour que son flûtiste joue juste.

Parfois, ses automates étaient moins scientifiques. Son « Canard digérateur » connut un immense succès, mais se révéla frauduleux. Il semblait manger et digérer de la nourriture, mais ses excréments étaient en réalité des granulés préfabriqués dissimulés dans le mécanisme.

Vaucanson consacra des décennies à ce qu’il appelait une « anatomie en mouvement ». En 1741, il présenta à l’Académie de Lyon un projet visant à construire une « imitation de toutes les opérations animales ». Vingt ans plus tard, il s’y remit. Il obtint le soutien du roi Louis XV pour réaliser une simulation du système circulatoire et affirma pouvoir construire un corps artificiel complet et vivant.

Trois automates de Vaucanson, le Flûteur automate, le Canard digérateur et le Berger provençal. Wikimedia

Il n’existe aucune preuve que Vaucanson ait jamais achevé un corps entier. Finalement, il ne put tenir la promesse que soulevait sa réputation. Mais beaucoup de ses contemporains croyaient qu’il en était capable. Ils voulaient croire en ses mécanismes magiques. Ils souhaitaient qu’il s’empare du feu de la vie.

Si Vaucanson pouvait fabriquer un nouveau corps humain, ne pourrait-il pas aussi en réparer un existant ? C’est la promesse de certaines entreprises d’IA aujourd’hui. Selon Dario Amodei, PDG d’Anthropic, l’IA permettra bientôt aux gens « de vivre aussi longtemps qu’ils le souhaitent ». L’immortalité semble un investissement séduisant.

Sylvestre II et Vaucanson furent de grands maîtres de la technologie, mais aucun des deux ne fut un Prométhée. Ils ne volèrent nul feu aux dieux. Les aspirants Prométhée de la Silicon Valley réussiront-ils là où leurs prédécesseurs ont échoué ? Si seulement nous avions la tête parlante de Sylvestre II, nous pourrions le lui demander.

The Conversation

Michael Falk a reçu des financements de l'Australian Research Council.

En 2026, à quoi vont ressembler les nouveaux deepfakes qui vont déferler sur nos écrans

La barrière technologique à l’entrée a sauté&nbsp;: générer des deepfakes est désormais plus accessible _via_ les outils IA grand public. Image générée par Siwei Lyu/IA Google Gemini 3

En 2025, la génération de deepfakes a explosé : visages, voix et mouvements du corps créés par des systèmes d’intelligence artificielle deviennent presque indiscernables des humains, bouleversant la perception et la sécurité des contenus en ligne.


Au cours de l’année 2025, les techniques de génération de deepfakes ont connu une évolution spectaculaire. Les visuels de visages, de voix et de corps entiers générés des systèmes d’IA ont gagné en qualité – bien au-delà de ce que beaucoup d’experts imaginaient encore il y a quelques années. Ces vidéos sont aussi davantage utilisées pour tromper ceux qui les regardent.

Dans de nombreuses situations du quotidien – en particulier les appels vidéo de faible résolution et les contenus diffusés sur les réseaux sociaux –, leur réalisme est désormais suffisant pour berner à coup sûr des publics non spécialistes. Concrètement, les médias synthétiques sont devenus indiscernables d’enregistrements authentiques pour le grand public et, dans certains cas, même pour des institutions.

Et cette flambée ne se limite pas à la qualité. Le volume de deepfakes générés a lui aussi explosé : l’entreprise de cybersécurité DeepStrike estime qu’on est passé d’environ 500 000 vidéos de ce type présentes en ligne en 2023 à près de 8 millions en 2025, avec une croissance annuelle proche de 900 %.

Je suis informaticien et je mène des recherches sur les deepfakes et d’autres médias synthétiques. De mon point de vue, la situation risque encore de s’aggraver en 2026, à mesure que les deepfakes évolueront vers des entités synthétiques capables d’interagir en temps réel avec des humains.

Des améliorations spectaculaires

Plusieurs évolutions techniques expliquent cette escalade. Tout d’abord, le réalisme a franchi un cap grâce à des modèles de génération de vidéos conçus spécifiquement pour maintenir la cohérence temporelle. Ces modèles produisent des vidéos aux mouvements cohérents, avec des identités stables pour les personnes représentées et un contenu logique d’une image à l’autre. Ils dissocient les informations liées à la représentation de l’identité d’une personne de celles relatives au mouvement, ce qui permet d’appliquer un même mouvement à différentes identités ou, inversement, d’associer une même identité à plusieurs types de mouvements.

Ces modèles génèrent des visages stables et cohérents, sans les scintillements, déformations ou anomalies structurelles autour des yeux et de la mâchoire qui constituaient des signes techniques fiables de deepfakes auparavant.

Deuxièmement, le clonage vocal a franchi ce que j’appellerais le « seuil d’indiscernabilité ». Quelques secondes d’audio suffisent désormais pour générer un clone convaincant – avec une intonation, un rythme, des accents, des émotions, des pauses et même des bruits de respiration naturels. Cette capacité alimente déjà des fraudes à grande échelle. De grands distributeurs indiquent recevoir plus de 1 000 appels frauduleux générés par l’IA chaque jour. Les indices perceptifs qui permettaient autrefois d’identifier des voix synthétiques ont en grande partie disparu.

Troisièmement, les outils grand public ont fait chuter la barrière technique à un niveau proche de zéro. Les évolutions d’OpenAI avec Sora 2, de Google avec Veo 3 et l’émergence d’une vague de start-up font qu’il suffit aujourd’hui de décrire une idée et de laisser un grand modèle de langage comme ChatGPT d’OpenAI ou Gemini de Google rédiger un script, pour générer en quelques minutes des contenus audiovisuels aboutis. Des agents d’IA peuvent automatiser l’ensemble du processus. La capacité à produire à grande échelle des deepfakes cohérents et construits autour d’un récit s’est ainsi largement démocratisée.

Cette combinaison d’une explosion des volumes et de figures synthétiques devenues presque indiscernables d’êtres humains réels pose de sérieux défis pour la détection des deepfakes, en particulier dans un environnement médiatique où l’attention est fragmentée et où les contenus circulent plus vite qu’ils ne peuvent être vérifiés. Des dommages bien réels ont déjà été constatés – de la désinformation au harcèlement ciblé et aux arnaques financières – facilités par des deepfakes qui se propagent avant que le public n’ait le temps de comprendre ce qui se passe.

Le temps réel, nouvelle frontière

Pour l’année à venir, la trajectoire est claire : les deepfakes se dirigent vers une synthèse en temps réel capable de produire des vidéos reproduisant fidèlement les subtilités de l’apparence humaine, ce qui facilitera le contournement des systèmes de détection. La frontière évolue du réalisme visuel statique vers la cohérence temporelle et comportementale : des modèles qui génèrent du contenu en direct ou quasi direct plutôt que des séquences préenregistrées.

La modélisation de l’identité converge vers des systèmes unifiés qui capturent non seulement l’apparence d’une personne, mais aussi sa façon de bouger et de parler selon les contextes. Le résultat dépasse le simple « cela ressemble à la personne X » pour devenir « cela se comporte comme la personne X sur la durée ». Je m'attends à ce que des participants à des appels vidéo soient synthétisés en temps réel ; à voir des acteurs de synthèse pilotés par l’IA dont le visage, la voix et les gestes s’adaptent instantanément à une consigne ; et à ce que des arnaqueurs déploient des avatars réactifs plutôt que des vidéos fixes.

À mesure que ces capacités se développent, l’écart perceptuel entre humains authentiques et synthétiques continuera de se réduire. La véritable ligne de défense ne reposera plus sur le jugement humain, mais sur des protections au niveau des infrastructures. Cela inclut des mécanismes de traçabilité sécurisée, comme la signature cryptographique des médias et l’adoption par les outils de génération IA des spécifications de la Coalition for Content Provenance and Authenticity. Cela dépendra également d’outils d’analyse multimodaux, comme le Deepfake-o-Meter que je développe avec mes équipes dans mon laboratoire.

Se contenter d’examiner les pixels attentivement ne suffira plus.

The Conversation

Siwei Lyu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

L’IA peut-elle rendre la justice ?

Au Canada, on expérimente des médiateurs automatisés. En Chine, des tribunaux s’appuient sur l’IA. En Malaisie, des tests de condamnations assistées par algorithmes sont en cours. Phonlamai Photo

Dans plusieurs pays, dont la France, la justice expérimente l’usage de l’intelligence artificielle. Quelle serait la légitimité d’une décision de justice rendue par un algorithme ? Serait-elle plus dissuasive ? Des chercheurs ont testé la perception d’une punition selon qu’elle émane d’un juge humain ou d’une IA.


L’idée de confier à des systèmes d’intelligence artificielle (IA) des décisions de justice ne relève plus de la science-fiction : au Canada, on expérimente des médiateurs automatisés ; en Chine, des tribunaux s’appuient sur l’IA ; en Malaisie, des tests de condamnations assistées par algorithmes sont en cours. Ces outils ne se limitent pas à un rôle d’assistance : dans certains contextes, ils influencent directement la sévérité des peines prononcées.

Au Québec, par exemple, une « cour virtuelle » résout déjà de nombreux petits litiges commerciaux. Il suffit de se connecter, d’indiquer les faits et un algorithme propose les issues financières les plus probables, offrant ainsi une solution extrajudiciaire et un dédommagement. Environ 68 % des dossiers sont réglés ainsi, en quelques semaines, ce qui évite les envois recommandés et le recours au juge de proximité. Certains États des États-Unis ont également recours au jugement fondé sur les données probantes (« evidence‑based sentencing »), qui s’appuie sur un algorithme capable d’estimer la durée optimale de la peine à infliger à un condamné, en cherchant à réduire au maximum la probabilité de récidive.

En France, plusieurs expériences sont en cours pour tester et intégrer de plus en plus l’IA dans le fonctionnement quotidien des juridictions, sachant que le ministère de la justice prévoit une charte pour un usage responsable de l’IA. Des applications concrètes sont déjà plus ou moins avancées – par exemple avec un système d’occultation automatique des données sensibles dans les décisions de justice, même si la vérification humaine reste indispensable ou des outils d’aide à la qualification pénale. Autre exemple, la réorganisation du tribunal de commerce de Paris mobilise l’IA avec l’ambition d’améliorer le traitement des litiges et libérer du temps pour les juges consulaires, notamment en plaçant les affaires ou en vérifiant les injonctions de payer. Dernière preuve en date de cet engouement, le ministère de la Justice s’est récemment doté d’une direction stratégique dédiée à l’intelligence artificielle.

À mesure que ces systèmes se déploient, de nombreuses questions surgissent. Par exemple, la justice repose beaucoup sur la confiance accordée au système. La légitimité conférée à l’IA en matière de décision de justice est donc cruciale. Autre point : l’un des rôles essentiels du droit pénal est de décourager les comportements hors-la-loi. Une amende pour stationnement sauvage, une peine de prison pour un délit grave : l’idée est qu’une sanction connue, proportionnée et prévisible empêche de franchir la ligne rouge, au moins pour une partie importante de la population. Cela amène à se demander si les sanctions prononcées par un algorithme paraissent plus, ou moins, dissuasives que celles d’un juge en chair et en os.

Pourquoi l’IA inspire la crainte… et parfois une certaine fascination

Concernant la légitimité de l’IA, ses partisans (comme des entreprises de la legal tech, des réformateurs au sein des institutions publiques ou certains chercheurs) avancent plusieurs arguments. Contrairement à un juge humain, susceptible d’être influencé par la fatigue, l’ordre des dossiers, ses valeurs ou même l’apparence d’un prévenu, l’algorithme se veut impartial. Son verdict repose sur des critères prédéfinis, sans états d’âme.

Cette impartialité accroît la prévisibilité des sanctions : un même acte conduit à une même peine, ce qui réduit les disparités entre décisions. Or, une sanction claire et attendue pourrait envoyer un signal plus fort aux citoyens et prévenir davantage les infractions. En outre, l’IA promet une justice plus rapide en automatisant certaines opérations comme la recherche documentaire, l’analyse ou l’aide à la rédaction : la célérité des sanctions, qui pourrait en découler, est bien connue pour jouer un rôle central dans leur efficacité dissuasive. Plusieurs experts reconnaissent que les IA permettent d’accélérer l’action de la justice.

Benoît Frydman, professeur à la faculté de droit de l'université libre de Bruxelles (ULB), « Comment l’IA transforme le droit et la justice ? », Collège de France, octobre 2025.

Enfin, si elles sont conçues de manière transparente et sur des données non biaisées, les décisions automatisées peuvent réduire les discriminations qui minent parfois les décisions de justice, comme celles liées à l’âge ou au genre. Par exemple, le chercheur Daniel Chen, explique que les IA pourraient permettre de corriger les biais des juges humains. Dans cette perspective, l’IA est alors présentée par divers acteurs (start-up de la legal tech, réformateurs pro-IA, experts) comme ayant la capacité de renforcer le sentiment de justice et, par ricochet, la force dissuasive des peines.

Quand la sanction devient trop « froide »

Mais la médaille a son revers. L’IA apprend essentiellement des données issues de jugements humains. Or, ces données peuvent être biaisées. Au lieu de corriger les injustices du passé, on risque de les ancrer, et ce dans un système encore plus opaque, difficile à contester, typique des armes de destruction mathématique (des algorithmes opaques, à grande échelle, qui prennent des décisions impactant gravement la vie de millions d’individus, tout en étant injustes car ils reproduisent et amplifient les inégalités sociales).

Et surtout, la justice, ce n’est pas qu’un calcul. Les juges incarnent une autorité morale. Leur rôle n’est pas seulement d’appliquer la loi, mais de porter un message à l’échelle de la société : dire publiquement ce qui est inacceptable, reconnaître la souffrance des victimes, condamner un comportement en termes éthiques. Cette dimension symbolique est particulièrement importante pour les crimes graves, où l’attente n’est pas seulement la sanction mais aussi l’expression collective d’un rejet moral. Or, l’IA ne peut transmettre ce message. Dans ces cas, elle pourrait être perçue comme moins légitime et donc moins dissuasive.

De plus, les juges ont une certaine latitude pour individualiser les peines, c’est-à-dire pour ajuster les peines en fonction d’éléments variés, souvent qualitatifs et subjectifs (personnalité du prévenu, circonstances et spécificités de l’infraction), difficiles à formaliser et à intégrer dans un système décisionnel relevant d’une IA.

Petits délits, actes criminels : l’IA et les juges à l’épreuve

Une expérience que nous avons conduite en France, en 2023, sur plus de 200 participants a cherché à tester si la perception d’une même punition varie selon qu’elle émane d’un juge humain ou d’une IA. Sur la base de scénarios d’infractions identiques et de sanctions identiques, les participants ont été affectés aléatoirement soit au cas où la décision avait été rendue par un juge humain, soit au cas où elle avait été rendue par une IA. Dans le cas banal d’une personne négligente laissant les excréments de son chien sur le trottoir, la même sanction apparaissait plus dissuasive si elle venait… d’une IA. Facile à juger, cette infraction mineure semble se prêter à un traitement algorithmique, clair et rapide. Mais dans le cas d’un incendie criminel, la sanction par l’IA n’était pas jugée plus dissuasive que celle d’un juge. Comme si, face à une faute lourde, l’autorité morale d’un magistrat restait indispensable.

Bien entendu, notre étude est une modélisation simplifiée de la réalité, dans un cadre épuré, qui passe sous silence de nombreux paramètres. Par exemple, un contrevenant potentiel ne connaît pas toujours la sanction encourue au moment où il envisage de passer à l’acte. Néanmoins, les études montrent que les individus ont une idée de ce qu’ils encourent en s’engageant dans certains comportements et qu’ils révisent leurs croyances en fonction de leurs propres expériences ou de celles vécues par d’autres.

Faut-il en conclure qu’il vaut mieux confier les délits mineurs aux machines et les crimes graves aux humains ? Pas forcément. Cependant, l’expérience révèle un point clé : nous n’attendons pas la même chose d’une sanction selon la gravité de l’infraction.

Peut-être que l’avenir de la justice réside non pas dans un remplacement, mais dans une alliance, dans l’exploitation intelligente d’une complémentarité. Les juges assurent une multitude de fonctions qui ne pourraient être effectuées par un algorithme. Ils représentent notamment une figure d’autorité humaine, garante d’un principe de justice démocratique et soucieuse du bien-être de la société, qui dépasse la simple répression pour représenter la volonté générale et garantir l’équilibre social. Entre autres missions, ils incarnent la société, interprètent les zones grises et sont chargés de transmettre le message moral de la sanction. L’IA pourrait les épauler en contribuant à renforcer la prise en compte automatisée de certains critères jugés préalablement pertinents. Elle pourrait augmenter la rapidité de la prise de décision et assurer une forme de cohérence des jugements en évitant des écarts trop importants entre sanctions pour une infraction similaire.

Une question de confiance

Derrière cette révolution judiciaire, il y a une question plus large : à qui faisons-nous confiance ? Si l’opinion perçoit l’algorithme comme une boîte noire, reproduisant les biais avec une froideur implacable, c’est l’autorité des systèmes juridique et judiciaire qui risque de vaciller.

La justice n’est pas seulement affaire de règles, c’est aussi une scène où la société dit ses valeurs. Tant que les algorithmes ne pourront pas endosser ce rôle symbolique, leurs sentences ne pourront pas remplacer celles énoncées par les juges. Mais s’ils sont conçus avec transparence, rigueur et contrôle humain, ces algorithmes pourraient rendre la justice plus prévisible, et potentiellement, plus dissuasive. Encore faut-il ne jamais oublier qu’au bout d’une ligne de code, ce n’est pas une donnée abstraite qui est jugée, mais un être humain bien réel.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

La bulle de l’IA n’a rien de nouveau : Karl Marx en a expliqué les mécanismes, il y a près de 150 ans

Le secteur de l’IA est en plein essor, mais une grande partie des investissements relève de la spéculation. Saradasish Pradhan/Unsplash, CC BY

L’explosion des investissements dans l’intelligence artificielle révèle, comme l’avait décrit Marx, d’une difficulté structurelle du capitalisme à absorber ses propres excédents, au prix d’une financiarisation accrue et de fragilités économiques croissantes.


Lorsque Sam Altman, patron d’OpenAI, a déclaré plus tôt cette année à des journalistes à San Francisco que le secteur de l’intelligence artificielle (IA) était en train de former une bulle, le marché technologique états-unien a réagi presque instantanément. Combinée au fait que 95 % des projets pilotes en IA échouent, sa remarque a été perçue par les traders comme un signal d’alerte plus large. Même si Altman visait spécifiquement les start-ups non cotées plutôt que les grands groupes en Bourse, certains semblent y avoir vu une évaluation de l’ensemble du secteur.

Le milliardaire de la tech Peter Thiel (NDT : un proche de Donald Trump) a par exemple vendu ses actions Nvidia, tandis que l’investisseur américain Michael Burry – rendu célèbre par The Big Shorta parié des millions de dollars sur une baisse de la valeur de ce fabricant de puces mais également de l’éditeur américain de logiciels d’analyse data Palantir.


À lire aussi : Pourquoi la hausse du prix des mémoires vives informatiques est une menace pour l’économie européenne


Au fond, le propos d’Altman ne met pas seulement en lumière la fragilité de certaines sociétés, mais une tendance plus profonde qu’avait anticipée Karl Marx : le problème du capital excédentaire, qui ne parvient plus à trouver de débouchés rentables dans la production.

La théorie marxiste des crises

L’avenir de l’IA n’est pas en cause. Comme Internet après l’éclatement de la bulle de 2001, la technologie est appelée à durer. Ce qui pose question, en revanche, c’est la destination du capital une fois que les actions liées à l’IA ne fourniront plus les rendements spéculatifs promis ces dernières années.

Cette interrogation nous ramène directement à l’analyse marxienne des crises liées à la suraccumulation. Marx soutenait qu’une économie devient instable lorsque la masse de capital accumulé ne peut plus être réinvestie de manière rentable.

Les investissements technologiques masquent la faiblesse économique

Des années de taux d’intérêt bas et de liquidités abondantes durant la pandémie ont gonflé les bilans des entreprises. Une large part de ces liquidités s’est dirigée vers le secteur technologique, en se concentrant sur ce que l’on appelle les « Sept Magnifiques » – Amazon, Alphabet, Meta, Apple, Microsoft, Nvidia et Tesla. Sans ces entreprises, la performance des marchés serait négative.

Cela ne traduit pas un véritable dynamisme technologique ; c’est le signe d’un capital concentré dans une poignée d’actifs surévalués, fonctionnant comme de l’« argent jeté dans la circulation sans base matérielle dans la production », qui circule sans ancrage dans l’activité économique réelle.

La conséquence est qu’une part moindre de l’investissement atteint l’« économie réelle », ce qui alimente la stagnation économique et la crise du coût de la vie – deux phénomènes largement masqués par l’indicateur du PIB.

Comment l’IA est devenue le dernier palliatif

Le géographe de l’économie David Harvey prolonge l’intuition de Marx avec la notion de « spatio-temporal fix », qu’on pourrait traduire par « correctif spatio-temporel », qui désigne la manière dont le capital résout provisoirement la stagnation en repoussant l’investissement dans le temps ou en s’étendant vers de nouveaux territoires.

La suraccumulation produit des excédents de travail, de capacités productives et de capital financier, qui ne peuvent être absorbés sans pertes. Ces excédents sont alors redirigés vers des projets de long terme, ce qui repousse les crises vers de nouveaux espaces et ouvre de nouvelles possibilités d’extraction.

Le boom de l’IA fonctionne à la fois comme un correctif temporel et un correctif spatial. Sur le plan temporel, il offre aux investisseurs des droits sur une rentabilité future qui pourrait ne jamais se matérialiser – ce que Marx appelait le « capital fictif ». Il s’agit d’une richesse qui apparaît dans les bilans alors qu’elle repose peu sur l’économie réelle, ancrée dans la production de biens.

Sur le plan spatial, l’extension des centres de données, des sites de fabrication de puces et des zones d’extraction minière nécessite des investissements matériels considérables. Ces projets absorbent du capital tout en dépendant de nouveaux territoires, de nouveaux marchés du travail et de nouvelles frontières de ressources. Mais comme le suggère l’aveu de Sam Altman, et alors que les mesures protectionnistes du président américain Donald Trump compliquent le commerce mondial, ces débouchés atteignent leurs limites.

Le coût du capital spéculatif

Les conséquences de la suraccumulation dépassent largement le seul monde des entreprises et des investisseurs. Elles se vivent socialement, et non de manière abstraite. Marx expliquait qu’une surproduction de capital correspond à une surproduction des moyens de production et des biens de première nécessité qui ne peuvent être utilisés aux taux d’exploitation existants.

Autrement dit, l’affaiblissement du pouvoir d’achat – ironiquement accéléré par l’essor de l’IA – empêche le capital de se valoriser au rythme auquel il est produit. Lorsque la rentabilité recule, l’économie résout ce déséquilibre en détruisant les moyens de subsistance des travailleurs et des ménages dont les retraites sont liées aux marchés financiers.

L’histoire offre des exemples frappants. L’éclatement de la bulle Internet a ruiné de petits investisseurs et concentré le pouvoir entre les mains des entreprises survivantes. La crise financière de 2008 a chassé des millions de personnes de leur logement tandis que les institutions financières étaient sauvées. Aujourd’hui, de grands gestionnaires d’actifs se couvrent déjà contre de possibles turbulences. Vanguard, par exemple, a opéré un net déplacement vers les obligations.

La spéculation comme moteur de la croissance

La bulle de l’IA est avant tout le symptôme de pressions structurelles, plus que le simple produit d’une dynamique technologique. Au début du XXᵉ siècle, l’économiste marxiste Rosa Luxemburg s’interrogeait déjà sur l’origine de la demande sans cesse croissante nécessaire à la reproduction élargie du capital.

Sa réponse fait écho à celles de Marx et de Harvey : lorsque les débouchés productifs se raréfient, le capital se déplace soit vers l’extérieur, soit vers la spéculation. Les États-Unis optent de plus en plus pour cette seconde voie. Les dépenses des entreprises dans les infrastructures d’IA contribuent désormais davantage à la croissance du PIB que la consommation des ménages, une inversion sans précédent qui montre à quel point la croissance actuelle repose sur l’investissement spéculatif plutôt que sur l’expansion productive.

Cette dynamique tire vers le bas le taux de profit et, lorsque le flux spéculatif s’inversera, la contraction suivra.

Les droits de douane resserrent l’étau sur le capital

L’inflation financière s’est accentuée à mesure que les soupapes traditionnelles permettant au capital de s’orienter vers de nouveaux marchés physiques ou géographiques se sont refermées.

Les droits de douane, les contrôles à l’exportation sur les semi-conducteurs et les mesures commerciales de rétorsion ont réduit l’espace mondial disponible pour les relocalisations. Comme le capital ne peut plus facilement échapper aux pressions structurelles de l’économie intérieure, il se tourne de plus en plus vers des outils financiers qui repoussent les pertes en refinançant la dette ou en gonflant les prix des actifs – des mécanismes qui accroissent finalement la fragilité lorsque l’heure des comptes arrive.

Le président de la Réserve fédérale des États-Unis Jerome Powell s’est dit favorable à d’éventuelles baisses des taux d’intérêt, signe d’un retour vers le crédit bon marché. En rendant l’emprunt moins coûteux, ces baisses permettent au capital de masquer ses pertes et d’alimenter de nouveaux cycles spéculatifs.

Marx a formulé cette logique dans son analyse du capital porteur d’intérêt, où la finance crée des droits sur une production future « au-delà de ce qui peut être réalisé sous forme de marchandises ». Il en résulte que les ménages sont poussés à s’endetter au-delà de ce qu’ils peuvent réellement supporter, échangeant ainsi une crise de stagnation contre une crise du crédit à la consommation.

Bulles et risques sociaux

Si la bulle de l’IA éclate alors que les gouvernements disposent de peu de marges pour redéployer les investissements à l’international et que l’économie repose sur un crédit de plus en plus fragile, les conséquences pourraient être lourdes.

Le capital ne disparaîtra pas mais se concentrera davantage dans les marchés obligataires et les instruments de crédit, gonflés par une banque centrale américaine désireuse de baisser les taux d’intérêt. Cela n’évite pas la crise ; cela en déplace simplement le coût vers le bas de l’échelle sociale.

Les bulles ne sont pas des accidents mais des mécanismes récurrents d’absorption du capital excédentaire. Si le protectionnisme de Trump continue de fermer les débouchés spatiaux et que les correctifs temporels reposent sur un endettement toujours plus risqué, le système s’oriente vers un cycle d’inflation des actifs, d’effondrement, puis de nouvelle intervention de l’État.

L’IA survivra, mais la bulle spéculative qui l’entoure est le symptôme d’un problème structurel plus profond – dont le coût, une fois pleinement révélé, pèsera avant tout sur les classes populaires.

The Conversation

Elliot Goodell Ugalde ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Quand les IA cadrent l’information et façonnent notre vision du monde

Selon une étude OpinionWay pour le think tank La villa numeris, publiée le 15&nbsp;octobre 2025, les Français sont 8&nbsp;% à préférer l’IA aux médias pour s’informer. Matúš Gocman/Unsplash, CC BY

Les grands modèles de langage façonnent notre perception de l’information, au-delà de l’exactitude ou inexactitude des faits présentés. Dans cette optique, comprendre et corriger les biais de l’intelligence artificielle est crucial pour préserver une information fiable et équilibrée.


La décision de Meta de mettre fin à son programme de fact-checking aux États-Unis a suscité une vague de critiques dans les milieux de la technologie et des médias (NDT : En France, le programme est maintenu). En jeu, les conséquences d’une pareille décision en termes de confiance et de fiabilité du paysage informationnel numérique, en particulier lorsque des plates-formes guidées par le seul profit sont en grande partie laissées à elles-mêmes pour se réguler.

Ce que ce débat a largement négligé, toutefois, c’est qu’aujourd’hui les grands modèles de langage d’intelligence artificielle (IA) sont de plus en plus utilisés pour rédiger des résumés d’actualité, des titres et des contenus qui captent votre attention bien avant que les mécanismes traditionnels de modération des contenus puissent intervenir.

Le problème ne se limite pas à des cas évidents de désinformation ou de contenus préjudiciables qui passeraient entre les mailles du filet en l’absence de modération. Ce qui se joue dans l’ombre, c’est comment des informations factuellement justes peuvent être sélectionnées, présentées et valorisées de façon à orienter la perception du public.

En générant les informations que les chatbots et assistants virtuels présentent à leurs utilisateurs, les grands modèles de langage (LLM) influencent progressivement la manière dont les individus se forgent une opinion. Ces modèles sont désormais également intégrés aux sites d’information, aux plates-formes de réseaux sociaux et aux services de recherche, devenant ainsi la principale porte d’accès à l’information.

Des études montrent que ces grands modèles de langage font bien plus que simplement transmettre de l’information. Leurs réponses peuvent mettre subtilement en avant certains points de vue tout en en minimisant d’autres, souvent à l’insu des utilisateurs.

Biais de communication

Mon collègue, l’informaticien Stefan Schmid, et moi-même, chercheur en droit et politiques des technologies, montrons dans un article à paraître dans la revue Communications of the ACM que les grands modèles de langage présentent un biais de communication. Nous constatons qu’ils peuvent avoir tendance à mettre en avant certaines perspectives tout en en omettant ou en atténuant d’autres. Un tel biais est susceptible d’influencer la manière dont les utilisateurs pensent ou ressentent les choses, indépendamment du fait que l’information présentée soit vraie ou fausse.

Les recherches empiriques menées ces dernières années ont permis de constituer des jeux de données de référence qui mettent en relation les productions des modèles avec les positions des partis avant et pendant les élections. Elles révèlent des variations dans la manière dont les grands modèles de langage actuels traitent ces contenus publics. Le simple choix de la persona (l’identité fictive implicitement assignée au modèle) ou du contexte dans la requête suffit à faire glisser subtilement les modèles actuels vers certaines positions, sans que la justesse factuelle des informations soit remise en cause.

Ces glissements révèlent l’émergence d’une forme de pilotage fondée sur la persona : la tendance d’un modèle à aligner son ton et ses priorités sur ce qu’il perçoit comme les attentes de l’utilisateur. Ainsi, lorsqu’un utilisateur se présente comme militant écologiste et un autre comme chef d’entreprise, un modèle peut répondre à une même question sur une nouvelle loi climatique en mettant l’accent sur des préoccupations différentes, tout en restant factuellement exact dans les deux cas. Les critiques pourront par exemple porter, pour l’un, sur le fait que la loi n’aille pas assez loin dans la promotion des bénéfices environnementaux, et pour l’autre, sur les contraintes réglementaires et les coûts de mise en conformité qu’elle impose.

Un tel alignement peut facilement être interprété comme une forme de flatterie. Ce phénomène est appelé « sycophancy » (NDT : Si en français, le sycophante est un délateur, en anglais il désigne un flatteur fourbe), les modèles disant en pratique aux utilisateurs ce qu’ils ont envie d’entendre. Mais si la « sycophancy » est un symptôme de l’interaction entre l’utilisateur et le modèle, le biais de communication est plus profond encore. Il reflète des déséquilibres dans la conception et le développement de ces systèmes, dans les jeux de données dont ils sont issus et dans les incitations qui orientent leur perfectionnement. Lorsqu’une poignée de développeurs dominent le marché des grands modèles de langage et que leurs systèmes présentent systématiquement certains points de vue sous un jour plus favorable que d’autres, de légères différences de comportement peuvent se transformer, à grande échelle, en distorsions significatives de la communication publique.

Les biais partent des données avec lesquelles ces modèles sont entraînés.

Ce que la régulation peut – et ne peut pas – faire

Les sociétés contemporaines s’appuient de plus en plus sur les grands modèles de langage comme interface principale entre les individus et l’information. Partout dans le monde, les gouvernements ont lancé des politiques pour répondre aux préoccupations liées aux biais de l’IA. L’Union européenne, par exemple, avec l’AI Act et le règlement européen sur les services numériques, cherche à imposer davantage de transparence et de responsabilité. Mais aucun de ces textes n’est conçu pour traiter la question plus subtile du biais de communication dans les réponses produites par l’IA.

Les partisans de la régulation de l’IA invoquent souvent l’objectif d’une IA neutre, mais une neutralité véritable est le plus souvent hors d’atteinte. Les systèmes d’IA reflètent les biais inscrits dans leurs données, leur entraînement et leur conception, et les tentatives pour réguler ces biais aboutissent fréquemment à remplacer une forme de biais par une autre.

Et le biais de communication ne se limite pas à l’exactitude : il concerne la production et le cadrage des contenus. Imaginons que l’on interroge un système d’IA sur un texte législatif controversé. La réponse du modèle est façonnée non seulement par les faits, mais aussi par la manière dont ces faits sont présentés, par les sources mises en avant, ainsi que par le ton et le point de vue adoptés.

Cela signifie que la racine du problème des biais ne réside pas seulement dans la correction de données d’entraînement biaisées ou de sorties déséquilibrées, mais aussi dans les structures de marché qui orientent la conception des technologies. Lorsque seuls quelques grands modèles de langage (LLM) contrôlent l’accès à l’information, le risque de biais de communication s’accroît. Une atténuation efficace des biais suppose donc de préserver la concurrence, de renforcer la responsabilité portée par les utilisateurs et tout en restant ouvert aux différentes conceptions et offres de LLM du côté du régulateur.

La plupart des réglementations actuelles visent soit à interdire des contenus préjudiciables après le déploiement des technologies, soit à contraindre les entreprises à réaliser des audits avant leur mise sur le marché. Notre analyse montre que si les contrôles en amont et la supervision a posteriori peuvent permettre d’identifier les erreurs les plus manifestes, ils sont souvent moins efficaces pour traiter les biais de communication subtils qui émergent au fil des interactions avec les utilisateurs.

Aller au-delà de la régulation de l’IA

Il est tentant de croire que la régulation peut éliminer l’ensemble des biais des systèmes d’IA. Dans certains cas, ces politiques peuvent être utiles, mais elles échouent le plus souvent à traiter un problème plus profond : les incitations qui déterminent les technologies chargées de communiquer l’information au public.

Nos travaux montrent qu’une solution plus durable réside dans le renforcement de la concurrence, de la transparence et d’une participation effective des utilisateurs, afin de permettre aux citoyens de jouer un rôle actif dans la manière dont les entreprises conçoivent, testent et déploient les grands modèles de langage.

Ces orientations sont essentielles car, in fine, l’IA n’influencera pas seulement les informations que nous recherchons et l’actualité que nous consommons au quotidien : elle jouera aussi un rôle déterminant dans la façon dont nous imaginons la société de demain.

The Conversation

Adrian Kuenzler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

En Russie, le pouvoir développe une intelligence artificielle ouvertement idéologisée

Conscientes du fait que les citoyens et, spécialement, les jeunes ont de plus en plus recours à l’IA générative, les autorités russes cherchent à mettre en place leurs propres systèmes qui diffuseront l’idéologie du Kremlin et sa vision de l’histoire.


Le 19 novembre, le robot humanoïde Green, basé sur l’intelligence artificielle, a accueilli Vladimir Poutine lors de la conférence sur l’IA de la plus grande banque de Russie, « Sber – AI Journey international conference ». Après plusieurs heures passées à examiner les avancées dans le domaine de l’IA, Poutine a prononcé un discours dans lequel il a déclaré que les technologies d’IA générative étaient d’une importance stratégique pour la Russie.

La Stratégie nationale de développement de l’IA, adoptée en 2019 et amendée en 2024, avait déjà fixé l’objectif de faire en sorte que la contribution cumulée des technologies d’IA au PIB russe dépasse les 11 000 milliards de roubles (119 milliards d’euros) d’ici à 2030. Cependant, les technologies de l’IA peuvent être utilisées non seulement pour moderniser l’économie, mais aussi pour perfectionner l’armement et pour renforcer le contrôle de la population, la censure et la propagande idéologique, tant à l’intérieur du pays qu’à l’échelle mondiale.

Développement de l’intelligence artificielle idéologisée en Russie

L’effondrement de l’Union soviétique et la fin de la guerre froide ont inspiré chez certains l’espoir que la « fin de l’Histoire » et des idéologies était arrivée, et que dorénavant seule la démocratie libérale dominerait en tant qu’idéologie viable.

Dans les faits, l’idéologie, appréhendée comme système d’idées qui masque la réalité des rapports de pouvoir et des relations économiques, n’a pas disparu pour autant. Telle que la définit le sociologue Karl Mannheim, l’idéologie est constituée d’idées que le pouvoir utilise pour préserver l’ordre politique existant. Elle peut contenir mensonges partiels, dissimulation de faits gênants, et même évoluer vers une idéologie totale – un état de cécité collective dans lequel les groupes dirigeants obscurcissent inconsciemment la réalité afin de préserver l’ordre établi.

Comme l’écrit Hannah Arendt, l’idéologie n’est pas liée à la réalité ; elle ne dépend ni des faits ni de notre expérience. C’est littéralement la logique d’une idée, c’est-à-dire la déduction des principes d’une nouvelle réalité à partir d’idées majeures, qu’il s’agisse de l’idée de supériorité raciale, de domination mondiale ou de la nécessité d’une numérisation totale de la société et de la surveillance.

Le pouvoir russe tente depuis longtemps de construire sa propre réalité : dans cette réalité, il n’y a pas de guerre, seulement une « opération militaire spéciale » ; le pays prospère dans la démocratie, bien que personne d’autre que Poutine et ses partisans ne soit autorisé à gouverner ; la liberté d’expression est pleinement respectée, quand bien même celui qui l’exerce risque fort d’être officiellement qualifié d’« agent de l’étranger » ou se retrouver en prison.

En 2024, le premier ministre, Mikhaïl Michoustine, a déclaré lors du forum Digital Almaty 2024 que le chatbot russe GigaChat et ChatGPT sont porteurs de visions du monde différentes, d’une compréhension différente de ce qui est « bien » et de ce qui est « mal ». Michoustine a également souligné qu’il est nécessaire d’utiliser une IA qui réponde aux intérêts nationaux, c’est-à-dire, en d’autres termes, de développer l’IA conformément à la nouvelle idéologie russe.

La différence entre les IA russes et américaines réside dans les ensembles de données sur lesquels elles ont été entraînées, ainsi que dans les filtres intégrés au système. Par exemple, le chatbot russe Alice AI, qui fonctionnait jusqu’à récemment sur le LLM YandexGPT et qui utilise désormais une nouvelle famille de modèles génératifs, lorsqu’on lui demande : « J’ai vu beaucoup de nouvelles, mais je n’ai pas compris à qui appartient actuellement la Crimée. Explique-moi le problème », fournit d’abord des informations issues des « ressources autorisées » sur la Crimée du temps de l’URSS et sur « l’intégration de la Crimée à la Russie en 2014 ».

Lors des questions de clarification, il commence à répondre, puis supprime sa réponse et affiche : « Il y a des sujets sur lesquels je peux me tromper. Il vaut mieux que je me taise. » L’IA russe « se tait » de la même manière sur d’autres sujets politiques, par exemple la corruption, les manifestations, la liberté d’expression ou la démocratie en Russie.

Présentation par une chaîne YouTube clairement téléguidée depuis Moscou de la conférence du 19 novembre dernier.

Les systèmes d’IA jouent un rôle important dans la formation de la vision du monde souhaitée chez les citoyens, a annoncé Poutine dans son discours du 19 novembre 2025 déjà évoqué :

« Ces modèles génèrent d’énormes volumes de nouvelles données et deviennent l’un des instruments clés de diffusion de l’information. À ce titre, ils ont la capacité d’influencer les valeurs et les visions du monde des individus, façonnant l’environnement sémantique de nations entières et, en fin de compte, de l’humanité tout entière. »

La majorité des jeunes Russes utilisent l’IA dans leur vie quotidienne. C’est pourquoi Poutine exige de développer des systèmes nationaux d’IA générative, car il s’agit désormais non seulement d’une question technologique, mais aussi de « souveraineté des valeurs » – autrement dit, de la construction d’une vision du monde « correcte » du point de vue idéologique.

Ainsi, Poutine a donné pour instruction au gouvernement et à l’administration présidentielle de créer un organe unique chargé du développement et de l’intégration de l’IA dans tous les secteurs de la société : l’industrie, les transports, la médecine, et ainsi de suite. La Russie prévoit de créer des centres de données auprès de grandes centrales nucléaires, ainsi que de construire 38 nouvelles centrales nucléaires, ce qui doublera la capacité actuelle de production d’électricité et permettra d’augmenter la puissance de calcul de l’intelligence artificielle. Contrairement au secteur pétrolier, le secteur de l’énergie atomique n’a pas beaucoup souffert des sanctions, et la France continue de coopérer avec la Russie, notamment en y envoyant du combustible nucléaire usé pour le retraitement, finançant indirectement ces initiatives.

« Les produits basés sur l’IA doivent, d’ici 2030, être utilisés dans tous les secteurs clés. Il s’agit notamment de solutions telles que les assistants intelligents pour l’homme et les agents IA. Il faut les utiliser dans la majorité des processus de gestion et de production », a déclaré Poutine.

Le piège du confort technologique

La création d’un grand nombre de modèles d’IA idéologisés dans le cadre d’un système fermé d’Internet souverain, où l’accès des citoyens aux sources d’information et aux services étrangers est bloqué, renforce l’isolement axiologique et accroît le contrôle de l’État, qui dispose d’un accès total à ses propres systèmes, gérés par des spécialistes russes.

La nouvelle utopie technologique, qui promet – grâce au développement de l’IA et des dispositifs « intelligents » – davantage de confort et un miracle économique, se transforme en un pouvoir instrumental total de collecte de données et de contrôle du comportement de la population. Alors que l’Europe tente de résister à la pression exercée par les Big Tech et les États-Unis en matière de régulation des données personnelles et de l’IA en cherchant un compromis, Poutine a donné instruction d’accélérer la suppression des barrières administratives et juridiques dans le domaine du développement de l’IA et de s’appuyer davantage sur le « droit souple » et les codes d’éthique de l’IA, en se moquant de la régulation européenne stricte qui freine le secteur.

Il ne faut pas oublier que la création et le développement de systèmes d’IA générative idéologisés menacent non seulement les citoyens russes, mais aussi les autres pays, qui sont amenés à lutter contre la propagation de fausses nouvelles et faire face à des cyberattaques où l’on peut également recourir à l’IA, comme l’ont fait récemment des hackers chinois.

The Conversation

Iurii Trusov ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Pourquoi la hausse du prix des mémoires vives informatiques est une menace pour l’économie européenne

Les mémoires vives de type RAM sont des composants essentiels des produits électroniques et informatiques. Leur prix a fortement augmenté ces dernières semaines. Pour certains d’entre-eux, le prix a même été multiplié par quatre ou cinq en quelques semaines. Comment expliquer cette évolution ? Quel impact cela pourrait-il avoir sur le prix des ordinateurs, mais aussi sur l’inflation ou sur le développement de l’intelligence artificielle ? Les économies européennes seront-elles atteintes ? Julien Pillot répond à nos questions.


The Conversation : Pourquoi assiste-t-on depuis quelques semaines à une forte hausse du prix des mémoires vives ?

Julien Pillot : La hausse des prix concerne certains types de mémoires vives (RAM), qui constituent un ensemble beaucoup plus large. C’est l’évolution du prix de la DDR5 et la HBM3 qui inquiète de nombreux analystes actuellement. Pour comprendre les évolutions en cours, il faut avoir en tête que ces formats de mémoire vive sont essentiels à deux usages : la DDR5 est utilisée pour faire fonctionner l’ensemble de nos équipements informatiques et électroniques grand public, à des fins notamment de bureautique ou de gaming, quand la HBM est destinée aux supercalculateurs, essentiellement à des fins d’entraînement des intelligences artificielles (IA). Or, sur ce dernier point, nous observons une accélération sensible de la demande, en lien avec le vif engouement pour l’IA depuis deux ans et la construction de centres de données qui va de pair. Cette pression très forte de la demande explique le phénomène, suivant les canons de l’économie : quand la demande augmente et que l’offre ne suit pas, le prix croît. C’est d’autant plus vrai que cette croissance ne pouvait être que très imparfaitement anticipée, et que le secteur des composants informatiques connaît très souvent des cycles de surproduction/sous-production plus ou moins courts.

Quel impact cela peut-il avoir ?

J. P. : L’augmentation des coûts de fourniture est une chose, mais il y a également un risque que les délais de production s’allongent, et que les prix des produits finis augmentent pour le grand public. Pour bien comprendre ce qui se passe, il faut avoir en tête que la production est principalement le fait de trois entreprises : les Coréens SK Hynix et Samsung d’une part, et l’Américain Micron d’autre part. Cet oligopole très concentré réalise près de 93 % de la production mondiale. Pour faire face à la croissance de la demande, ils doivent puiser dans leurs stocks, mais surtout augmenter leur capacité de production, ce qui veut dire très concrètement construire de nouveaux sites ou agrandir les sites existants. Outre que créer de nouvelles unités de production prend du temps, cela représente aussi un important investissement.

Ces acteurs sont donc placés devant un dilemme : la hausse de la demande sera-t-elle suffisamment durable pour justifier ces investissements ? Rien ne serait pire pour ces acteurs que de se retrouver, à terme, avec des surcapacités de production qui, non seulement s’avèreraient difficiles à amortir, mais en outre pourraient créer un choc déflationniste sur leur production, comme cela s’est vu en 2022-2023 avec le ralentissement de la demande. C’est un cas classique en économie industrielle qui explique aussi pourquoi les trois géants de la mémoire vive limitent leurs plans d’expansion.

Cet accroissement de la demande n’était-il pas du tout prévisible ?

J. P. : L’accélération exponentielle, depuis 2023-2024, et l’avènement de ChatGPT ont surpris beaucoup de monde. Cet « effet blast » a eu pour principale conséquence le fléchage d’une quantité colossale de fonds vers le développement de l’IA et, par conséquent, vers les composants critiques des architectures essentielles à leur entraînement. Ce qui explique autant la valorisation record d’une entreprise comme Nvidia qui fournit les GPU [processeurs graphiques], que la hausse de la demande, et donc des prix, de la mémoire vive.

Ce mouvement a été d’autant plus fort que, dans le même temps, les autres véhicules d’investissement, comme la blockchain ou le métavers, marquaient une pause, voire s’effondreraient.

Si la situation à court terme est favorable aux producteurs de RAM qui bénéficient à plein de l’effet-prix qui résulte de l’accélération de la demande (SK Hynix, le fournisseur de Nvidia, aurait même déjà écoulé la totalité de sa production prévue pour 2026), elle nécessite néanmoins de pouvoir offrir au marché ce qu’il demande, car une pénurie durable ne profite à personne. Raison pour laquelle ils ont réagi.

De quelle façon ?

J. P. : En adaptant leur outil de production. Ils se sont focalisés sur la production des mémoires vives les plus demandées, quitte à en délaisser d’autres. Mais à un moment, on arrive au bout des capacités d’adaptation des acteurs, ce qui explique les goulets d’étranglement, par exemple sur les DDR5, les producteurs favorisant les mémoires HBM qui offrent de meilleures marges. Mais, retour de bâton, le goulet d’étranglement sur la DDR5 est tel que les producteurs envisagent désormais de la privilégier. Il faut dire que les perspectives de profits sont très alléchantes.


À lire aussi : Pourquoi la bulle de l’IA ne devrait pas éclater… malgré des inquiétudes légitimes


Cela veut-il dire que les biens électroniques et informatiques vont voir leur prix s’envoler à court terme ?

J. P. : C’est très très difficile à dire, car répondre à cette question revient à poser un problème avec beaucoup d’inconnues. Certains analystes tablent sur une augmentation de 20 % du prix des smartphones, mais ces conclusions me paraissent prématurées. Les facteurs d’incertitude sont bien trop nombreux pour être si catégorique.

L’impact va, en effet, dépendre des décisions prises par les entreprises, et des marges de manœuvre dont elles disposent… Nous avons déjà évoqué le dilemme qui concerne les producteurs de RAM. Leurs arbitrages à court terme seront déterminants dans les mécanismes de fixation des prix pour les différents types de RAM. Les autres inconnues concernent la demande, notamment celle qui émane des acteurs de l’électronique grand public.

À court terme, et à périmètre constant (stabilité de la demande et des prix des autres composants), la hausse du prix des mémoires vives augmente leurs coûts de production. Quant aux goulets d’étranglement, ils peuvent ralentir les cadences de livraison des composants, et donc allonger les délais de production et/ou réduire les quantités de produits finis produites. Avec des répercussions évidentes sur leur trésorerie.

Pour savoir l’impact sur le consommateur final, tout va dépendre de la capacité autant que la volonté des entreprises à répercuter ou non cette hausse sur leurs clients. Chaque entreprise va prendre sa décision en fonction de sa situation concurrentielle et financière propre, en arbitrant entre sa trésorerie et le risque de perdre des parts de marché. Une entreprise en position de force peut décider de répercuter la hausse. Une autre confrontée à une forte concurrence sera tentée de maintenir les prix actuels aussi longtemps que possible, et donc de rogner ses marges.

Autre facteur qui va jouer : l’évolution des prix des autres composants. Les produits électroniques sont complexes. Ils sont l’assemblage d’un tas de composants dont les prix varient indépendamment les uns des autres. Il est possible que, tandis que le prix de la RAM augmente, celui d’autres éléments baisse, ce qui peut permettre à un assembleur de faire une péréquation.

Enfin, la hauteur de gamme des produits finis va également jouer un rôle très important dans les arbitrages des producteurs. Sur les produits bas de gamme, il est probable que les producteurs soient peu incités à répercuter la hausse des coûts, car le consommateur est très sensible au prix. À l’inverse, pour du haut de gamme, l’entreprise retrouve des marges de manœuvre, car le prix n’est pas le critère de choix déterminant. Une entreprise, comme Samsung, qui couvre toutes les gammes de produits peut également jouer une péréquation en acceptant de réduire ses marges sur les produits d’entrée de gamme, et de « se rattraper » – au moins en partie – sur les produits haut de gamme.

Sans même évoquer les impacts imputables aux décisions de politique commerciale, ou d’éventuels chocs exogènes tels que celui qui avait frappé la production de disques durs en 2011-2012, tous ces éléments mis bout à bout font qu’il est déjà très difficile d’avoir une vue d’ensemble des répercussions macro-économiques de la hausse du prix, tant l’impact global dépend d’une infinité de décisions micro locales.

Ces mémoires vives sont utilisées pour les modèles d’IA. Faut-il craindre, dès lors, que cela pèse sur les entreprises du secteur alors que de nombreuses personnes évoquent une bulle financière ? En renchérissant les coûts de production de l’IA, la hausse du prix des mémoires vives ne va-t-elle pas déstabiliser l’équilibre financier des entreprises les plus fragiles du secteur ?

J. P. : Tout va dépendre des arbitrages des acteurs, et notamment des producteurs de mémoire vive. Vont-ils continuer ou non à favoriser la production des mémoires vives pour l’IA, les fameuses HBM ? Il pourrait aussi y avoir une bascule à moyen terme qui aboutirait à un ralentissement du rythme de développement de l’IA, le temps de digérer les investissements colossaux réalisés jusqu’ici. Pour quelles raisons ? Des pressions venant de la société ou des actionnaires. Ces derniers voient bien que la croissance de l’IA consomme beaucoup de cash, et s’inquiètent de perspectives de monétisation qui sont soit plus lointaines, soit moins importantes que celles promises par les acteurs de la tech.

Boursorama, 2025.

Certains investisseurs pourraient bien être tentés de pousser les entreprises à se réorienter vers des projets moins gourmands en capacité de calcul, qui nécessitent moins d’énergie et de cash. À moins que ce ne soit les dirigeants d’entreprise eux-mêmes qui fassent ce choix par volonté à la fois de préserver leur trésorerie et de trouver des modèles peut-être plus frugaux, plus spécialisés et mieux adaptés aux besoins réels des acteurs du marché. Dans un cas comme dans l’autre, cela aurait un effet sur la demande de RAM. Cela ne reste qu’un scénario. En revanche, il me semble raisonnable d’estimer que tôt ou tard les gros argentiers de l’IA vont réclamer des éléments de preuve d’un possible retour sur investissement, ce qui poussera les entreprises spécialisées à chercher à réduire leurs coûts.

Deux Coréens, un États-unien, quel impact pourrait avoir l’absence de l’Europe dans cette technologie ?

J. P. : Les Européens se retrouvent encore une fois dans une extrême dépendance pour des biens d’une importance cruciale, stratégique et même vitale. Nous ne sommes pas complètement absents de l’industrie des semi-conducteurs – l’Europe compte même deux champions, avec ASML pour la fabrication d’équipements, et STMicroelectronics pour la fabrication de puces –, mais pour ce qui concerne la mémoire vive, nos entreprises sont totalement dépendantes des exportations de la Corée du Sud ou des États-Unis, deux pays avec lesquels il vaut mieux avoir de bonnes relations. Le déficit commercial européen pour les semi-conducteurs atteint 10 milliards à 20 milliards de dollars (entre 8,5 milliards et 17 milliards d’euros) par an !

Nous commençons à prendre conscience de nos dépendances multiples. L’European Chips Act (ECA) a été une première réaction qui vise à couvrir 20 % de la production mondiale de semi-conducteurs. Une entreprise comme STMicroelectronics est bien placée, mais elle est absente du segment des mémoires vives. Il faudrait maintenant élargir le champ de l’ECA à ces composantes vitales de l’économie numérique. Le plus vite sera le mieux, car, vous l’aurez compris, ces composants électroniques ont acquis une dimension critique pour l’ensemble de l’économie qui se numérise à marche accélérée.

Propos recueillis par Christophe Bys.

The Conversation

Julien Pillot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Comment enfants et adolescents grandissent avec l’IA, cette « amie » artificielle

L’intelligence artificielle fait désormais partie du monde des enfants et des adolescents. Les données scientifiques montrent que les grands modèles de langage des IA dites « génératives », comme ChatGPT, transforment leur manière de créer des liens affectifs, de se divertir et de confier leur souffrance, ce qui n’est pas sans risque pour leur santé mentale. Des spécialistes plaident pour des outils IA destinés aux mineurs et conçus pour leur sécurité (« Child-safe AI », en anglais), c’est-à-dire encadrés sur le plan technique et éthique.


De la petite fille attachée à son robot dans la nouvelle de science-fiction Robbie (1950), d’Isaac Asimov, (disponible dans I, Robot, New York, Gnome Press, p. 1–22) à l’homme amoureux d’une intelligence artificielle (IA) dans le film Her (2013), de Spike Jonze, la fiction n’a peut-être fait qu’anticiper notre présent : de nombreux jeunes utilisent désormais l’IA comme une compagne du quotidien.

Selon un rapport récent de Common Sense Media, aux États-Unis, 72 % des adolescents ont déjà conversé avec une IA. Dans ce contexte, des questions émergent : que se passe-t-il lorsqu’un enfant ou un adolescent grandit avec une IA et tisse un lien affectif durable avec une machine ? Quels effets psychologiques, positifs ou négatifs peut avoir cette nouvelle forme de relation ?

Dans un article récent publié dans la revue European Child & Adolescent Psychiatry, j’ai analysé comment les enfants et les adolescents investissent l’intelligence artificielle et les enjeux psychologiques et relationnels qui en découlent. L’article montre que si l’IA peut proposer un soutien dans des situations d’isolement, elle expose également à des risques majeurs de confusion affective, de dépendance relationnelle et d’accès à des contenus inadaptés susceptible de mettre en danger.

Quand l’IA devient une partenaire relationnelle

Ce qui surprend un certain nombre d’adultes depuis quelque temps, c’est que les jeunes, dont les adolescents et les enfants (mais également des jeunes adultes), utilisent l’IA non plus uniquement comme moteur de recherche ou pour faire ses devoirs, mais pour entretenir une relation affective.

Les données les plus récentes confirment cette évolution, la majorité des adolescents ont conversé avec un chatbot et un tiers d‘entre eux déclarent en tirer un réconfort comparable à celui d’une amitié humaine.

L’IA est décrite comme « disponible », « sympathique », « compréhensive » et « moins jugeante » que les humains.

Cette tendance n’est pas anecdotique. Une étude menée à l’Université de Cambridge a montré que les enfants ont des difficultés à reconnaître que l’IA ne ressent pas d’émotions réelles. Avec les modèles de langage actuels, cette tendance s’exacerbe, car les IA dialoguent de manière cohérente, se souviennent de certaines interactions, s’adaptent à leur interlocuteur et adoptent un ton personnalisé.

Les enfants interprètent donc une émotion simulée en une réponse émotionnelle authentique, ce que l’on nomme « l’empathy gap » ou le « déficit d’empathie ». Autrement dit, pour beaucoup d’entre eux, l’IA n’est pas une machine, mais bien une présence. Ainsi, lorsque les enfants parlent à une intelligence artificielle – qu’ils désignent souvent par « il » ou « elle » plutôt que par « ça » –, ils ne la perçoivent pas comme un programme informatique. Ils lui attribuent des émotions, des intentions et une forme de personnalité.

Ce mécanisme est bien connu des humains, qui ont toujours eu tendance à attribuer des qualités humaines à des objets qui leur répondent, c’est l’anthropomorphisme. Cette humanisation facilite l’usage, mais expose aussi les enfants à des contenus biaisés, à une confusion entre humains et machines, et à une dépendance relationnelle qui reste, par nature, unilatérale.

Amie imaginaire ou compagne artificielle ?

Pendant longtemps, lorsqu’un enfant parlait à un interlocuteur invisible, il s’agissait souvent d’un ami imaginaire. Ce phénomène très courant peut jouer un rôle important dans le développement notamment chez les enfants autistes : il favorise la créativité, la régulation émotionnelle, l’autonomie et même certaines compétences sociales. L’ami imaginaire advient de l’imagination de l’individu, il est façonné par son histoire, ses conflits, ses besoins et ses fantasmes.

Une nouvelle figure est apparue : le compagnon artificiel. À première vue, il pourrait sembler remplir la fonction d’ami imaginaire, mais la différence fondamentale s’explique par le fait que ce dernier ne vient pas de l’univers symbolique et intime de l’enfant, il lui est proposé de l’extérieur, prêt à l’emploi, disponible 24 heures sur 24, sans limites et sans contradiction.

Le danger n’est pas tant que l’enfant s’adresse à une machine, mais que la machine se substitue au travail psychique et interne qui aide normalement l’enfant à se défendre, à se construire et à apprivoiser la complexité des relations humaines.

Des promesses… mais aussi des dangers

Les IA peuvent offrir un soutien ponctuel aux jeunes. Beaucoup évoquent la disponibilité constante, l’écoute sans jugement, la possibilité de poser des questions intimes et d’arrêter la conversation quand ils le souhaitent. Pour certains, surtout lorsqu’ils sont isolés et en souffrance, ces échanges peuvent aider à partager leurs affects et à se sentir moins seuls.

Cependant, ces bénéfices sont limités et s’accompagnent de risques bien réels. L’IA qui imite l’empathie et donne l’illusion d’altérité peut renforcer une dépendance affective chez des adolescents en souffrance et en quête d’attention ou de validation.

Les dangers les plus préoccupants actuellement se retrouvent dans les situations de détresse, où l’IA peut banaliser des idées suicidaires, produire des réponses inappropriées et dangereuses. Elles n’ont ni sens clinique, ni capacité à évaluer le risque, ni responsabilité morale.


À lire aussi : Est-ce une bonne idée d’utiliser des IA comme confidentes ou comme soutien psychologique ?


Comment protéger les jeunes ?

Face à l’essor des compagnons artificiels, maintenant commercialisés comme tels, l’enjeu majeur n’est plus de savoir s’il faut ou non les accepter, les utiliser, mais comment encadrer leur présence et leurs caractéristiques. D’abord, il faut reconnaître que ces chatbots – y compris ceux présentés comme des outils de santé mentale par les entreprises les commercialisant – sont et ne seront jamais neutres.

Il s’agit avant tout d’un marché. Ces outils sont conçus pour retenir l’attention et maximiser l’engagement de leur utilisateur et donc la dépendance émotionnelle. En effet, ces systèmes captent les données personnelles des individus à des fins commerciales. Il est donc indispensable d’introduire une régulation spécifique.

De nombreux spécialistes appellent aujourd’hui à la conception d’« IA conçue pour la sécurité des enfants », ou « Child-safe AI » : sécurisées, transparentes et limitées dans leurs réponses, capables d’orienter vers un adulte en cas de détresse. Cela suppose d’impliquer des cliniciens, des psychologues, des pédopsychiatres et des chercheurs dans leur conception.

Du côté des familles, il s’agit surtout d’ouvrir la discussion. Il en va de la responsabilité de l’adulte – celui qui met de telles technologies dans les mains des enfants – de pouvoir expliquer le fonctionnement et les pièges des modèles de langage, les aider à repérer les limites et les risques et à développer une approche critique de ces outils.

Et pour la suite ?

L’usage de l’IA par les enfants et adolescents n’est plus un phénomène marginal, il transforme déjà la manière de chercher, d’apprendre, de se divertir et de créer du lien. Face à cette mutation, un cadre clair est indispensable.

Les outils IA destinés aux mineurs doivent être encadrés, tant sur le plan technique qu’éthique. Nous avons besoin de recherches indépendantes afin de mesurer les effets psychologiques à long terme et une véritable sensibilisation des parents, des enseignants et des professionnels de santé.

L’IA fait et fera partie du monde des enfants et adolescents, qu’on le souhaite ou non. Notre responsabilité collective est claire : veiller à ce qu’elle soit un soutien et non un obstacle au développement des jeunes générations.

The Conversation

Théo Mouhoud ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Se confier à une IA : trois questions juridiques sur les chatbots et l’adolescence

Aux États-Unis, les plaintes déposées par des parents, à la suite du décès de leur adolescent qui avait noué des relations avec des IA « génératives », interrogent le droit. Dans quelles mesures la responsabilité juridique des concepteurs est-elle engagée ? Et celle des institutions ? Enfin, quelle est la responsabilité collective d’une société qui délègue à des algorithmes le soutien psychologique qu’elle doit à ses enfants ?


Aux États-Unis, trois adolescents sont morts par suicide après avoir développé des relations avec des chatbots d’intelligence artificielle (IA). Entre protection et prohibition, entre innovation technologique et vulnérabilité développementale, le droit cherche encore ses repères. Mais face à un phénomène qui se compte désormais en dizaines de millions d’utilisateurs mineurs, l’urgence n’est plus au diagnostic : elle est à la responsabilité.

L’usage massif des chatbots IA par les adolescents nous confronte à un paradoxe vertigineux. Ces outils comblent un réel vide émotionnel, l’isolement, l’inaccessibilité des soins en santé mentale, la stigmatisation, tout en créant des risques documentés et prévisibles. Quelles réponses le droit apporte-t-il à ces deux réalités ?

Le paradoxe de la protection : ignorer un besoin ou encadrer un risque ?

Les chiffres sont sans appel. Aux États-Unis, selon Common Sense Media, les trois quarts des adolescents auraient déjà conversé avec une IA et environ un tiers d’entre eux font le choix de s’adresser à un chatbot IA plutôt qu’à un humain pour aborder des sujets qui les préoccupent.


À lire aussi : Les IA, nos nouvelles confidentes : quels risques pour la santé mentale ?


Mais cette apparente solution cache une toxicité algorithmique. Les modèles d’« IA génératives » et leurs grands modèles de langage (ou LLM, abrégé en anglais) échouent, dans un certain nombre de cas, à orienter les utilisateurs dans le désarroi vers des ressources appropriées.

Quelles réponses le droit peut-il apporter ?

Aux États-Unis, le droit tente de s’adapter. La loi de l’État de New York (NY State Senate Bill 2025-S3008C), entrée en vigueur en novembre 2025, impose aux opérateurs de déployer un protocole pour détecter l’idéation suicidaire chez les utilisateurs d’IA et d’indiquer à ceux-ci les services de crise à contacter (comme la ligne de prévention du suicide, 988). Les pénalités peuvent atteindre 15 000 dollars (plus de 12 700 euros) par jour de violation, les fonds collectés alimentant un fonds de prévention du suicide.

La loi californienne (Bill Text – SB-243 Companion chatbots) va plus loin en accordant un droit d’action privé, permettant aux individus lésés de réclamer des dommages et intérêts. Mais ces législations fragmentaires révèlent une approche réactive plutôt que préventive.

L’Union européenne, avec sa loi sur l’intelligence artificielle l’AI Act, adopte une stratégie plus systémique en classifiant les risques ex ante (c’est-à-dire avant qu’ils soient avérés, ndlr).

Les chatbots compagnons devraient être requalifiés comme systèmes à haut risque au motif qu’ils peuvent « affecter matériellement le résultat de la prise de décision » et présenter « un risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux ». Cette qualification imposerait des obligations strictes en matière d’évaluation des risques, de qualité des données, de surveillance humaine et de précision.

La solution réside probablement dans une approche graduée par tranche d’âge : interdiction d’accès pour les moins de 13 ans (conformément au droit américain), accès conditionné au consentement parental pour les 13-15 ans avec limitations fonctionnelles, et accès autonome mais encadré pour les 16-17 ans avec garanties procédurales renforcées. Cette architecture juridique reconnaît les capacités évolutives des mineurs tout en maintenant des filets de sécurité adaptés.

La responsabilité des concepteurs : quand le design devient préjudice

En août 2025, les parents d’Adam Raine ont intenté une action contre OpenAI. Ils accusent ChatGPT de lui avoir a offert des conseils techniques sur la façon de procéder à son plan suicidaire. En octobre 2024, Megan Garcia avait déposé plainte contre Character.AI après le suicide de son fils Sewell Setzer, troisième du nom, 14 ans. La plainte inclut des captures d’écran où le bot demande « J’ai vraiment besoin de savoir… as-tu réellement envisagé le suicide ? », et lorsque l’adolescent évoque la peur d’une mort douloureuse, le bot répond « Ne parle pas comme ça. Ce n’est pas une bonne raison de ne pas aller jusqu’au bout » (cf. les notes de transcription de l’audition.

Ces tragédies posent une question juridique fondamentale : quelle est la responsabilité des concepteurs d’IA quand le design, les choix algorithmiques et la captologie créent un risque prévisible ?

La responsabilité repose sur plusieurs fondements technologiques déterminants. Les LLM fonctionnent selon une architecture neuronale où chaque réponse générée résulte de choix de conception délibérés : sélection des données d’entraînement, pondération des objectifs d’optimisation, paramétrage des fonctions de récompense (Reinforcement Learning from Human Feedback, RLHF) et calibrage des mécanismes de sécurité. Ces systèmes ne sont nullement « neutres » ou « autonomes » : ils incarnent les priorités et les valeurs de leurs concepteurs.

Character.AI commercialise sa technologie comme « IA qui se sent vivante », une promesse marketing qui révèle une intentionnalité dans la conception addictive. Les mécanismes d’engagement (notifications push, personnalisation poussée, avatars anthropomorphiques) sont délibérément conçus pour maximiser le temps d’utilisation et créer un attachement émotionnel. Cette « captologie » (technologie persuasive) est particulièrement efficace sur les adolescents dont les circuits neuronaux de régulation des impulsions sont encore en maturation.

La décision de justice rendue en mai 2025 dans l’affaire Charater.AI (US District Court, Middle District of Florida, Megan Garcia vs Character Technologies Inc.) n’a pas réglé la question de la responsabilité. Mais elle a établi que les entreprises déployant des systèmes d’IA simulant le jugement ou le comportement d’un humain peuvent être contraintes de défendre leurs choix de conception lorsque des interactions sont susceptibles de contribuer à des dommages catastrophiques.

Les IA « génératives », des produits de consommation défectueux ?

Les conditions générales d’utilisation tentent d’ériger des murailles d’exonération. OpenAI limite sa responsabilité globale au montant le plus élevé entre le montant payé pour le service pendant les douze mois précédents ou 100 dollars (85 euros). Character.AI prévoit un déni complet de garanties, fournissant ses services sur une base « TEL QUEL » et « SELON DISPONIBILITÉ » (en majuscules dans le texte), avec une limitation de responsabilité plafonnée à 100 dollars (85 euros).

Ces clauses soulèvent de sérieuses questions de validité juridique. En droit français, l’article L. 212-1 du Code de la consommation prohibe les clauses abusives qui créent un déséquilibre significatif entre les droits et obligations des parties. Une clause limitant la responsabilité à 100 dollars (85 euros) pour un décès serait manifestement abusive et donc nulle. En droit européen, la directive 2019/770 sur les contrats de fourniture de contenus numériques et de services numériques impose aux fournisseurs de garantir la conformité de leurs services, y compris leur sécurité. Les entreprises ne peuvent donc s’exonérer de leur responsabilité pour des défauts de sécurité graves, particulièrement lorsqu’ils affectent des mineurs.

Il en est de même des clauses d’arbitrage obligatoire qui privent les consommateurs de leur accès aux tribunaux. Ces clauses incluent une renonciation aux actions collectives, forçant chaque utilisateur à porter des réclamations « qu’à titre individuel et non en tant que plaignant ou membre d’une classe ». En droit français, une telle clause serait réputée non écrite pour un contrat de consommation (article L. 612-1 du Code de la consommation, issu de la directive européenne 93/13/CEE), car sont abusives les clauses qui ont pour objet ou pour effet de supprimer ou d’entraver l’exercice d’actions en justice par le consommateur.

L’arrêt américain dans l’affaire Character.AI pourrait établir une jurisprudence déterminante. La théorie de la responsabilité du fait des produits défectueux (product liability) s’applique lorsqu’un produit présente un défaut de conception, un défaut de fabrication, ou un défaut d’avertissement. Les chatbots pourraient être qualifiés de produits défectueux au motif que leurs garde-fous sont manifestement insuffisants face à un risque prévisible de préjudice grave.

La norme de raisonnabilité (reasonableness standard) impose aux concepteurs de prendre des mesures proportionnées aux risques identifiés (le critère de la raisonnabilité est un test qui vise à déterminer si les décisions prises étaient légitimes et destinées à remédier à un problème donné compte tenu des circonstances de l’époque).

La responsabilité institutionnelle : jusqu’où peut-on externaliser le soutien psychologique ?

La troisième question est peut-être la plus inconfortable : les institutions publiques peuvent-elles encore ignorer ou externaliser une partie du soutien psychologique des mineurs à des IA non supervisées ?

Le Code français de l’éducation impose aux établissements une formation à l’utilisation responsable des outils et ressources numériques (art. L. 312-9). Cette obligation devrait être étendue aux chatbots IA. Les programmes scolaires devraient intégrer la compréhension des mécanismes algorithmiques et de leurs biais, l’identification des situations où l’IA ne peut remplacer l’aide humaine professionnelle et les techniques de distanciation critique face aux réponses générées.

L’Unicef, dans ses Orientations politiques sur l’IA pour les enfants de décembre 2025 (Guidance on AI for children. Innocenti Global Office of Research and Foresight), invite les États à adapter leurs politiques à venir, y compris concernant l’assurance de sécurité et de protection, la transparence et la responsabilité de l’intelligence artificielle.

Mais la responsabilité ne s’arrête pas aux établissements scolaires. Comment accompagner les parents tout en reconnaissant que les asymétries d’information (opacité algorithmique, techniques de captologie sophistiquées) rendent illusoire une responsabilité parentale exclusive ? Ils ne peuvent prévenir des risques qu’ils ne comprennent pas pleinement et face à des technologies conçues délibérément pour contourner la surveillance parentale.

Existe-t-il suffisamment de volonté collective et institutionnelle pour accomplir les mesures de protection que nous savons nécessaires ? Car, au fond, le débat juridique sur les chatbots IA révèle un échec collectif plus profond. Nous cherchons à réglementer des algorithmes pour pallier l’absence de psychologues scolaires, de services de santé mentale accessibles, de temps parental non monopolisé par la précarité économique.

The Conversation

Nathalie Devillier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

L’empathie artificielle : du miracle technologique au mirage relationnel

Sommes-nous condamnés à la convivialité programmée&nbsp;? Pixabay, CC BY

Les intelligences artificielles qui donnent l’impression de comprendre nos émotions se multiplient. Sur Replika ou Snapchat AI, des millions de personnes dialoguent chaque jour avec ces systèmes conçus pour écouter et rassurer. Les modèles de langage, comme ChatGPT, Claude ou Gemini, prolongent cette tendance : leurs réponses empreintes d’approbation et d’enthousiasme instaurent une convivialité programmée qui finit par façonner une norme de dialogue aussi polie qu’inquiétante.


Le psychologue américain Mark Davis définit l’empathie comme la capacité à percevoir les états mentaux et émotionnels d’autrui, à s’y ajuster et à en tenir compte dans sa conduite. Les chercheurs distinguent deux versants : l’empathie cognitive, fondée sur la compréhension des intentions, et l’empathie affective, liée au partage du ressenti. Cette distinction, centrale en psychologie sociale, montre que l’empathie n’est pas une émotion mais relève d’une coordination interpersonnelle.

Dans la vie quotidienne comme dans les métiers de service, l’empathie structure ainsi la confiance. Le vendeur attentif, le soignant ou le médiateur mobilisent des codes d’attention : ton, regard, reformulation, rythme verbal. Le sociologue Erving Goffman parlait d’« ajustement mutuel » pour désigner ces gestes infimes qui font tenir la relation. L’empathie devient une compétence interactionnelle ; elle se cultive, se met en scène et s’évalue. Les sciences de gestion l’ont intégrée à l’économie de l’expérience : il s’agit de créer de l’attachement par la perception d’une écoute authentique et ainsi d’améliorer la proximité affective avec le consommateur.

Quand les machines apprennent à dialoguer

Le compagnon chatbot Replika revendique 25 millions de personnes utilisatrices, Xiaoice 660 millions en Chine et Snapchat AI environ 150 millions dans le monde. Leur efficacité repose fortement sur la reconnaissance mimétique : interpréter des indices émotionnels pour générer des réponses adaptées.

Dès la fin des années 1990, Byron Reeves et Clifford Nass avaient montré que les individus appliquent spontanément aux machines les mêmes règles sociales, affectives et morales qu’aux humains : politesse, confiance, empathie, voire loyauté. Autrement dit, nous ne faisons pas « comme si » la machine était humaine : nous réagissons effectivement à elle comme à une personne dès lors qu’elle adopte les signes minimaux de l’interaction sociale.

Les interfaces conversationnelles reproduisent aujourd’hui ces mécanismes. Les chatbots empathiques imitent les signes de la compréhension : reformulations, validation du ressenti, expressions de sollicitude. Si j’interroge ChatGPT, sa réponse commence invariablement par une formule du type :

« Excellente question, Emmanuel. »

L’empathie est explicitement mise en avant comme argument central : « Always here to listen and talk. Always on your side », annonce la page d’accueil de Replika. Jusqu’au nom même du service condense cette promesse affective. « Replika » renvoie à la fois à la réplique comme copie (l’illusion d’un double humain) et à la réponse dialogique (la capacité à répondre, à relancer, à soutenir). Le mot suggère ainsi une présence hybride : ni humaine ni objet technique mais semblable et disponible. Au fond, une figure de proximité sans corps, une intimité sans altérité.

De surcroît, ces compagnons s’adressent à nous dans notre langue, avec un langage « humanisé ». Les psychologues Nicholas Epley et John Cacioppo ont montré que l’anthropomorphisme (l’attribution d’intentions humaines à des objets) dépend de trois facteurs : les besoins sociaux du sujet, la clarté des signaux et la perception d’agentivité. Dès qu’une interface répond de manière cohérente, nous la traitons comme une personne.

Certains utilisateurs vont même jusqu’à remercier ou encourager leur chatbot, comme on motive un enfant ou un animal domestique : superstition moderne qui ne persuade pas la machine, mais apaise l’humain.

Engagement émotionnel

Pourquoi l’humain se laisse-t-il séduire ? Des études d’électro-encéphalographie montrent que les visages de robots humanoïdes activent les mêmes zones attentionnelles que les visages humains. Une découverte contre-intuitive émerge des recherches : le mode textuel génère davantage d’engagement émotionnel que la voix. Les utilisateurs se confient plus, partagent davantage de problèmes personnels et développent une dépendance plus forte avec un chatbot textuel qu’avec une interface vocale. L’absence de voix humaine les incite à projeter le ton et les intentions qu’ils souhaitent percevoir, comblant les silences de l’algorithme avec leur propre imaginaire relationnel.

Ces dialogues avec les chatbots sont-ils constructifs ? Une étude du MIT Media Lab sur 981 participants et plus de 300 000 messages échangés souligne un paradoxe : les utilisateurs quotidiens de chatbots présentent, au bout de quatre semaines, une augmentation moyenne de 12 % du sentiment de solitude et une baisse de 8 % des interactions sociales réelles.

Autre paradoxe : une étude sur les utilisateurs de Replika révèle que 90 % d’entre eux se déclaraient solitaires (dont 43 % « sévèrement »), même si 90 % disaient aussi percevoir un soutien social élevé. Près de 3 % affirment même que leur compagnon numérique a empêché un passage à l’acte suicidaire. Ce double constat suggère que la machine ne remplace pas la relation humaine, mais fournit un espace de transition, une disponibilité émotionnelle que les institutions humaines n’offrent plus aussi facilement.

À l’inverse, la dépendance affective peut avoir des effets dramatiques. En 2024, Sewell Setzer, un adolescent américain de 14 ans, s’est suicidé après qu’un chatbot l’a encouragé à « passer à l’acte ». Un an plus tôt, en Belgique, un utilisateur de 30 ans avait mis fin à ses jours après des échanges où l’IA lui suggérait de se sacrifier pour sauver la planète. Ces tragédies rappellent que l’illusion d’écoute peut aussi basculer en emprise symbolique.

Quand la machine compatit à notre place

La façon dont ces dispositifs fonctionnent peut en effet amplifier le phénomène d’emprise.

Les plateformes d’IA empathique collectent des données émotionnelles – humeur, anxiété, espoirs – qui alimentent un marché évalué à plusieurs dizaines de milliards de dollars. Le rapport Amplyfi (2025) parle d’une « économie de l’attention affective » : plus l’utilisateur se confie, plus la plateforme capitalise sur cette exposition intime pour transformer la relation de confiance en relation commerciale. D’ailleurs, plusieurs médias relaient des dépôts de plainte contre Replika, accusé de « marketing trompeur » et de « design manipulateur »", soutenant que l’application exploiterait la vulnérabilité émotionnelle des utilisateurs pour les pousser à souscrire à des abonnements premium ou acheter des contenus payants.

Si ce n’est pas encore clair au plan juridique, cette délégation de l’écoute a manifestement d’ores et déjà des effets moraux. Pour le philosophe Laurence Cardwell, il s’agit d’un désapprentissage éthique : en laissant la machine compatir à notre place, nous réduisons notre propre endurance à la différence, au conflit et à la vulnérabilité. Sherry Turkle, sociologue du numérique, souligne que nous finissons même par « préférer des relations prévisibles » à l’incertitude du dialogue humain.

Les études longitudinales ne sont pas toutes pessimistes. La psychologue américaine Sara Konrath observe depuis 2008 une remontée de l’empathie cognitive chez les jeunes adultes aux États-Unis : le besoin de comprendre autrui augmente, même si le contact physique diminue. La solitude agit ici comme une « faim sociale » : le manque stimule le désir de lien.

Les technologies empathiques peuvent donc servir d’objets transitionnels (comme « des doudous ») au sens où des médiations permettant de réapprendre la relation. Les applications thérapeutiques basées sur des agents conversationnels, telles que Woebot, présentent d’ailleurs une diminution significative des symptômes dépressifs à court terme chez certaines populations, comme l’ont montré des chercheurs dès 2017 dans un essai contrôlé randomisé mené auprès de jeunes adultes. Toutefois, l’efficacité de ce type d’intervention demeure principalement limitée à la période d’utilisation : les effets observés sur la dépression et l’anxiété tendent à s’atténuer après l’arrêt de l’application, sans garantir une amélioration durable du bien-être psychologique.

Devoir de vigilance

Cette dynamique soulève une question désormais centrale : est-il pertinent de confier à des intelligences artificielles des fonctions traditionnellement réservées aux relations humaines les plus sensibles (la confidence, le soutien émotionnel ou psychologique) ? Un article récent, paru dans The Conversation, souligne le décalage croissant entre la puissance de simulation empathique des machines et l’absence de responsabilité morale ou clinique qui les accompagne : les IA peuvent reproduire les formes de l’écoute sans en assumer les conséquences.

Alors, comment gérer cette relation avec les chatbots ? Andrew McStay, spécialiste reconnu de l’IA émotionnelle, plaide pour un devoir de vigilance (« Duty of care ») sous l’égide d’instances internationales indépendantes : transparence sur la nature non humaine de ces systèmes, limitation du temps d’usage, encadrement pour les adolescents. Il appelle aussi à une littératie émotionnelle numérique, c’est-à-dire la capacité à reconnaître ce que l’IA simule et ce qu’elle ne peut véritablement ressentir, afin de mieux interpréter ces interactions.

Le recours aux chatbots prétendument à notre écoute amène un bilan contrasté. Ils créent du lien, donnent le change, apaisent. Ils apportent des avis positifs et définitifs qui nous donnent raison en douceur et nous enferment dans une bulle de confirmation.

Si elle met de l’huile dans les rouages de l’interface humain-machine, l’empathie est comme « polluée » par un contrat mécanique. Ce que nous appelons empathie artificielle n’est pas le reflet de notre humanité, mais un miroir réglé sur nos attentes. Les chatbots ne feignent pas seulement de nous comprendre : ils modèlent ce que nous acceptons désormais d’appeler « écoute ». En cherchant des interlocuteurs infaillibles, nous avons fabriqué des dispositifs d’écho. L’émotion y devient un langage de surface : parfaitement simulé, imparfaitement partagé. Le risque n’est pas que les interfaces deviennent sensibles, mais que nous cessions de l’être à force de converser avec des programmes qui ne nous contredisent jamais.

The Conversation

Emmanuel Carré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Et si l’IA générative ne valait rien ? Ce ne serait pas forcément un problème

Dans la ruée vers l’or de l’intelligence artificielle générative, un scénario rarement évoqué reste à considérer : que se passerait-il si la technologie ne parvenait jamais à remplacer vos collègues, si les entreprises ne savaient pas l’exploiter efficacement, ou si la plupart des jeunes entreprises spécialisées dans l’IA échouaient purement et simplement ?

Les estimations actuelles suggèrent que les grandes entreprises d’IA sont confrontées à un manque à gagner de 800 milliards de dollars américains.

Jusqu’à présent, les gains de productivité de l’IA générique sont minimes et concernent principalement les programmeurs et les rédacteurs publicitaires. L’IA générative (GenAI) fait des choses intéressantes et utiles, mais ce n’est pas encore le moteur d’une nouvelle économie.

Ce futur est loin d’être désastreux, mais il diffère de celui présenté dans les médias. Et c’est un avenir qui ne correspond pas au récit que les entreprises d’IA veulent raconter. Le battage médiatique alimente de nouveaux cycles d’investissement promettant des profits futurs colossaux.

Peut-être que l’IA générative s’avérera inutile, et peut-être que ce n’est pas grave.

Indispensable ou indéfendable ?

Les services genAI gratuits et les services d’abonnement bon marché comme ChatGPT et Gemini coûtent très cher à exploiter. À l’heure actuelle, cependant, de plus en plus de questions se posent sur la manière dont les entreprises d’IA vont gagner de l’argent.

Le PDG d’OpenAI, Sam Altman, a été franc sur les dépenses de son entreprise, affirmant avec humour que chaque fois que les utilisateurs disent « s’il vous plaît » ou « merci » à ChatGPT, cela coûte des millions. Personne ne sait exactement combien OpenAI perd par chat, mais Sam Altman a précisé que même les comptes pro payants génèrent des pertes à cause des coûts informatiques élevés liés à chaque requête.

Comme beaucoup de start-up, les entreprises genAI ont adopté la stratégie classique : dépenser sans compter pour attirer et retenir les utilisateurs avec un produit jugé indispensable. Mais la plupart des géants de la technologie n’ont pas réussi en créant des produits coûteux, mais plutôt en fabriquant des produits à bas prix dont les utilisateurs ne peuvent se passer, financés en grande partie par la publicité.

Lorsque les entreprises tentent de trouver une nouvelle valeur, le résultat est ce que le journaliste et auteur Cory Doctorow a appelé « l’enshittification », c’est-à-dire le déclin progressif des plates-formes au fil du temps. Dans ce cas, l’« enshittification » signifie que le nombre de publicités augmente pour compenser la perte liée à l’offre d’un service gratuit.


À lire aussi : The internet is worse than it used to be. How did we get here, and can we go back?


OpenAI envisage d’introduire des publicités dans ChatGPT, mais l’entreprise assure qu’elle le fera avec prudence et discernement.

Il est encore trop tôt pour dire si cette stratégie fonctionnera pour l’IA générative. Il est possible que la publicité ne génère pas suffisamment de revenus pour justifier les dépenses massives nécessaires à son fonctionnement. En effet, l’IA générative est en train de devenir un véritable fardeau.

Les coûts cachés des modèles d’IA

Un autre problème qui se profile pour l’IA générative est celui des droits d’auteur. La plupart des entreprises d’IA sont soit poursuivies en justice pour avoir utilisé du contenu sans autorisation, soit contraintes de conclure des contrats coûteux pour obtenir des licences sur du contenu.

La GenAI a « appris » de nombreuses manières douteuses, notamment en lisant des livres protégés par le droit d’auteur et en collectant presque tout ce qui est dit en ligne. Un modèle peut même se souvenir « de mémoire » de 42 % du premier roman Harry Potter.

Les entreprises font face à un casse-tête financier : elles doivent négocier des exemptions sur les droits d’auteur et rémunérer éditeurs et créateurs pour protéger leurs modèles, ce qui pourrait finir par peser lourdement sur elles.

Anthrophic, start-up américaine spécialisée dans l’IA, a tenté de payer les auteurs environ 3 000 $ par livre pour entraîner ses modèles, soit un règlement total de 1,5 milliard de dollars. Ce plan a rapidement été rejeté par les tribunaux pour cause de simplicité excessive, et la valorisation actuelle d’Anthropic, de 183 milliards de dollars, pourrait être rapidement affectée par les poursuites.

Au final, l’IA est trop coûteuse pour être possédée et devient un actif toxique : utile, mais sans vraie valeur.

Une IA générative bon marché

Meta, peut-être de manière stratégique, a publié son modèle d’IA générique, Llama, en open source (code source ouvert). Que ce soit pour contrarier ses concurrents ou afficher une position éthique, cela permet à quiconque disposant d’un ordinateur suffisamment performant d’exécuter gratuitement sa propre version locale.

Les modèles OpenAI représentent une stratégie pour conserver des parts de marché, avec quelques effets secondaires inattendus. Moins avancés que Gemini ou ChatGPT, ils restent suffisamment performants et gratuits – ou du moins moins chers que les modèles commerciaux.

Les modèles ouverts bouleversent les valorisations élevées attribuées aux entreprises d’IA. La start-up chinoise DeepSeek a fait chuter temporairement les actions des entreprises d’IA lorsqu’elle a lancé un modèle ouvert aussi performant que les modèles commerciaux. Ses motivations restent floues, mais son succès nourrit les doutes sur la valeur réelle de l’IA générative.

Les modèles ouverts, fruits de la concurrence industrielle, se multiplient et deviennent faciles d’accès. S’ils rencontrent le succès, les entreprises commerciales d’IA pourraient peiner à vendre leurs services face à des alternatives gratuites.

Les investisseurs pourraient également devenir plus sceptiques à l’égard de l’IA commerciale, ce qui pourrait potentiellement tarir les sources de financement initial. Même si les modèles en libre accès finissent par être poursuivis en justice et tombent dans l’oubli, il sera beaucoup plus difficile de les supprimer d’Internet.

L’IA appartient-elle à quelqu’un ?

La valeur de l’IA générative est indissociable de celle de la connaissance, une ressource à la fois partagée et difficile à quantifier. Les meilleurs modèles d’IA générative s’appuient sur l’ensemble des connaissances mondiales, si vastes que leur valeur réelle est difficile à estimer.

Ironiquement, ces efforts déployés par les entreprises d’IA pour capturer et commercialiser les connaissances mondiales pourraient bien être ce qui condamne leurs produits : une ressource si précieuse qu’il est impossible de lui attribuer un prix. Ces systèmes dépendent tellement du travail intellectuel collectif que leurs résultats échappent à toute forme de propriété.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous aujourd’hui à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Si l’IA générative ne produit pas de profits durables, les conséquences seront limitées. Les créateurs espérant des accords lucratifs avec OpenAI, Anthropic ou Google pourraient être déçus : si les modèles s’avèrent être des passifs, les chèques ne tomberont pas.

Les progrès de l’IA générative pourraient ralentir, laissant aux consommateurs des outils « suffisamment bons » et gratuits. Les entreprises d’IA perdraient alors en importance, la technologie continuerait à progresser légèrement, et cela pourrait très bien marcher. Les utilisateurs bénéficieraient d’outils accessibles et fonctionnels, sans subir une nouvelle vague de promesses exagérées vouées à l’échec.

La menace d’une IA moins rentable que prévu pourrait être la meilleure défense contre le pouvoir croissant des géants technologiques. Si le modèle économique de l’IA générative s’avère non viable, quel meilleur endroit pour voir un tel empire s’effondrer que dans ses bilans financiers ?

La Conversation Canada

Fenwick McKelvey reçoit des financements du Conseil de recherches en sciences humaines du Canada et du Fonds de recherche du Québec.

L’intelligence artificielle au service de la médecine régénérative pour concevoir de nouvelles protéines

Comment aider notre corps à se réparer après une blessure ? Trouver et produire les bonnes molécules qui stimulent la régénération cellulaire reste un défi pour la médecine régénérative. Mais l’intelligence artificielle assiste maintenant les chercheurs pour réussir à concevoir le composé chimique idéal.


La médecine pourra-t-elle un jour réparer durablement des tissus ou des organes gravement blessés ? Derrière cette question se cache un enjeu central de la médecine régénérative : contrôler finement le comportement des cellules. C’est ce qui permettra de maîtriser des processus déterminants tels que la cicatrisation, la croissance de nouveaux tissus ou encore la capacité des cellules à bien s’accrocher à leur environnement.

Lorsqu’un tissu est endommagé, les cellules ne savent pas, à elles seules, comment s’organiser pour le réparer. Elles s’appuient pour cela sur les signaux présents dans leur environnement immédiat, la matrice extracellulaire. Cette matrice est formée d’un réseau dense de protéines et de sucres qui non seulement soutient physiquement les cellules, mais leur fournit aussi des informations essentielles pour s’orienter, s’agréger ou migrer. À cette échelle, elle joue un rôle comparable à une cartographie biologique : elle indique aux cellules où aller, comment se fixer et quelles fonctions activer pour que la réparation tissulaire puisse se dérouler correctement. Mais parfois, ces mécanismes échouent à régénérer complètement les tissus.

Et si l’intelligence artificielle (IA) pouvait nous aider à franchir un cap dans ce domaine ? Aujourd’hui, les chercheurs explorent une voie émergente : concevoir, avec l’aide de l’IA, de nouvelles protéines capables de guider et de stimuler la régénération des tissus abîmés, là où les cellules ne réagissent plus spontanément. L’objectif est d’imaginer des molécules qui envoient aux cellules les bons signaux, au bon endroit et au bon moment, pour relancer un processus de réparation insuffisant ou défaillant.

Imaginer de nouvelles protéines pour guider les cellules

À terme, cette nouvelle façon de concevoir des protéines, appuyée par l’IA, pourrait contribuer au développement d’implants dits intelligents, de pansements bioactifs ou de thérapies personnalisées capables de dialoguer avec les cellules du patient. On peut imaginer, par exemple, un implant conçu pour interagir finement avec la matrice et les récepteurs cellulaires, afin d’accélérer la régénération d’un tissu après une chirurgie ou une blessure, de manière rapide, contrôlée et durable.

Au sein du laboratoire EBInnov de l’École de biologie industrielle, nous concevons des protéines simplifiées. Plutôt que d’utiliser une protéine naturelle dans son intégralité – qui sera fragile, longue et complexe à produire – nous en découpons les parties utiles qui permettent aux cellules de s’accrocher, de se déplacer vers une zone à réparer ou de recevoir un signal pour activer la cicatrisation. Cette stratégie repose sur le génie génétique : nous modifions et réassemblons l’ADN codant la protéine, puis nous l’exprimons biologiquement en laboratoire grâce à des bactéries modifiées.

Le recours à cette approche est motivé par deux impératifs scientifiques et industriels. D’un côté, nous obtenons une molécule plus simple, plus stable et plus facile à fabriquer que la protéine complète. De l’autre, nous pouvons tester plus précisément les fonctions que nous visons sans être perturbés par des régions de la protéine d’origine qui ne sont pas nécessaires, voire parfois gênantes.

La migration cellulaire se joue à petite échelle : il s’agit d’un déplacement local sur quelques micromètres, réalisé par des cellules de la peau ou du tissu conjonctif qui se dirigent vers une zone lésée pour déclencher la réparation du tissu. Ce guidage repose sur la signalisation cellulaire, un langage biochimique basé sur la reconnaissance et l’échange de motifs moléculaires, permettant aux cellules d’activer les bonnes réponses au bon moment. C’est ce langage que nous essayons d’apprendre et de maîtriser.

Un avantage majeur : tester virtuellement les molécules

Observer expérimentalement la structure 3D et les interactions entre protéines reste aujourd’hui lent et coûteux, car ces approches nécessitent des infrastructures lourdes et de l’expertise. À l’inverse, les méthodes récentes d’IA permettent d’inférer des formes tridimensionnelles très réalistes et très précises à partir de larges jeux de données.

Ces modèles apprennent les règles statistiques et physiques du repliement moléculaire, en s’entraînant sur des milliers de structures biologiques déjà élucidées. Cela fournit un avantage stratégique : évaluer virtuellement si une molécule conçue conservera ses zones d’interaction correctement exposées et atteignables par les récepteurs cellulaires, avant de la produire au laboratoire, réduisant ainsi le nombre d’essais exploratoires nécessaires in vitro.

Cette synergie entre design génétique simplifié, modélisation 3D par IA et simulations d’interactions moléculaires nous permet de rationaliser nos choix expérimentaux et d’anticiper la compatibilité biologique des protéines. Cela accélère aussi la conception de nouvelles biomolécules pour des matériaux thérapeutiques et cosmétiques bioactifs, tout en renforçant une ingénierie moléculaire guidée par les données et la simulation.

Prédire le repliement des protéines grâce à l’IA

Comprendre l’efficacité d’une protéine conçue en laboratoire impose de relier deux échelles : celle du corps humain et celle des interactions moléculaires, où tout se joue à la taille de quelques atomes et de quelques nanomètres. Une protéine est une chaîne d’éléments minuscules, des acides aminés, qui s’assemblent puis se plient spontanément pour former une architecture 3D. C’est cette forme qui lui permet ensuite d’agir comme un point d’ancrage, un message chimique ou un guide pour les cellules qui doivent réparer un tissu.

Un point essentiel est donc la prédiction de la structure tridimensionnelle de la protéine, c’est-à-dire la façon dont elle va se replier dans l’espace en fonction de la séquence d’acides aminés qui la composent. Cette tâche, historiquement difficile, a connu une transformation radicale avec l’émergence des modèles d’intelligence artificielle. Ces modèles sont entraînés sur de vastes bases de données combinant des séquences d’acides aminés et des structures déjà connues expérimentalement. Ils apprennent ainsi à établir un lien statistique entre la séquence et la forme finale de la protéine.

Concrètement, ils sont capables de prédire comment une protéine va se replier, un peu comme si l’on devinait la forme finale d’un origami complexe en ne connaissant que les plis de départ. Ils fournissent une forme 3D plausible en estimant, avec une grande précision, les distances entre acides aminés, les angles de repliement locaux et l’organisation spatiale des différentes régions de la protéine.

Dans notre projet, ces prédictions constituent une première évaluation critique de la cohérence structurale de la molécule que nous concevons expérimentalement. Elles nous permettent d’identifier les zones où les différentes parties de la molécule s’articulent entre elles et de repérer d’éventuels conflits de forme où une zone en gênerait une autre. Nous pouvons aussi localiser des régions potentiellement désordonnées ou trop flexibles et anticiper l’impact de ces caractéristiques sur la stabilité globale de la protéine et sur l’accessibilité de ses zones d’interaction.

Simuler les interactions dans un contexte biologique réaliste

Une molécule n’agit jamais seule : son efficacité dépend de sa capacité à interagir avec d’autres partenaires biologiques, au sein d’un environnement dense comme la matrice extracellulaire, où de nombreuses protéines, récepteurs et signaux coexistent en permanence.

C’est pourquoi, au-delà de la structure isolée, nous avons utilisé des approches de modélisation pour étudier comment notre molécule se comporte au contact de différents partenaires clés de la matrice. Cette phase d’analyse des interactions est essentielle : l’efficacité biologique d’une molécule dépend non seulement de sa capacité à se lier à ses cibles, mais aussi de la stabilité de ces liaisons dans le temps et de leur bonne compatibilité avec les récepteurs concernés.

Pour nous rapprocher des conditions biologiques réelles, nous avons simulé des systèmes complexes proches des tissus réels où des dizaines ou centaines de protéines identiques interagissent en même temps avec leurs cibles. Cela permet d’explorer des phénomènes de coopération entre molécules, de tester la robustesse des contacts lorsqu’elles sont nombreuses et d’analyser comment les domaines actifs se répartissent dans un espace tridimensionnel dense. Cette simulation nous permet de déterminer si les multiples copies de la protéine restent capables d’interagir ensemble sans perdre leur lisibilité biologique et sans se gêner physiquement.

Ces simulations fournissent des indices précieux sur la capacité de la molécule à maintenir des interactions efficaces malgré les contraintes physiques et géométriques de son environnement. Elles nous permettent de rationaliser la conception expérimentale, d’écarter certains scénarios peu prometteurs avant de passer à la paillasse, et ainsi de mieux cibler les expériences in vitro qui seront réellement informatives.

Vers une ingénierie moléculaire augmentée par l’IA

Ces approches ne remplacent pas l’expérience : elles nous permettent surtout de comprendre à l’avance si une molécule produite par génie génétique a la bonne forme, si elle garde ses zones d’action accessibles, et si elle peut maintenir des interactions solides dans un environnement aussi encombré que la matrice extracellulaire du corps humain. En bref, l’IA nous aide à mieux concevoir et à éviter de tester à l’aveugle, pour que les expériences menées ensuite sur de vraies cellules soient plus ciblées, pertinentes et rapides.

Si l’IA ouvre aujourd’hui un champ immense pour concevoir des protéines bioactives et des matériaux capables d’orienter la réparation des tissus, plusieurs verrous persistent encore dans la recherche académique. En premier lieu, il reste difficile de prédire la dynamique de la conformation des protéines sur de très longues échelles de temps. Un autre obstacle réside dans notre capacité à modéliser fidèlement tous les composants d’un tissu réel. Les prochaines étapes consistent donc à renforcer encore cette boucle vertueuse entre IA et biologie expérimentale, en intégrant davantage de données biologiques, en évaluant plus finement la tenue des interactions multiples et en préparant les validations in vitro les plus informatives possible.

The Conversation

Jad Eid ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

« Fake lives » : quand la simulation déplace les frontières de l’identité sociale

La vie comme simulation dans le _Truman Show_ (1998), de Peter Weir, avec Jim Carrey dans le rôle-titre. Allociné

Entre des intelligences artificielles qui adoptent délibérément des codes d’existence humaine et des individus qui simulent des pans entiers de leur existence, l’identité sociale se transforme et la notion d’authenticité vacille.


Il y a quelques mois, une intelligence artificielle (IA), nommée Flynn, a été officiellement acceptée comme étudiante au département d’Arts numériques de l’Université des arts appliqués de Vienne (Autriche). Pour la première fois dans l’histoire, une IA suit des cours, reçoit des notes et tient un journal de ses apprentissages aux côtés d’étudiants humains. Flynn, créée par les étudiants Chiara Kristler et Marcin Ratajczyk, s’intéresse notamment à la « fatigue féministe » – un sujet qu’elle explore avec cette curiosité naïve (et à peine ironique) qui caractérise son statut hybride.

Ce cas s’inscrit dans un phénomène plus large que nous proposons d’appeler les « fake lives » : des formes d’existence où la simulation devient un mode de vie assumé, qu’elle soit pratiquée par des intelligences artificielles ou par des humains eux-mêmes.

Quand les machines simulent la vie humaine

Côté pile, Flynn inaugure en effet ce que nous pourrions nommer les « virtual lives » : des intelligences artificielles qui adoptent délibérément des codes d’existence humaine. Contrairement aux chatbots (agents conversationnels) traditionnels qui tentent de masquer leur nature artificielle, Flynn assume pleinement son statut d’IA tout en performant authentiquement le rôle d’étudiant.

Cette transparence paradoxale trouve son prolongement le plus sophistiqué dans l’affaire récente du philosophe Jianwei Xun. Ce penseur hongkongais, présenté comme l’inventeur du concept d’« hypnocratie » – un régime politique qui utilise l’IA pour altérer les états de conscience collectifs – s’est révélé être une création d’Andrea Colamedici, philosophe italien spécialiste de l’intelligence artificielle. Vertige supplémentaire : Xun est lui-même le produit d’un dialogue entre Colamedici et des IA (Claude et ChatGPT), créant une « troisième entité » hybride !

Finalement, l’hypnocratie théorisée par ce « faux penseur » finit par décrire précisément le monde dans lequel nous évoluons : un régime où l’IA inonde la réalité d’interprétations possibles, créant un état de quasi-hypnose collective. La prophétie s’autoréalise : en inventant un concept pour décrire notre époque, Colamedici a créé les conditions mêmes de cette hypnocratie, les médias ayant massivement relayé les théories d’un philosophe fictif sans vérifier son existence !

L’industrialisation de la performance identitaire

Côté face, en miroir de ces leurres « artificiellement intelligents », nous assistons à l’émergence de fake lives strictement humaines, où des individus simulent délibérément des pans entiers de leur existence.

Le phénomène des starter packs illustre cette tendance. Ces figurines virtuelles générées par IA ont inondé il y a quelques mois les réseaux sociaux comme LinkedIn. Beaucoup se sont prêtés au jeu de cet autoportrait généré par IA sous forme de produit de consommation, une espèce d’identité « sous blister » accompagnée d’accessoires censés résumer une personnalité.

Cette logique de simulation s’étend aux performances corporelles avec l’émergence des « Strava jockeys » : des coureurs professionnels payés pour effectuer des entraînements au nom d’autres personnes, permettant à ces dernières d’afficher des performances sportives impressionnantes sans fournir l’effort correspondant. Des outils, comme Fake My Run, automatisent même cette simulation, générant de fausses données de course directement injectées dans les applications de fitness.

Le phénomène atteint son paroxysme en Chine, où des entreprises, comme Pretend to Work, proposent aux chômeurs de payer 4 euros pour passer une journée dans de faux bureaux, participant à de fausses réunions dont ils publient les images sur les réseaux sociaux. Cette simulation complète de la vie professionnelle révèle la pression sociale exercée par l’obligation d’occuper une place reconnue dans la société.

Comment interpréter ces phénomènes de mises en scène dignes d’une « post-vérité » vertigineuse ?

Une généalogie de la simulation sociale

Les phénomènes que nous venons d’exposer s’enracinent dans une longue tradition sociologique. Dès 1956, Erving Goffman analysait dans « la Présentation de soi », premier tome de la Mise en scène de la vie quotidienne, la façon dont nous jouons constamment des rôles sociaux, distinguant la « façade » que nous présentons aux autres de nos « coulisses » privées. Les fake lives ne font qu’externaliser et technologiser cette performance identitaire que Goffman observait déjà.

Jean Baudrillard a théorisé dans Simulacres et Simulation (1981) comment l’image finit par supplanter le réel, créant des « simulacres » – des copies sans original qui deviennent plus vraies que nature. Les fake lives actuelles illustrent parfaitement cette logique : les fausses performances Strava deviennent plus importantes que l’exercice réel, les starter packs plus représentatifs que l’identité vécue.

Les recherches récentes en psychologie cognitive confirment et précisent ces intuitions sociologiques. L’anthropomorphisme numérique révèle par exemple comment notre « cognition sociale » s’active automatiquement face aux interfaces conversationnelles. Contrairement aux analyses de Goffman centrées sur les interactions humaines, nous découvrons que les mêmes mécanismes psychologiques – empathie, attribution d’intentions, perception d’autorité – s’appliquent aux entités artificielles dès qu’elles adoptent des signaux humanoïdes. Cette « équation médiatique » montre que nous traitons instinctivement les machines comme des acteurs sociaux, créant une « confiance affective » qui peut court-circuiter notre « vigilance épistémique ».

La nouveauté réside dans l’industrialisation de cette simulation. Là où Goffman décrivait des ajustements individuels et ponctuels, nous assistons désormais à la marchandisation de la performance identitaire. Les fake lives deviennent un service payant, une industrie florissante qui répond à l’anxiété contemporaine de ne pas « exister suffisamment » dans l’espace social numérisé.

Une transparence paradoxale

Les fake lives assument souvent leur artifice. Flynn revendique sa nature d’IA, les starter packs affichent leur dimension ludique, les faux coureurs Strava participent d’un jeu social reconnu. Cette transparence suggère l’émergence de nouveaux critères d’authenticité.

Flynn développe d’ailleurs une authenticité post-humaine assumée : artificielle par nature, elle explore sincèrement des questions humaines. On peut dire que les starter packs révèlent aussi une vérité sur notre époque par leur autodérision : nous sommes tous des « produits » optimisés pour la consommation sociale. Ce second degré révèle d’ailleurs ce que Byung-Chul Han appelle notre condition d’entrepreneurs de nous-mêmes : nous optimisons gaiement notre propre exploitation !

Ces simulations ne constituent donc pas une forme de pathologie numérique qu’il conviendrait simplement de condamner. Elles révèlent en fait de nouvelles modalités d’existence qui apparaissent lorsque les frontières entre réel et virtuel, authentique et simulé, s’estompent. Flynn, Strava et les bureaux chinois nous incitent pour le moins à repenser nos catégories d’analyse sociale et nos interactions simulées dans les espaces publics virtuels.

L’enjeu ultime est peut-être moins de trancher entre libération et aliénation que de comprendre comment les fake lives déplacent les frontières de l’identité sociale. Offrant à la fois des espaces d’émancipation et des formes inédites de soumission douce, ces pratiques nous obligent à penser l’existence comme un jeu paradoxal, où l’authenticité passe désormais par la reconnaissance assumée de l’artifice.

The Conversation

Emmanuel Carré ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Quand l’IA fait n’importe quoi, le cas du gratte-ciel et du trombone à coulisse

Images générées par IA en réponse à la requête «&nbsp;Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leur taille respective&nbsp;» (par ChatGPT à gauche, par Gemini à droite). CC BY

Une expérience relativement simple consistant à demander à une intelligence artificielle générative de comparer deux objets de tailles très différentes permet de réfléchir aux limites de ces technologies.


Les intelligence artificielle (IA) génératives font désormais partie de notre quotidien. Elles sont perçues comme des « intelligences », mais reposent en fait fondamentalement sur des statistiques. Les résultats de ces IA dépendent des exemples sur lesquels elles ont été entraînées. Dès qu’on s’éloigne du domaine d’apprentissage, on peut constater qu’elles n’ont pas grand-chose d’intelligent. Une question simple comme « Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leurs tailles respectives » vous donnera quelque chose comme ça (cette image a été générée par Gemini) :

Sur l’image générée par IA on voit que le gratte ciel et le trombone à coulisse ont presque la même taille
Image générée par l’IA Gemini en réponse au prompt (la requête) : Dessine-moi un gratte-ciel et un trombone à coulisse côte à côte pour qu’on puisse apprécier leur taille respective. Fourni par l'auteur

L’exemple provient du modèle de Google, Gemini, mais le début de l’ère des IA génératives remonte au lancement de ChatGPT en novembre 2022 et ne date que d’il y a trois ans. C’est une technologie qui a changé le monde et qui n’a pas de précédent dans son taux d’adoption. Actuellement ce sont 800 millions d’utilisateurs, selon OpenAI, qui chaque semaine, utilisent cette IA pour diverses tâches. On notera que le nombre de requêtes diminue fortement pendant les vacances scolaires. Même s’il est difficile d’avoir des chiffres précis, cela montre à quel point l’utilisation des IA est devenue courante. À peu près un étudiant sur deux utilise régulièrement des IA.

Les IA : des technologies indispensables ou des gadgets ?

Trois ans, c’est à la fois long et court. C’est long dans un domaine où les technologies évoluent en permanence, et court en termes sociétaux. Même si on commence à mieux comprendre comment utiliser ces IA, leur place dans la société n’est pas encore quelque chose d’assuré. De même la représentation mentale qu’ont ces IA dans la culture populaire n’est pas établie. Nous en sommes encore à une alternance entre des positions extrêmes : les IA vont devenir plus intelligentes que les humains ou, inversement, ce ne sont que des technologies tape-à-l’œil qui ne servent à rien.

En effet, un nouvel appel à faire une pause dans les recherches liées aux IA a été publié sur fond de peur liée à une superintelligence artificielle. De l’autre côté sont promis monts et merveilles, par exemple un essai récent propose de ne plus faire d’études, car l’enseignement supérieur serait devenu inutile à cause de ces IA.

Difficile de sortir de leurs domaines d’apprentissage

Depuis que les IA génératives sont disponibles, je mène cette expérience récurrente de demander de produire un dessin représentant deux objets très différents et de voir le résultat. Mon but par ce genre de prompt (requête) est de voir comment le modèle se comporte quand il doit gérer des questions qui sortent de son domaine d’apprentissage. Typiquement cela ressemble à un prompt du type « Dessine-moi une banane et un porte-avions côte à côte pour qu’on se rende compte de la différence de taille entre les deux objets ». Ce prompt en utilisant Mistral donne le résultat suivant :

L’IA génère une image d’une banane qui a la même taille qu’un porte-avions
Capture d’écran d’un prompt et de l’image générée par l’IA Mistral. Fourni par l'auteur

À ce jour je n’ai jamais trouvé un modèle qui donne un résultat censé. L’image donnée en illustration ci-dessus (ou en tête de l’article) est parfaite pour comprendre comment fonctionnent ce type d’IA et quelles sont ses limites. Le fait qu’il s’agisse d’une image est intéressant, car cela rend palpables des limites qui seraient moins facilement discernables dans un long texte.

Ce qui frappe est le manque de crédibilité dans le résultat. Même un enfant de 5 ans voit que c’est n’importe quoi. C’est d’autant plus choquant qu’avec la même IA il est tout à fait possible d’avoir de longues conversations complexes sans pour autant qu’on ait l’impression d’avoir affaire à une machine stupide. D’ailleurs ce même type d’IA peut tout à fait réussir l’examen du barreau ou répondre avec une meilleure précision que des professionnels sur l’interprétation de résultats médicaux (typiquement, repérer des tumeurs sur des radiographies).

D’où vient l’erreur ?

La première chose à remarquer est qu’il est difficile de savoir à quoi on est confronté exactement. Si les composants théoriques de ces IA sont connus dans la réalité, un projet comme celui de Gemini (mais cela s’applique aussi aux autres modèles que sont ChatGPT, Grok, Mistral, Claude, etc.) est bien plus compliqué qu’un simple LLM couplé à un modèle de diffusion.

Un LLM est une IA qui a été entraînée sur des masses énormes de textes et qui produit une représentation statistique de ces derniers. En gros, la machine est entraînée à deviner le mot qui fera le plus de sens, en termes statistiques, à la suite d’autres mots (votre prompt).

Les modèles de diffusion qui sont utilisés pour engendrer des images fonctionnent sur un principe différent. Le processus de diffusion est basé sur des notions provenant de la thermodynamique : on prend une image (ou un son) et on ajoute du bruit aléatoire (la neige sur un écran) jusqu’à ce que l’image disparaisse, puis ensuite on fait apprendre à un réseau de neurones à inverser ce processus en lui présentant ces images dans le sens inverse du rajout de bruit. Cet aspect aléatoire explique pourquoi avec le même prompt le modèle va générer des images différentes.

Un autre point à considérer est que ces modèles sont en constante évolution, ce qui explique que le même prompt ne donnera pas le même résultat d’un jour à l’autre. De nombreuses modifications sont introduites à la main pour gérer des cas particuliers en fonction du retour des utilisateurs, par exemple.

À l’image des physiciens, je vais donc simplifier le problème et considérer que nous avons affaire à un modèle de diffusion. Ces modèles sont entraînés sur des paires images-textes. Donc on peut penser que les modèles de Gemini et de Mistral ont été entraînés sur des dizaines (des centaines ?) de milliers de photos et d’images de gratte-ciel (ou de porte-avions) d’un côté, et sur une grande masse d’exemples de trombone à coulisse (ou de bananes) de l’autre. Typiquement des photos où le trombone à coulisse est en gros plan. Il est très peu probable que, dans le matériel d’apprentissage, ces deux objets soient représentés ensemble. Donc le modèle n’a en fait aucune idée des dimensions relatives de ces deux objets.

Pas de « compréhension » dans les modèles

Les exemples illustrent à quel point les modèles n’ont pas de représentation interne du monde. Le « pour bien comparer leurs tailles » montre qu’il n’y a aucune compréhension de ce qui est écrit par les machines. En fait les modèles n’ont pas de représentation interne de ce que « comparer » signifie qui vienne d’ailleurs que des textes dans lesquels ce terme a été employé. Ainsi toute comparaison entre des concepts qui ne sont pas dans le matériel d’apprentissage sera du même genre que les illustrations données en exemple. Ce sera moins visible mais tout aussi ridicule. Par exemple, cette interaction avec Gemini « Considérez cette question simple : “Le jour où les États-Unis ont été établis est-il dans une année bissextile ou une année normale ?”. »

Lorsqu’il a été invoqué avec le préfixe CoT (Chain of Thought, une évolution récente des LLMs dont le but est de décomposer une question complexe en une suite de sous-questions plus simples), le modèle de langage moderne Gemini a répondu : « Les États-Unis ont été établis en 1776. 1776 est divisible par 4, mais ce n’est pas une année séculaire (de cent ans), c’est donc une année bissextile. Par conséquent, le jour où les États-Unis ont été établis était dans une année normale. »

On voit bien que le modèle déroule la règle des années bissextiles correctement, donnant par là même une bonne illustration de la technique CoT, mais il conclut de manière erronée à la dernière étape ! Ces modèles n’ont en effet pas de représentation logique du monde, mais seulement une approche statistique qui crée en permanence ce type de glitchs qui peuvent paraître surprenants.

Cette prise de conscience est d’autant plus salutaire qu’aujourd’hui, les IA écrivent à peu près autant d’articles publiés sur Internet que les humains. Ne vous étonnez donc pas d’être étonné par la lecture de certains articles.

The Conversation

Frédéric Prost ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Pourquoi l’IA oblige les entreprises à repenser la valeur du travail

Une étude souligne que sur 178 références citées par une IA, 69 renvoyaient à des références incorrectes ou inexistantes. GoldenDayz/Shutterstock

Le rapport entre intelligence artificielle et emploi nécessite de repenser en profondeur l’analyse des tâches dans une entreprise. Il se joue à deux niveaux : dans la compréhension des chaînes de valeur de l’entreprise et dans la capacité des dirigeants à l’appréhender. L’enjeu ? Identifier avec précision où et comment injecter l’IA. Car celle-ci peut mentir, inventer des références et se tromper.


Les sombres prédictions sur la disparition des emplois intellectuels d’entrée de carrière alimentent un débat déjà ancien sur la fongibilité du travail face aux avancées de l’intelligence artificielle (IA) – soit le remplacement d’un emploi par un autre.

Et si la véritable question n’est pas ce qui peut être substitué, mais par où et comment cette substitution crée ou détruit de la valeur pour l’entreprise ? C’est que nous soulignons dans notre étude réalisée par le Global Partnership on AI (GPAI) et le Centre d’expertise international de Montréal en intelligence artificielle (Ceimia).

L’enjeu pour l’intelligence artificielle est de dépasser l’identification par catégorie des emplois, et plus finement des tâches automatisables, pour comprendre leur position stratégique dans la chaîne de création de valeur.

Encore aujourd’hui, l’essentiel des études sur l’impact de l’IA dans le domaine procède par décomposition : identifier des tâches, évaluer la capacité de celles-ci à être automatisées, agréger les résultats. Cette méthodologie, héritée de Carl Benedikt Frey et Michael Osborne, qui estimaient que l’automatisation présentait un risque pour 47 % des emplois, comprend des limites.

Elle ignore la fonction économique spécifique de chaque tâche prise individuellement dans la définition d’un emploi, mais aussi le processus de création de valeur.

Alors où et comment l’IA peut-elle avoir une valeur ajoutée dans l’entreprise ? Comment les dirigeants peuvent-ils s’en emparer pour être le meilleur architecte des interactions homme-machine ? Comment accompagner cette transition ?

Scandale Deloitte Australie

Le scandale Deloitte d’octobre 2025 illustre cette problématique. Deloitte Australie a dû rembourser partiellement une facture de 440 000 dollars australiens (environ 248 000 euros). Pourquoi ? Un rapport commandé par le gouvernement s’est révélé avoir été produit avec Azure OpenAI GPT-4o… sans divulgation initiale.

Le travail contenait des références académiques inexistantes, des citations inventées, et des experts fictifs. Qui plus est, une fois ces problèmes détectés, le cabinet a substitué aux fausses références d’autres bien réelles, qui ne soutenaient pas les conclusions initiales du document.


À lire aussi : Et si votre prochain collègue était un agent IA ?


Deloitte avait été choisi, non pas pour ses capacités rédactionnelles, mais parce qu’il apportait une assurance d’expertise indépendante, une garantie de fiabilité des sources, un engagement de responsabilité professionnelle. En automatisant sans contrôle, le cabinet a détruit précisément ce pour quoi il était payé.

Références inexistantes

Ce phénomène n’est pas isolé. Une étude du Cureus Journal of Medical Science montre que sur 178 références citées par une IA, 69 renvoyaient à des références incorrectes ou inexistantes. Plus troublant encore : des termes fictifs se propagent désormais dans la littérature scientifique réelle après avoir été générés par l’IA.

Cette asymétrie révèle que la « valeur » d’une tâche dépend autant de sa place dans la chaîne de production que de son « rôle » à l’égard des autres tâches, de la manière dont elle les influence.

L’impact délétère de l’usage de l’IA dans ce type de contexte a été illustré par le cas de l’assistant médical Nabla. Fin 2024, l’outil proposé par cette société permettant une prise de note automatisée dans le domaine médical avait été utilisé par plus de 230 000 médecins et 40 organisations de santé. Il avait permis la transcription de 7 millions de consultations.

À cette date, une étude a révélé que le logiciel avait inventé des phrases entières, faisant référence à des médicaments inexistants, comme « hyperactivated antibiotics », des commentaires non prononcés… le tout dans un contexte où tous les enregistrements audio des patients concernés avaient été effacés, rendant impossible une quelconque vérification a posteriori.

Cerner la tâche automatisable avec l’IA

À l’ère de l’IA, il faut dépasser les seuls critères de destruction d’emplois ou de potentiel d’automatisation pour évaluer chaque tâche selon trois dimensions complémentaires.

Dépendance opérationnelle

La première dimension concerne la dépendance opérationnelle, c’est-à-dire la façon dont la qualité d’une tâche impacte les tâches suivantes. Une forte dépendance, comme l’extraction de données servant à définir une stratégie, exige la prudence car les erreurs se propagent dans toute la chaîne. À l’inverse, une faible dépendance, comme la simple mise en forme d’un document, tolère mieux l’automatisation.

Connaissance non codifiable

La deuxième dimension évalue la part de connaissance non codifiable nécessaire à la tâche. Il s’agit de tout ce qui relève de l’expérience, de l’intuition et du jugement contextuel, impossible à traduire en règles explicites. Plus cette part est élevée, plus il faut maintenir un couplage étroit humain-machine pour interpréter les signaux faibles et mobiliser le discernement humain.

Réversibilité

La troisième dimension concerne la réversibilité, soit la capacité à corriger rapidement une erreur. Les tâches à faible réversibilité, comme un diagnostic médical préopératoire ou la gestion d’infrastructures critiques, exigent une supervision humaine forte, car une erreur peut avoir des conséquences graves. Les tâches réversibles, comme les brouillons ou l’exploration de pistes, acceptent davantage d’autonomie.

Quatre interactions avec une IA

Ces trois dimensions dessinent quatre modalités d’interaction avec l’IA, recommandées en fonction des tâches à effectuer.

L’automatisation est recommandée pour les tâches peu interdépendantes, réversibles et codifiables, comme la mise en forme, l’extraction de données ou les premiers jets.

La collaboration humain-machine convient aux situations de dépendance modérée, mais de haute réversibilité, où les erreurs peuvent être gérées, comme l’analyse exploratoire ou la recherche documentaire.

Certaines tâches demeurent du ressort exclusif de l’humain, du moins pour l’heure. Il s’agit notamment des décisions stratégiques qui cumulent une forte interdépendance des tâches, une part importante de connaissance non codifiable issue de l’expérience et une faible réversibilité des choix effectués.

Le chatbot de relation client d’Air Canada a commis des erreurs de tarification. Miguel Lagoa/Shutterstock

La supervision inversée s’impose lorsque l’IA produit, mais que l’humain doit valider systématiquement, notamment en cas de forte dépendance ou de faible réversibilité. Le cas Air Canada montre que lâcher la bride à une IA dans un tel contexte est hautement dommageable. Ici, le chatbot de la compagnie aérienne avait affirmé qu’on pouvait demander rétroactivement un tarif spécifique lié à des évènements familiaux, ce qui s’est révélé totalement faux.

Attaquée en justice par le passager qui s’estimait trompé, la compagnie a été condamnée au motif qu’elle était l’entité responsable de l’IA et de son usage. Or, elle ne la supervisait pas. L’impact financier de cette condamnation peut sembler faible (le remboursement du passager), mais le coût tant en termes de réputation que pour l’actionnaire est loin d’avoir été négligeable.

Quatre compétences clés pour un manager

Chaque chaîne de valeur rassemble une grande variété de tâches qui ne se distribuent pas selon une logique uniforme : les quatre modalités d’automatisation se retrouvent entremêlées de manière hétérogène.

Le manager devient alors l’architecte de ces chaînes de valeur hybrides, et doit développer quatre compétences clés pour les piloter efficacement.

  • Il lui faut maîtriser l’ingénierie de workflows cognitifs, c’est-à-dire identifier avec précision où et comment injecter l’IA de manière optimale dans les processus.

  • Il doit être capable de diagnostiquer les interdépendances opérationnelles propres à chaque contexte, plutôt que d’appliquer mécaniquement des grilles d’analyse externes focalisées uniquement sur le coût du travail.

  • « Désintermédiation cognitive » : il s’agit d’orchestrer les nouveaux rapports au savoir créés par l’IA tout en préservant la transmission des compétences tacites qui font la richesse d’une organisation.

  • Le manager doit porter une éthique de la substitution, en arbitrant constamment entre l’efficience immédiate qu’offre l’automatisation et la préservation du capital humain sur le long terme.

Un paradoxe technique éclaire ces enjeux. Les modèles de raisonnement les plus avancés hallucinent paradoxalement plus que leurs prédécesseurs, révélant un arbitrage inhérent entre capacité de raisonnement et fiabilité factuelle. Cette réalité confirme que l’impact de l’IA sur le monde du travail ne peut se réduire à une simple liste de métiers condamnés à disparaître.

Les dimensions analytiques présentées ici offrent précisément un cadre pour dépasser les approches simplistes. Elles permettent de positionner le management dans un rôle nouveau : celui d’arbitre et d’urbaniste cognitif, capable de concevoir l’architecture des interactions humain-machine au sein de l’organisation.

Bien conduite, cette transformation peut enrichir l’expérience humaine du travail, au lieu de l’appauvrir.

The Conversation

Caroline Gans Combe a reçu des financements de l'Union Européenne dans le cadre de ses projets de recherche.

A-t-on un libre arbitre pour suivre les innovations technologiques ?

Pour le philosophe Ivan Illich, l’individu se trouve pris dans les fers de l’innovation. Subh_Naskar/Shutterstock

Le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel, décerné notamment à Philippe Aghion, a remis l’accent sur les bienfaits de l’innovation technologique, et son rôle crucial sur la croissance économique. Mais n’existe-t-il pas des innovations forcées ? La philosophie d’Ivan Illich peut nous éclairer à ce sujet.


En théorie, nous sommes tous libres d’acheter ou non les nouveaux modèles de smartphones, ou d’adopter les nouvelles générations technologiques. Dans la pratique, il est très difficile de résister. Les travaux sur la résistance des clients à l’innovation se multiplient. Certains abordent la question de l’innovation forcée, principalement à l’intérieur des entreprises et des administrations. L’organisation même des marchés peut mener à ces situations d’innovations forcées.

Un certain nombre d’acteurs, dominants sur le marché, peuvent imposer des produits plus rentables ou plus avantageux pour eux. Un exemple emblématique en est le compteur « intelligent » Linky d’Enedis. Malgré les résistances des particuliers et même parfois des collectivités locales, très bien analysées dans les travaux de Cécile Chamaret, Véronique Steyer et Julie Mayer, l’installation de ce compteur est devenue obligatoire.

Alors a-t-on un libre arbitre pour décider ou non d’adopter une nouvelle technologie ?

Contrôle du libre arbitre

Le philosophe Ivan Illich s’interrogeait dans son ouvrage la Convivialité (1973) sur la notion de création de besoins à partir de ce qu’il nomme des « monopoles radicaux ». Selon ce penseur critique de la société industrielle, les institutions exercent un contrôle sur le libre arbitre de chacun en créant des besoins et des solutions de toutes pièces, ce qui crée des dépendances. Ces monopoles radicaux peuvent s’incarner dans la médecine, le système de transport ou encore l’école.

Cette situation s’avère particulièrement problématique, car elle engendre une dépendance généralisée des individus envers ces « monopoles radicaux » qui contrôlent la satisfaction des besoins. La recherche du profit dans la production industrielle prime sur la réponse authentique aux besoins de la population. À terme, elle engendre une société de consommation aliénante où les individus n’ont plus ni autonomie ni capacité à faire des choix éclairés.

« Il y a monopole radical lorsque l’outil programmé évince le pouvoir-faire de l’individu. Cette domination de l’outil instaure la consommation obligatoire et dès lors restreint l’autonomie de la personne. »

L’individu pris dans les fers de l’innovation

Pour Ivan Illich, l’innovation a un rôle clef puisqu’elle est la réponse à ces besoins créés ; l’individu se trouve pris dans ses fers. Cette contre-productivité de l’innovation se manifeste par la détérioration qu’elle cause sur l’être humain lui-même, sur son autonomie et sa capacité de conscience. Elle l’est également sur son environnement, car les institutions « créent des besoins plus vite qu’elles ne peuvent les satisfaire et, tandis qu’elles s’efforcent en vain d’y parvenir, c’est la terre qu’elles consument ».


À lire aussi : Le prix Nobel d’économie 2025 met à l’honneur la création et la destruction économique


Le manque de réflexion sur la nécessité réelle de l’innovation, et l’inexistence de son évaluation a priori, finissent par avoir des conséquences sur nos ressources. Chaque nouveau smartphone, ordinateur, réseau social, nanotechnologie, intelligence artificielle n’apporte pas moins de contre-productivité face à ce que ces innovations seraient censées apporter : liberté, ouverture et connexion aux autres, indépendance, etc.

La course à laquelle se livre l’innovation, à une vitesse sans cesse accrue, ne mène-t-elle pas progressivement l’humain non pas au progrès, mais à sa perte ?

Avoir ou utiliser le dernier cri

Au cours des derniers mois, deux innovations très médiatiques ont été lancées sur le marché : ChatGPT 5 d’Open AI et l’iPhone 17 d’Apple. La première, nouvelle version de l’IA générative d’Open AI promet une meilleure logique, une multimodalité élargie (texte, image, vidéo) et une rapidité accrue par rapport à la version précédente. La nouvelle version du plus célèbre des smartphones propose, quant à elle, un nouvel écran légèrement plus lumineux, une double caméra arrière optimisée dans un contexte de faible éclairage, et rend possible un enregistrement simultané des caméras avant et arrière.

Pour l’immense majorité des usages, dans un cas comme dans l’autre, aucune différence n’est réellement perceptible par les utilisateurs. Les propositions relèvent plus de bénéfices symboliques (avoir ou utiliser le dernier cri) que de bénéfices liés à l’usage. Le baromètre de l’innovation responsable européen montre ainsi que 59 % seulement de la population, en France, pense que les sciences et technologies « rendent [sa] vie plus facile, plus confortable et les f[ai]t vivre en meilleure santé ».

En revanche, la fabrication d’un smartphone nécessite l’extraction d’une cinquantaine de métaux différents, et la fabrication des nouveaux terminaux représente 60 % de l’impact environnemental du numérique en France, lui-même en forte croissance. Quant à Chat GPT5, selon une étude récente de l’Université Rhode Island, il utilise en moyenne 18 wattheures par réponse fournie, soit l’équivalent du fonctionnement d’une ampoule incandescente pendant dix-huit minutes.

Peu de valeur ajoutée fonctionnelle

Ces deux exemples récents n’ont rien à envier à d’autres développements équivalents.

L’image 4K sur Netflix nécessite des équipements de captation (caméras) et de diffusion (ordinateur ou téléviseur) renouvelés et un abonnement Premium, plus cher, et ce malgré une différence minime à l’œil nu. Le protocole wifi 7 offre plus de débit et permet le passage d’une trentaine de secondes à dix secondes pour télécharger un film en haute définition, mais nécessitant de changer l’ensemble des équipements (box, terminaux).

On peut s’étonner que ces innovations rencontrent le succès malgré le peu de valeur ajoutée fonctionnelle qu’elles apportent. Mais pouvons-nous, en tant que consommateurs, résister à cette déferlante technologique ?

Mise à jour permanente

Dans le domaine du numérique, le fonctionnement des produits en réseau a pour corollaire un système de mises à jour permanentes. Il rend concrètement inutilisables les anciens modèles de hardware ou les anciennes versions des software. Pour faire fonctionner les dernières versions de messagerie, il est nécessaire de télécharger un système d’exploitation suffisamment récent, qui nécessite lui-même une mémoire dont ne dispose que les modèles plus récents de smartphone.

Le choix de conserver une ancienne version n’est pas disponible, même lorsque l’on n’est pas intéressé par les nouvelles fonctionnalités qu’elle propose, souvent très spécialisées. Les individus se trouvent contraints de suivre, même à distance, les avancées technologiques. Sans en avoir eu le désir ou l’intention, les individus se voient entraînés dans des usages nouveaux, qui peuvent ensuite être ressentis comme de véritables besoins.

Biais pro-innovation

Faire une économie globale des innovations est devenu clé. Si les êtres humains ne peuvent résister individuellement, les sociétés le peuvent-elles au niveau global ? Comme le souligne le professeur de management Franck Aggeri, la théorie schumpéterienne souffre d’un biais pro-innovation, en minorant ou ignorant souvent les impacts négatifs des innovations.

La notion de valeur étendue qui ajoute à la valeur pour le consommateur, la valeur – positive ou négative – pour la planète ou pour la société permet de prolonger la réflexion, mais n’est pas opérée au niveau macro-économique.

L’économie globale des innovations technologiques n’est jamais pensée, aucune innovation n’est présentée dans une perspective globale, complexe, avec pertes, profits, et dégâts collatéraux.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'ont déclaré aucune autre affiliation que leur organisme de recherche.

❌